NousResearch Hermes完全ガイド — Hermes 4.3 36B・Function Calling・Hermes Agentの全貌【2026年版】
NousResearch Hermesシリーズの最新版Hermes 4.3 36B(512Kコンテキスト)とエージェントフレームワーク「Hermes Agent」を徹底解説。Function Calling実装例、Ollama対応、ハードウェア要件まで網羅した2026年版完全ガイド。
Hermesシリーズとは? — Function Calling特化のオープンソースLLM
NousResearch Hermesは「ユーザーアラインド・最小限のフィルタリング・高い操縦性」を哲学とするオープンソースLLMファインチューンシリーズです。Hermes 1(2023年)からHermes 4.3(2025年末)まで進化を続け、Function CallingとAIエージェント用途において、オープンソースLLM最高クラスの信頼性を誇ります。2026年3月にはエージェントフレームワーク「Hermes Agent」も公開され、GitHubで40,000以上のスターを獲得しています。
Hermesシリーズ進化タイムライン
| バージョン | ベースモデル | リリース | 主な特徴 |
|---|---|---|---|
| Hermes 1 | LLaMA 1 13B | 2023年初 | 初のNous高品質ファインチューン |
| OpenHermes 2.5 | Mistral 7B | 2023年 | 100万サンプルのデータセット |
| Hermes 2 Pro | Llama 3 8B/70B | 2024年 | Function Calling専用トークン導入 |
| Hermes 3 | Llama 3.1 8B/70B/405B | 2024年8月 | 128Kコンテキスト、エージェント能力 |
| DeepHermes 3 | Llama 3 / Mistral 24B | 2025年2月 | 推論モードのON/OFF切替 |
| Hermes 4 | Llama 3.1 70B/405B | 2025年8月 | ハイブリッド推論、RefusalBench 1位 |
| Hermes 4.3 | ByteDance Seed 36B | 2025年12月 | 512Kコンテキスト、分散学習(Solana) |
Hermesモデルファミリーの系譜
Hermes 4.3 36B — 最新フラグシップモデル詳細
Hermes 4.3は、ByteDance Seed 36Bをベースモデルとした初のMeta Llama以外のHermesファインチューンです。512Kという超大容量コンテキストを持ち、36Bながら70B相当の性能を発揮します。訓練はPsyche分散ネットワーク(Solanaブロックチェーン基盤)上で行われており、RefusalBench(不必要な回答拒否を測定するベンチマーク)では全モデル中最高スコアを記録しています。
| 項目 | Hermes 4.3 36B |
|---|---|
| ベースモデル | ByteDance Seed 36B |
| パラメータ | 36B(Dense) |
| コンテキスト | 512K トークン |
| ライセンス | ByteDance Seed License |
| 訓練データ | 約500万サンプル / 約60Bトークン |
| 訓練基盤 | Psyche分散ネットワーク(Solana) |
| VRAM (Q4) | 24〜32GB |
| RefusalBench | 全モデル中最高(GPT-4oの17%、Claudeの17%を大幅上回る) |
RefusalBenchとは? — なぜHermesが圧倒的か
RefusalBenchは、LLMが正当なユーザーリクエストに対して不必要に回答を拒否する頻度を測定するベンチマークです。GPT-4oは17%、Claudeも17%前後に対し、Hermes 4は57%、Hermes 4.3はさらにそれを上回るスコアを記録しています。これは「検閲なし」ではなく「ユーザーの正当なリクエストに応える」というNousResearchの哲学を数値で示したものです。AIエージェントや業務自動化での利用において、過剰な拒否はシステムの信頼性を損なうため、Hermesの高スコアは実用上の大きな優位点です。
Function Calling — Hermesの最大の強み
Hermes 2 Pro以降に導入された専用トークン(`<tools>`、`<tool_call>`、`<tool_response>`)により、ストリーミング対応の高精度Function Callingが実現されています。オープンソースLLMのFunction Calling実装として最も信頼性が高く、JSONスキーマ準拠の構造化出力にも対応しています。以下にChatMLプロンプト形式のFunction Calling実装例を示します。
<|im_start|>system
You are a helpful assistant. You have access to the following tools:
<tools>
[{"name": "get_weather", "description": "Get current weather", "parameters": {"type": "object", "properties": {"location": {"type": "string"}}, "required": ["location"]}}]
</tools>
<|im_end|>
<|im_start|>user
東京の天気を教えて
<|im_end|>
<|im_start|>assistant
<tool_call>
{"name": "get_weather", "arguments": {"location": "Tokyo"}}
</tool_call>
<|im_end|>
<|im_start|>tool
<tool_response>
{"temperature": 18, "condition": "Partly cloudy"}
</tool_response>
<|im_end|>Hermes Agentとは? — 2026年3月公開のエージェントフレームワーク
Hermes Agentは2026年3月に公開されたオープンソースのAIエージェントフレームワークで、GitHubで40,000以上のスターを獲得しています。「成長するエージェント」をコンセプトに、タスク完了後に自動でスキルを生成・記憶する仕組みを持ちます。永続メモリ、自然言語によるCronスケジューリング、Telegram・Discord・Slack・LINE・WhatsApp等のマルチプラットフォームメッセージング連携、Ollama公式統合を備え、ローカルLLMとクラウドAPIの両方に対応しています。
Hermes Agentのアーキテクチャ
Hermes Agent vs OpenClaw — 比較
| 項目 | Hermes Agent | OpenClaw |
|---|---|---|
| リリース | 2026年3月 | 2025年 |
| GitHubスター | 40,000以上 | — |
| 永続メモリ | あり | あり |
| 自動スキル生成 | あり | なし |
| メッセージ連携 | Telegram/Discord/Slack/LINE等 | Slack/Discord/LINE等 |
| Ollama統合 | 公式 | 公式 |
| MCPサポート | サーバーモード | 対応 |
| 自然言語Cron | あり | 限定的 |
| ライセンス | MIT | MIT |
自動スキル生成機能を必要とする場合はHermes Agent、既存のMCPエコシステムや確立されたワークフローを活用したい場合はOpenClawが適しています。
Ollama対応状況とインストール方法
| モデル | Ollamaコマンド | 備考 |
|---|---|---|
| Hermes 3 8B | `ollama run hermes3` | 公式ライブラリ |
| Hermes 3 70B | `ollama run hermes3:70b` | 公式ライブラリ |
| Hermes 4.3 36B | `ollama run HammerAI/hermes-4.3` | コミュニティ提供 |
| DeepHermes 3 8B | GGUF手動ダウンロード | bartowski配布 |
Hermes 3はOllamaの公式ライブラリに収録されており、コマンド一行でセットアップ可能です。Hermes 4.3はコミュニティ提供のModelfileを使用します。
ハードウェア要件
| モデル | VRAM (Q4量子化) | 推奨GPU |
|---|---|---|
| Hermes 3 3B | 4〜6GB | RTX 3060 |
| Hermes 3 8B | 8〜10GB | RTX 3080 / RTX 4070 |
| DeepHermes 3 Mistral 24B | 16〜20GB | RTX 3090 / RTX 4090 |
| Hermes 4.3 36B | 24〜32GB | RTX 3090 / RTX 4090 / M3 Max |
| Hermes 4 70B | 40〜48GB | A100 / デュアルRTX 3090 |
Hermes 3 3BはQ4量子化を使えばCPUのみでも動作しますが、応答速度は大幅に低下します。
Hermesの主なユースケース5選
1. AIエージェントのバックエンドLLM — Function Calling対応の高い信頼性から、自律エージェントのコアエンジンとして最適。 2. チャットボット構築 — 低フィルタリングにより、業務用チャットボットでの自然な応答が可能。 3. クリエイティブライティング — Hermes 3はクリエイティブ用途での評価が特に高い。 4. 構造化データ抽出 — JSONスキーマ準拠の出力で、データパイプラインへの組み込みが容易。 5. マルチステップ推論 — Hermes 4のハイブリッド推論モードで、複雑な論理タスクに対応。
日本語対応の注意点
Hermesシリーズは英語主体で訓練されており、日本語の自然文生成タスクにはQwen 3.5やGemma 4を推奨します。ただし、Function CallingやJSON出力はプロンプトの言語に依存しない部分が多く、ツール連携・データ抽出用途では十分活用できます。日本語入力でも英語でツールを呼び出す構造であれば、Hermesの強みを最大限引き出せます。
DeepHermes 3の「推論モードON/OFF」機能
DeepHermes 3は、システムプロンプトで推論モードを切り替えられる初のモデルです。推論モードをONにすると`<think>...</think>`タグ内で長い推論チェーンを生成し、数学・論理問題で大幅なスコア向上が確認されています。通常の会話タスクでは推論モードをOFFにすることで、レイテンシを抑えた応答が可能です。この切替機能は、1モデルで汎用タスクと高精度タスクの両方をカバーするという実用的なアプローチです。
Psycheネットワーク — Solana基盤の分散学習
Hermes 4.3はPsyche分散ネットワーク上で訓練されています。DisTrOオプティマイザーを使用し、インターネット越しの複数データセンターにまたがる分散学習を実現。Solanaブロックチェーンによって計算への貢献と報酬のコンセンサスが確保されており、AI訓練の脱中央化という革新的なアプローチです。この仕組みにより、単一の大企業に依存せずに大規模モデルを訓練できる可能性を示しています。
よくある質問(FAQ)
Q. HermesとLlamaの違いは何ですか? A. LlamaはMetaが公開した基盤モデルです。HermesはそのLlamaなど既存の基盤モデルに、NousResearchが独自の高品質データセットでファインチューンを施したモデルです。Function CallingやエージェントタスクへのチューニングはHermesが行っています。 Q. 商用利用は可能ですか? A. モデルによって異なります。Hermes 3はMeta Llama License、Hermes 4.3はByteDance Seed Licenseが適用されます。商用利用前に各ライセンス条件を確認してください。 Q. Function Callingは他のモデルより優れていますか? A. オープンソースLLMの中では最高クラスの信頼性とされています。専用トークンを使った実装はHermes 2 Proから導入され、継続的に改善されています。 Q. Hermes AgentとOpenClawどちらを使うべきですか? A. 自動スキル生成機能やマルチプラットフォームメッセージング連携を重視するならHermes Agent、既存のMCPエコシステムや実績のある環境を優先するならOpenClawが適しています。 Q. 日本語でも使えますか? A. 自然な日本語の文章生成は限定的です。ただしFunction Calling・JSON出力用途であれば実用的に活用できます。自然文生成にはQwen 3.5やGemma 4を推奨します。 Q. Hermes 4.3の512Kコンテキストは実用的ですか? A. 大規模コードベースの把握、長文ドキュメントの要約・QA、長期会話履歴の保持など、実務での活用シーンは多くあります。 Q. GPUがない場合でも使えますか? A. Hermes 3 3BをQ4量子化すればCPUのみでも動作しますが、応答速度は大幅に低下します。実用的な速度にはGPUを推奨します。 Q. 最も推奨されるモデルは何ですか? A. 24GBのVRAMがある場合はHermes 4.3 36B(Q4量子化)、8〜10GBの場合はHermes 3 8Bが最もバランスの取れた選択です。
Oflightの生成AI導入支援
HermesをはじめとするローカルLLMのFunction Calling実装、Hermes Agentの業務システム統合、オンプレミスAIエージェント構築など、生成AI活用に関するご相談はOflightにお気軽にどうぞ。自社環境に最適なモデル選定から実装まで一貫してサポートいたします。 AIコンサルティング・導入支援はこちら
お気軽にご相談ください
お問い合わせ