株式会社オブライト
AI2026-03-16

Ollama × OpenClaw:Modelfileで業務特化AIモデルを作成する方法

OllamaのModelfile機能を使用して、業務に特化したカスタムAIモデルを作成し、OpenClawでデプロイする方法を詳しく解説します。プロンプトエンジニアリング、パラメータチューニング、GGUF形式モデルのインポート、マルチエージェントルーティングによるA/Bテストまで、実践的なテクニックを紹介します。


Modelfileによるカスタムモデル作成の利点

汎用的なLLMは多様なタスクに対応できますが、特定業務に最適化されていないため、回答の質やトーンが企業のニーズに合わないことがあります。OllamaのModelfileは、既存のモデルをベースに、システムプロンプト、パラメータ、テンプレートをカスタマイズして新しいモデルとして保存できる機能です。これにより、法律相談、医療アドバイス、技術サポート、営業支援など、業務特化のAIを簡単に作成できます。Modelfileはテキストファイルであるため、バージョン管理が容易で、チーム間で共有やレビューが可能です。OpenClawと組み合わせることで、作成したカスタムモデルをLINE、Slack、Discord等のマルチチャネルで即座に展開できます。品川区や大田区の企業では、業界特有の用語や対応スタイルを反映したAIモデルを構築し、顧客満足度を向上させています。

Modelfileの基本構文と構造

Modelfileは4つの主要なディレクティブで構成されます。`FROM`はベースとなるモデルを指定します(例:`FROM llama3.3:8b`)。`PARAMETER`は生成パラメータを設定します(temperature、top_p、top_kなど)。`SYSTEM`はシステムプロンプトを定義し、モデルの役割や振る舞いを指示します。`TEMPLATE`はプロンプトテンプレートをカスタマイズし、入力の前後に固定テキストを追加できます。基本的なModelfileの例:`FROM llama3.3:8b PARAMETER temperature 0.3 PARAMETER top_p 0.9 SYSTEM あなたは専門的な技術サポートエージェントです。丁寧で正確な回答を心がけてください。`。このファイルを`Modelfile`という名前で保存し、`ollama create tech-support -f Modelfile`を実行すると、`tech-support`という名前の新しいモデルが作成されます。`ollama list`で確認でき、`ollama run tech-support`で即座に使用開始できます。

業種別ペルソナ設定のベストプラクティス

業務特化AIの成否は、システムプロンプトでのペルソナ設定に大きく依存します。法律事務所向けAIでは「あなたは日本法に精通した法律アシスタントです。法的助言ではなく一般的な情報提供を行います。回答には関連する法令名を明記してください」といった指示が有効です。医療クリニック向けでは「あなたは医療受付アシスタントです。診断や治療の助言は行わず、予約案内と一般的な健康情報のみ提供します」と制約を明確にします。営業支援AIでは「あなたは製品知識に精通した営業サポートです。顧客の課題をヒアリングし、最適な製品を提案してください。価格交渉には応じず、担当営業に引き継ぐよう案内します」と役割を限定します。目黒区や世田谷区のB2B企業では、自社の営業トークスクリプトをシステムプロンプトに反映し、一貫したブランドボイスを実現しています。

パラメータチューニングによる出力制御

Modelfileの`PARAMETER`ディレクティブで、モデルの生成特性を細かく制御できます。`temperature`は創造性とランダム性を制御し、0に近いほど決定論的で一貫性のある出力、1に近いほど多様で創造的な出力になります。カスタマーサポートでは0.1-0.3、コンテンツ生成では0.7-0.9が推奨されます。`top_p`(nucleus sampling)は累積確率のしきい値で、0.9が一般的です。`top_k`は候補トークン数の上限で、40-100が標準です。`repeat_penalty`は繰り返しを抑制し、1.1-1.3が適切です。`num_ctx`はコンテキストウィンドウサイズで、長い会話履歴が必要な場合は4096や8192に増やします。例:`PARAMETER temperature 0.2 PARAMETER top_p 0.85 PARAMETER repeat_penalty 1.15 PARAMETER num_ctx 8192`。これらのパラメータを業務要件に合わせて調整することで、最適な応答品質を実現できます。

TEMPLATEディレクティブによる入力フォーマット制御

TEMPLATEディレクティブは、ユーザー入力がモデルに渡される形式を定義します。デフォルトのテンプレートは各モデルで異なりますが、カスタマイズすることで特定の入力形式を強制できます。例えば、構造化された問い合わせフォームの入力を想定する場合:`TEMPLATE """{{ .System }} 問い合わせ内容: {{ .Prompt }} 上記の問い合わせに対して、以下の形式で回答してください: 1. 要約 2. 詳細説明 3. 次のステップ"""`。このようにテンプレートを定義すると、すべての応答が一貫したフォーマットになります。また、特殊トークンを使用してチャット履歴を適切に処理することも可能です。複雑なテンプレートはデバッグが難しいため、まずシンプルなバージョンでテストし、段階的に拡張することを推奨します。

GGUF形式の外部モデルインポート

Ollamaは標準のモデルライブラリ以外に、GGUF(GPT-Generated Unified Format)形式の外部モデルもインポートできます。Hugging FaceやCivitAIなどからダウンロードしたGGUFファイルを使用する場合、Modelfileで`FROM /path/to/model.gguf`と指定します。例えば、日本語特化のファインチューニングモデル(Swallow、Youri、ELYZA等)をインポートする場合:`FROM ~/models/japanese-model-q4_K_M.gguf PARAMETER temperature 0.4 SYSTEM あなたは日本語ネイティブのアシスタントです。`。GGUFファイルの量子化レベル(q4_K_M、q5_K_M、q8_0等)によって、メモリ使用量と精度のトレードオフが変わります。Mac mini 32GBメモリでは、13Bモデルのq4量子化が実用的です。大田区や品川区の企業では、業界特化のファインチューニングモデルをインポートし、汎用モデルより高い精度を実現しています。

OpenClawへのカスタムモデル登録

Ollamaで作成したカスタムモデルをOpenClawで使用するには、エージェント設定ファイル`~/.openclaw/openclaw.json`を編集します。`"agents"`配列に新しいエージェントを追加し、`"model"`フィールドにカスタムモデル名を指定します。例:`{"name": "legal-advisor", "model": "ollama:legal-assistant", "endpoint": "http://localhost:11434", "tools": ["search_law_database"]}`。複数のカスタムモデルを定義し、`"bindings"`セクションで特定のチャネルやキーワードに応じて使い分けることができます。例えば、技術的な質問は`tech-support`モデル、法的な質問は`legal-assistant`モデルにルーティングします。OpenClawは優先度とパターンマッチングに基づいて自動的に適切なエージェントを選択するため、ユーザーは意識せずに最適なモデルとやり取りできます。

マルチエージェントルーティングによるA/Bテスト

OpenClawの強力な機能の一つが、複数のエージェント(モデル)を並行運用してA/Bテストできることです。同じ業務に対して異なるカスタムモデルを作成し、実際のユーザー対応で性能を比較できます。例えば、カスタマーサポート用に2つのモデル(モデルA:temperature 0.2、簡潔な回答、モデルB:temperature 0.4、詳細な説明)を用意し、ランダムに振り分けます。OpenClawのログから応答時間、ユーザー満足度、エスカレーション率などのメトリクスを収集し、統計的に有意な差を検証します。勝者が決まったらそのモデルを全チャネルに展開し、さらなる改善案で次のA/Bテストを実施します。この継続的な実験サイクルにより、モデルの精度を段階的に向上させます。世田谷区や渋谷区のスタートアップでは、こうしたデータドリブンなアプローチでAIの投資対効果を最大化しています。

バージョン管理とモデルイテレーション

Modelfileはテキストファイルであるため、Gitなどのバージョン管理システムで管理できます。プロジェクトリポジトリに`models/`ディレクトリを作成し、各業務用のModelfileを配置します(例:`models/customer-support-v1.modelfile`、`models/sales-assistant-v2.modelfile`)。変更履歴をコミットメッセージに記録し、どのバージョンがどの性能を示したかを追跡します。新しいバージョンをデプロイする際は、Ollamaで`ollama create customer-support:v2 -f models/customer-support-v2.modelfile`のようにタグ付きで作成します。OpenClawの設定でモデル名を`ollama:customer-support:v2`に更新すると、新バージョンが即座に有効になります。問題が発生した場合は、すぐに前バージョンにロールバックできます。チームでModelfileをレビューし、システムプロンプトやパラメータの改善案を共有することで、継続的にモデル品質を向上させます。

業務特化モデルの評価とベンチマーク

カスタムモデルの品質を客観的に評価するには、業務固有のテストセットを用意します。実際の顧客問い合わせから代表的な質問を50-100件選び、期待される回答(ゴールドスタンダード)を人間が作成します。各カスタムモデルでテストセットを実行し、回答を自動または手動で評価します。評価指標には、正確性(正しい情報を含むか)、完全性(必要な情報がすべて含まれるか)、簡潔性(冗長でないか)、トーン(ブランドボイスに合致するか)を含めます。LLM-as-a-Judge手法を使用すると、GPT-4や他のLLMに回答の品質を評価させることもできます。ベンチマーク結果をスプレッドシートやダッシュボードで可視化し、異なるModelfileバージョンやパラメータ設定を比較します。目黒区や品川区の企業では、四半期ごとにモデル評価を実施し、継続的な改善を図っています。

コスト削減と環境への配慮

OllamaとOpenClawによるローカルAIシステムは、クラウドAPIと比較して大幅なコスト削減を実現できます。OpenAI APIの場合、月間10万リクエストで数万円のコストがかかりますが、Ollamaは電気代のみです。Mac mini(M4 Pro、消費電力20-40W)を24時間稼働させても、月間電気代は数百円程度です。初期投資(Mac mini本体)は数ヶ月で回収できます。また、データセンターへの通信が不要なため、CO2排出量も削減できます。カスタムモデルを小型化(8Bや13Bモデル)することで、さらに消費電力を抑えながら十分な性能を維持できます。大田区や品川区の中小企業では、こうしたコストと環境面のメリットを重視し、ローカルAIへの移行が進んでいます。

株式会社オブライトのカスタムAIモデル開発支援

株式会社オブライト(東京都品川区)は、OllamaのModelfileを活用した業務特化AIモデルの開発を支援しています。お客様の業務要件をヒアリングし、最適なベースモデルの選定、ペルソナ設計、パラメータチューニング、テンプレート作成まで一貫してサポートします。GGUF形式の外部モデルインポートやファインチューニングモデルの統合にも対応しています。OpenClawへの統合により、LINE、Slack、Discord等のマルチチャネル展開とA/Bテストによる継続的改善を実現します。品川区、大田区、目黒区、世田谷区を中心に、法律、医療、不動産、製造業など多様な業界に特化したAIソリューションを提供しています。業務に最適化されたAIモデル構築に興味がある方は、ぜひお問い合わせください。

お気軽にご相談ください

お問い合わせ