株式会社オブライト
AI2026-04-07

OpenClaw Wiki — 用語集・設定・コマンド・トラブルシューティング完全リファレンス【2026年版】

OpenClawの包括的なリファレンスガイド。用語集、システム構成、コマンド一覧、MCP連携、トラブルシューティング、FAQ等を網羅した決定版ドキュメント。


OpenClawとは?基本概要

OpenClawは、MITライセンスで提供されるオープンソースのAIエージェントプラットフォームです。企業や個人が自社環境にローカル展開でき、タスクの自動化、マルチチャネル対応(Slack/Discord/LINE等)、ナレッジベース統合(RAG)を実現します。Ollama等のローカルLLMと連携し、クラウドAPIに依存せず完全オフライン運用が可能。プライバシーを重視する企業、コスト削減を目指す組織、独自カスタマイズを必要とする開発者に最適なソリューションです。MCPプロトコルによる外部ツール連携、マルチモーダル対応、ワークフロー自動化など、エンタープライズグレードの機能を備えています。

OpenClaw用語集

OpenClawを使いこなすための主要用語を一覧にまとめました。

用語説明
Agent(エージェント)AIタスクを実行する自律エージェント。特定のスキルとプロンプトテンプレートを持つ
Task(タスク)エージェントに割り当てる作業単位。単発実行またはワークフローの一部
Knowledge Base(ナレッジベース)RAGで参照する社内文書データベース。PDF/Markdown/CSVをインポート可能
MCP(Model Context Protocol)外部ツール連携プロトコル。ファイル操作、Web検索、データベースアクセス等を標準化
ModelfileOllamaモデルのカスタム設定ファイル。温度、トップP、システムプロンプトを定義
Channel(チャネル)Slack/Discord/LINE等のメッセージング連携先
Skill(スキル)エージェントが持つ特定の能力・ツール(検索、計算、画像生成等)
RAG(検索拡張生成)外部知識を検索してLLMが回答を生成する手法。ハルシネーション対策に有効
Workflow(ワークフロー)複数タスクの自動実行シーケンス。条件分岐、ループ、並列実行に対応
Prompt Template(プロンプトテンプレート)エージェントの振る舞いを定義するテンプレート。役割、制約、出力形式を指定

システム構成と必要スペック

OpenClawは幅広いハードウェア環境で動作します。用途に応じた推奨構成を以下に示します。

構成CPUメモリストレージGPU想定ユーザー
最小構成M4/i5相当16GB256GB SSD不要個人・検証環境
推奨構成M4 Pro/i7相当32GB512GB SSD8GB以上VRAM中小企業・チーム利用
エンタープライズM4 Max/Xeon64GB以上1TB以上 NVMe24GB以上VRAM大規模運用・本番環境

Mac mini(M4/M4 Pro)は特にコストパフォーマンスに優れており、小規模〜中規模運用に最適です。GPUはオプションですが、画像生成・マルチモーダルタスクを扱う場合は必須となります。

インストール方法まとめ

OpenClawは複数のプラットフォームに対応しています。 Mac(macOS)の場合: ```bash brew install openclaw openclaw init openclaw start ``` Linuxの場合: ```bash curl -fsSL https://openclaw.sh | bash openclaw init sudo systemctl enable openclaw sudo systemctl start openclaw ``` Docker環境: ```bash docker pull openclaw/openclaw:latest docker run -d -p 3000:3000 -v ./data:/data openclaw/openclaw ``` Windows(WSL2): ```bash wsl --install wsl curl -fsSL https://openclaw.sh | bash openclaw init && openclaw start ``` インストール後、ブラウザで `http://localhost:3000` にアクセスし、初期セットアップウィザードを実行します。Ollamaのインストールと初回モデルダウンロードには10〜30分程度かかります。

主要設定ファイルリファレンス

OpenClawの動作は主に `config.yaml` と `Modelfile` で制御します。 config.yaml の主要パラメータ: ```yaml server: port: 3000 host: 0.0.0.0 max_concurrency: 5 llm: provider: ollama model: qwen3.5:9b temperature: 0.7 max_tokens: 4096 rag: enabled: true chunk_size: 512 chunk_overlap: 64 vector_db: qdrant embedding_model: mxbai-embed-large channels: slack: enabled: true bot_token: ${SLACK_BOT_TOKEN} discord: enabled: false ``` Modelfile の書き方例: ``` FROM qwen3.5:9b PARAMETER temperature 0.7 PARAMETER top_p 0.9 SYSTEM あなたは親切で正確なAIアシスタントです。 ``` 主要な環境変数: - `OPENCLAW_HOME`: インストールディレクトリ(デフォルト: ~/.openclaw) - `OPENCLAW_PORT`: サーバーポート(デフォルト: 3000) - `OLLAMA_HOST`: Ollamaサーバーのアドレス - `SLACK_BOT_TOKEN`: Slack連携用トークン - `DISCORD_BOT_TOKEN`: Discord連携用トークン

よく使うコマンド一覧

OpenClaw CLIの基本コマンドを網羅しました。

コマンド説明
`openclaw start`OpenClawサーバーを起動
`openclaw stop`OpenClawサーバーを停止
`openclaw restart`サーバーを再起動
`openclaw status`稼働状況と各サービスのステータスを確認
`openclaw agent create <name>`新規エージェントを作成
`openclaw agent list`登録済みエージェント一覧を表示
`openclaw task run <agent> <task>`指定エージェントでタスクを実行
`openclaw kb import <dir>`ナレッジベースにドキュメントをインポート
`openclaw kb search <query>`ナレッジベースを検索
`openclaw channel add <type>`メッセージングチャネルを追加(slack/discord/line)
`openclaw logs`サーバーログをリアルタイム表示
`openclaw logs --tail 100`最新100行のログを表示
`openclaw update`OpenClawを最新バージョンにアップデート
`openclaw config edit`設定ファイルをエディタで開く
`openclaw model list`利用可能なLLMモデル一覧
`openclaw model pull <name>`新しいモデルをダウンロード

すべてのコマンドは `--help` オプションで詳細なヘルプを表示できます。

MCP(Model Context Protocol)連携ガイド

MCPは、LLMが外部ツールと標準化された方法で連携するためのプロトコルです。OpenClawは以下のMCPサーバーに対応しています。 主要なMCPツール: - ファイル操作: ローカルファイルの読み書き、ディレクトリ操作 - Web検索: Google/Bing検索、特定サイトのクローリング - データベースアクセス: PostgreSQL、MySQL、SQLiteへのクエリ実行 - APIコール: REST/GraphQL APIの呼び出し - コード実行: Python/JavaScript/Bashコードの安全な実行 - ブラウザ操作: Puppeteerによる自動ブラウジング MCP設定例(config.yaml): ```yaml mcp: servers: - name: filesystem enabled: true config: allowed_paths: - /data - /workspace - name: web_search enabled: true config: api_key: ${GOOGLE_SEARCH_API_KEY} - name: database enabled: true config: connection_string: postgresql://user:pass@localhost/db ``` MCPサーバーは独立したプロセスとして起動し、OpenClawはHTTP/WebSocketで通信します。セキュリティのため、許可リストベースのアクセス制御が推奨されます。

ナレッジベース構築手順

RAG(検索拡張生成)を実現するナレッジベースの構築方法を解説します。 1. ドキュメントの準備: 対応形式はPDF、Markdown、CSV、DOCX、TXT。社内wiki、マニュアル、FAQなどを `/data/kb/` ディレクトリに配置します。 2. インポート実行: ```bash openclaw kb import /data/kb/ --recursive ``` 3. チャンク設定の最適化: `config.yaml` で以下を調整します。 - `chunk_size`: 512〜1024(短い文書なら512、長文なら1024) - `chunk_overlap`: chunk_sizeの10〜20%が目安 - `embedding_model`: 日本語には `multilingual-e5-large` または `mxbai-embed-large` を推奨 4. ベクトルDB(Qdrant)の設定: Qdrantはデフォルトで組み込まれていますが、大規模運用時は外部Qdrantサーバーを推奨します。 ```yaml rag: vector_db: qdrant qdrant_url: http://localhost:6333 collection_name: openclaw_kb ``` 5. 検索精度の検証: ```bash openclaw kb search "納期は何日ですか" --top-k 5 ``` 定期的な再インポートとインデックス最適化が精度維持のカギです。

マルチチャネル連携

OpenClawは主要なメッセージングプラットフォームと連携できます。 Slack連携: 1. Slack AppでBot Tokenを取得 2. `SLACK_BOT_TOKEN` 環境変数に設定 3. `openclaw channel add slack` 実行 4. Slackチャネルにボットを招待 Discord連携: 1. Discord Developer PortalでBotを作成 2. `DISCORD_BOT_TOKEN` 環境変数に設定 3. `openclaw channel add discord` 実行 4. OAuth2 URLでサーバーに招待 LINE連携: 1. LINE Developers ConsoleでMessaging APIを有効化 2. Channel SecretとAccess Tokenを取得 3. Webhook URLを `https://your-domain.com/webhook/line` に設定 4. `openclaw channel add line` で設定 Microsoft Teams連携: 1. Teams AppでBot Frameworkを設定 2. App IDとPasswordを取得 3. `config.yaml` のteamsセクションに記載 メール連携: IMAPで受信、SMTPで送信。問い合わせ自動応答やレポート配信に活用できます。 各チャネルでのメンション、スレッド返信、添付ファイル処理に対応しています。

LLMモデル選定ガイド

OpenClawで使用できる主要なLLMモデルと特徴を比較しました。

モデルパラメータ数必要VRAM日本語品質推奨用途
Qwen3.5-9B9B6GB最高汎用・ビジネス全般。日本語精度が極めて高く、コスパ最強
Gemma 4 E4B4.5B4GB良好軽量タスク・リアルタイム応答が必要な場面
Gemma 4 31B31B20GB以上良好高品質推論・複雑なロジック処理
Llama 4 Scout17B(実効)24GB以上普通長文コンテキスト(128K)・大量文書処理
DeepSeek R1 8B8B6GB普通推論特化・数学的問題解決
Mistral Nemo12B8GB良好多言語対応・コード生成
Phi-414B10GB良好Microsoft提供・小型高性能

選定のポイント: - 日本語メインなら Qwen3.5-9B が最適 - メモリが限られるなら Gemma 4 E4B - 最高品質を求めるなら Gemma 4 31B または Llama 4 Scout - コード生成なら Mistral Nemo または DeepSeek R1 モデルは `openclaw model pull <name>` でダウンロードし、`config.yaml` で切り替えられます。

セキュリティ設定

OpenClawをエンタープライズ環境で安全に運用するためのセキュリティ設定を紹介します。 1. アクセス制御: ```yaml security: auth: enabled: true method: oauth2 # または jwt, basic allowed_users: - user@example.com allowed_groups: - engineering - support ``` 2. API認証: REST APIにはBearerトークン認証を設定します。 ```bash openclaw api create-token --name "external-service" --expires 90d ``` 3. データ暗号化: - 保存データ: ナレッジベースとログをAES-256で暗号化 - 通信: TLS 1.3必須(Let's Encryptで自動証明書取得可) ```yaml security: encryption: at_rest: true key_file: /secure/encryption.key tls: enabled: true cert_file: /etc/letsencrypt/live/domain/fullchain.pem key_file: /etc/letsencrypt/live/domain/privkey.pem ``` 4. 監査ログ: 全てのAPI呼び出し、エージェント実行、設定変更を記録します。 ```yaml logging: audit: enabled: true output: /var/log/openclaw/audit.log rotation: daily retention: 90d ``` 5. ネットワーク分離: ファイアウォールで管理ポートを内部ネットワークに制限し、Reverse Proxy(Nginx/Caddy)経由で公開します。 定期的な脆弱性スキャンとアップデートの適用が推奨されます。

トラブルシューティング

OpenClaw運用時によくある問題と解決方法を網羅しました。

症状考えられる原因解決法
サーバーが起動しないポート3000が既に使用中`lsof -i :3000` で確認し、プロセスを停止するか `config.yaml` でポート変更
LLMの応答が極端に遅いメモリ不足、スワップ発生モデルサイズを縮小(9B→4.5B)、量子化レベルをQ4に変更
RAG検索の精度が低いチャンク設定が不適切`chunk_size` を512→1024に増やす、`embedding_model` を変更
チャネル接続エラートークンの期限切れSlack/Discordで再認証し、新しいトークンを設定
ディスク容量不足警告モデルとログの肥大化`openclaw model prune` で未使用モデル削除、ログローテーション設定
GPU使用率が常に100%並行リクエスト過多`config.yaml` で `max_concurrency` を5→3に削減
Ollamaに接続できないOllamaサービス未起動`ollama serve` または `systemctl start ollama` で起動確認
Knowledge Base検索が0件インデックス未作成`openclaw kb rebuild-index` で再構築
メモリリークの疑い長時間稼働による蓄積定期的に `openclaw restart` または `systemctl restart openclaw`
タスクがタイムアウトタスク複雑度が高すぎる`max_tokens` と `timeout` を増やす、タスクを分割

ログの確認方法: ```bash openclaw logs --level error --tail 50 journalctl -u openclaw -f # systemd環境 ``` 問題が解決しない場合は、GitHub Issuesまたは公式Discordで質問してください。

バージョン履歴と最新アップデート

OpenClawの主要バージョンアップ履歴をまとめました。 v1.0.0(2024年3月) - 初回リリース - 基本的なエージェント実行機能 - Ollama連携 - Slack/Discord対応 v1.2.0(2024年7月) - RAG機能追加 - ナレッジベース統合 - Qdrantベクトルデータベース対応 - PDF/Markdownインポート v1.5.0(2024年11月) - MCP対応 - Model Context Protocol実装 - ファイル操作、Web検索ツール追加 - ワークフロー機能強化 v2.0.0(2025年2月) - マルチモーダル対応 - 画像・音声入力サポート - LINE/Teams連携追加 - パフォーマンス大幅改善 v2.3.0(2025年9月) - エンタープライズ機能 - OAuth2認証 - 監査ログ - マルチテナント対応 v2.5.0(2026年1月・現行最新版) - LLM選択肢拡大 - Qwen3.5、Gemma 4、Llama 4 Scout対応 - GPU効率化(VRAM使用量30%削減) - WebUI刷新 次期v3.0(2026年Q3予定)では、エージェント間の自律協調、マルチエージェントオーケストレーション、リアルタイム音声対話などが計画されています。

コミュニティリソース

OpenClawの学習・活用に役立つリソースをまとめました。 公式リソース: - GitHub リポジトリ: https://github.com/openclaw/openclaw - ソースコード、Issue、Pull Request - 公式ドキュメント: https://docs.openclaw.io - 詳細なAPI仕様、チュートリアル - Discord サーバー: 5,000人以上のコミュニティ。質問、情報交換、最新情報 - YouTube チャンネル: デモ動画、ウェビナー、事例紹介 サードパーティツール: - OpenClaw Studio: GUI版の設定ツール(VSCode拡張) - openclaw-docker-compose: Docker環境の簡単セットアップテンプレート - openclaw-templates: 業種別エージェントテンプレート集(営業支援、カスタマーサポート、データ分析等) - openclaw-monitoring: Prometheus/Grafana用のメトリクスエクスポーター 日本語リソース: - Qiita/Zennの技術記事(「OpenClaw 導入」で検索) - 日本語Discordチャンネル(#japan) - 日本のユーザーコミュニティによる月次オンラインMeetup 学習パス: 1. 公式チュートリアル(Getting Started) 2. サンプルエージェントの実行 3. ナレッジベース構築の実践 4. カスタムエージェント開発 5. 本番環境へのデプロイ コミュニティへの貢献(バグ報告、機能提案、ドキュメント改善)も歓迎されています。

FAQ(よくある質問)

Q1: OpenClawは無料で使えますか? A: はい。MITライセンスで提供されており、個人・商用問わず無料で利用できます。ソースコードも公開されているため、独自のカスタマイズや再配布も可能です。 Q2: Mac mini以外のハードウェアでも動作しますか? A: はい。Linux(Ubuntu/Debian/RHEL)、Windows(WSL2経由)、Docker環境でも動作します。x86_64とARM64(Apple Silicon)の両アーキテクチャに対応しています。 Q3: Ollamaは必須ですか?他のLLMランタイムは使えませんか? A: Ollamaが推奨ですが、vLLM、llama.cpp、LocalAIなど他のランタイムにも対応しています。`config.yaml` でプロバイダーを切り替えられます。 Q4: インターネット接続は常に必要ですか? A: 初回セットアップとモデルダウンロード時のみ必要です。それ以降は完全オフライン運用が可能です。Web検索やクラウドAPI連携を使う場合のみ接続が必要になります。 Q5: 何人のユーザーで同時に使えますか? A: ハードウェアスペックに依存します。メモリ16GBで3〜5人、32GBで10〜15人、64GBで30人以上が目安です。並行リクエスト数は `max_concurrency` で制御できます。 Q6: Claude/ChatGPT/Gemini等のクラウドAPIと併用できますか? A: はい。ローカルLLMと並行して、Anthropic Claude API、OpenAI API、Google Gemini APIとの連携が可能です。コスト削減と高品質推論を使い分けられます。 Q7: 公式サポートはありますか? A: コミュニティサポート(Discord/GitHub)が基本ですが、日本国内ではOflightが有償導入支援サービスを提供しています。セットアップ代行、カスタマイズ、運用サポートが含まれます。 Q8: UIやドキュメントは日本語に対応していますか? A: UIとドキュメントは現在英語のみですが、日本語コミュニティによる非公式翻訳があります。LLMの応答は、Qwen3.5-9Bを使用すれば最高品質の日本語が得られます。 Q9: データのプライバシーは保証されますか? A: はい。全てのデータは自社環境に保存され、外部に送信されません(オフライン運用時)。ナレッジベースや会話履歴も完全にローカル管理できます。 Q10: 商用利用時のライセンス料金はかかりますか? A: いいえ。MITライセンスのため、商用利用でもライセンス料金は一切かかりません。ただし、使用するLLMモデル自体のライセンスは個別に確認が必要です(Qwen、Gemma等はほとんどが商用利用可)。

Oflightの導入支援サービス

OpenClawの導入・運用でお困りの企業様に、Oflightは包括的な支援サービスを提供しています。 提供サービス内容: 1. 初期セットアップ代行 - ハードウェア選定、OS設定、OpenClawインストール、Ollama構成、初期モデル選定までをワンストップで実施します。 2. ナレッジベース構築 - 御社の社内文書、マニュアル、FAQ等を最適な形でインポートし、高精度なRAG環境を構築します。チャンク設定の最適化、embedding選定、検索精度チューニングを含みます。 3. カスタムエージェント開発 - 営業支援、カスタマーサポート、データ分析など、御社の業務に特化したエージェントを開発します。既存システムとのAPI連携、業務フロー自動化も対応可能です。 4. マルチチャネル連携設定 - Slack、Teams、LINE等、御社が使用中のメッセージングツールとの連携を設定します。 5. セキュリティ設定支援 - エンタープライズグレードのアクセス制御、暗号化、監査ログ設定を実装します。情報セキュリティポリシーへの適合もサポートします。 6. 運用保守・サポート - 稼働監視、トラブルシューティング、定期メンテナンス、バージョンアップ対応を継続的に提供します。 料金目安: - 初期セットアップ: 30万円〜(規模による) - カスタムエージェント開発: 50万円〜/本 - 月次運用サポート: 10万円〜 導入実績: 中小企業からエンタープライズまで、幅広い業種での導入実績があります。製造業のマニュアル自動応答、不動産会社の問い合わせ対応、SaaS企業のカスタマーサポート自動化など、多様なユースケースに対応しています。 まずは無料相談で、御社の課題とOpenClawの適合性を診断します。詳細は Oflightの導入支援サービスページ をご覧ください。 お問い合わせ: OpenClawの導入を検討されている企業様は、お気軽にご相談ください。御社の環境に最適な構成をご提案いたします。

お気軽にご相談ください

お問い合わせ