OllamaとOpenClawで始めるAIエージェント開発入門 — 初心者向けステップバイステップ
Mac mini M4とOllama、OpenClawを使って、誰でも簡単にAIエージェントを構築できます。Homebrewのインストールから、モデルのダウンロード、LINEやSlackとの連携まで、初心者向けに丁寧に解説します。品川区・港区・渋谷区をはじめ東京エリアの企業様向けAIエージェント導入支援も実施中。
はじめに:なぜローカルLLM × OpenClawなのか
近年、ChatGPTやClaude、Geminiといったクラウド型AIサービスが普及していますが、企業や個人がプライバシー、コスト、カスタマイズ性を重視する場合、ローカルで動作する大規模言語モデル(LLM)が注目されています。Ollamaは、macOS、Linux、Windowsで簡単にLLMをローカル実行できるオープンソースツールで、Llama 3、Qwen、Gemma、Mistral、Phi、CodeLlama、DeepSeekなど豊富なモデルライブラリを提供しています。一方、OpenClawは、Mac mini上でマルチエージェントを動かし、LINE、Slack、Discord、WhatsApp、Telegram、iMessageといった複数のメッセージングチャネルと連携できるオープンソースAIエージェントプラットフォームです。本記事では、Ollama + OpenClawを使って、初心者でもステップバイステップでAIエージェント開発を始められるよう、環境構築から動作確認、トラブルシューティングまでを丁寧に解説します。
準備:必要な環境とハードウェア
本ガイドで推奨する環境は、Mac mini M4(Apple Silicon)とmacOS Sequoia以降です。Mac mini M4は、統合メモリ16GB以上を搭載し、AI推論に最適化されたNeural Engineを備えているため、ローカルLLMの実行に十分なパフォーマンスを発揮します。macOSのバージョンは最新のものを使用することで、OllamaとOpenClawの互換性が保証されます。また、インターネット接続は、初回のモデルダウンロードやHomebrewパッケージのインストールに必要です。ストレージ容量は、モデルファイルが数GB~数十GBになることがあるため、最低50GB以上の空き容量を確保しておくことを推奨します。ターミナル(Terminal.app)の基本操作ができれば、本ガイドに沿って作業を進められます。
ステップ1:Homebrewのインストール
Homebrewは、macOS用のパッケージマネージャで、Ollamaをはじめとする各種ツールのインストールを簡単にします。Homebrewがまだインストールされていない場合は、ターミナルを開き、以下のコマンドを実行してください。 ```bash /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" ``` インストールが完了したら、`brew --version`を実行してバージョンが表示されることを確認します。Apple Siliconの場合、Homebrewは`/opt/homebrew`にインストールされるため、シェルの設定ファイル(`~/.zshrc`など)に以下の行を追加してパスを通しておきましょう。 ```bash eval "$(/opt/homebrew/bin/brew shellenv)" ``` 設定後、ターミナルを再起動するか`source ~/.zshrc`を実行して反映させます。
ステップ2:Ollamaのインストールと初回モデルダウンロード
Homebrewが使える状態になったら、次はOllamaをインストールします。ターミナルで以下のコマンドを実行してください。 ```bash brew install ollama ``` インストール完了後、Ollamaをバックグラウンドで起動します。 ```bash ollama serve ``` このコマンドを実行すると、Ollamaは`localhost:11434`でREST APIサーバーを起動します(OpenAI互換APIとしても利用可能)。別のターミナルウィンドウを開いて、初回モデルをダウンロードしてみましょう。例えば、軽量で高性能な「Llama 3.2 3B」を使う場合は以下を実行します。 ```bash ollama pull llama3.2:3b ``` ダウンロードには数分~数十分かかることがあります。完了後、`ollama list`でインストール済みモデル一覧を確認できます。さらに、`ollama run llama3.2:3b`を実行すると、ターミナル上で対話型チャットが開始され、Ollamaが正常に動作していることを確認できます。終了するには`/bye`と入力します。
ステップ3:OpenClawのインストールと基本設定
OpenClawは、GitHubからクローンしてインストールします。ターミナルで作業ディレクトリに移動し、以下のコマンドを実行してください。 ```bash git clone https://github.com/oflight-inc/openclaw.git cd openclaw npm install ``` 依存パッケージのインストール後、設定ファイル`.env`を作成します。リポジトリ内に`.env.example`があるので、これをコピーして編集します。 ```bash cp .env.example .env open .env ``` `.env`ファイル内で、以下の主要な設定項目を確認・編集します。 - `OLLAMA_BASE_URL=http://localhost:11434`:Ollamaのエンドポイント - `DEFAULT_MODEL=llama3.2:3b`:デフォルトで使用するモデル名 - `AGENT_NAME=MyFirstAgent`:エージェントの名前(任意) これでOpenClawの基本設定は完了です。次に、メッセージングチャネルと連携するための設定を進めます。
ステップ4:LINEチャネルとの連携設定
OpenClawは、LINE、Slack、Discord、WhatsApp、Telegram、iMessageなど複数のチャネルに対応していますが、ここでは日本で広く利用されているLINEとの連携を例に説明します。まず、LINE Developers(https://developers.line.biz/)にアクセスし、プロバイダーとMessaging APIチャネルを作成します。チャネル作成後、「Messaging API設定」タブから以下の情報を取得します。 - チャネルアクセストークン(長期) - Webhook URL(後で設定) 次に、OpenClawの`.env`ファイルに以下を追加します。 ```bash LINE_CHANNEL_ACCESS_TOKEN=your_line_channel_access_token LINE_CHANNEL_SECRET=your_line_channel_secret ``` OpenClawを起動します。 ```bash npm run dev ``` OpenClawはデフォルトで`http://localhost:3000`で起動します。LINE Developersコンソールに戻り、Webhook URLに`http://your-public-url/api/line/webhook`を設定します(ローカル開発の場合は、ngrokなどのトンネリングサービスを使って公開URLを取得してください)。Webhookを有効化し、応答メッセージを無効化します。これで、LINEボットとOpenClawが連携し、ユーザーがLINEでメッセージを送ると、OllamaのLLMが応答を返す仕組みが完成します。
ステップ5:Slackチャネルとの連携設定(オプション)
Slackとの連携も人気があります。Slack API(https://api.slack.com/)にアクセスし、新しいアプリを作成します。「OAuth & Permissions」で以下のBot Token Scopesを追加します:`chat:write`、`channels:read`、`groups:read`、`im:read`、`mpim:read`。アプリをワークスペースにインストールし、Bot User OAuth Tokenを取得します。`.env`に以下を追加します。 ```bash SLACK_BOT_TOKEN=xoxb-your-slack-bot-token SLACK_SIGNING_SECRET=your-slack-signing-secret ``` 「Event Subscriptions」を有効化し、Request URLに`http://your-public-url/api/slack/events`を設定します。`message.channels`、`message.groups`、`message.im`、`message.mpim`イベントをサブスクライブします。OpenClawを再起動し、Slackチャネルにボットを招待(`/invite @YourBot`)すれば、Slackからもエージェントを利用できるようになります。
ステップ6:エージェントの動作確認とテスト
LINEまたはSlackの連携が完了したら、実際にメッセージを送ってエージェントの動作を確認しましょう。LINEの場合、友だち追加したボットにトーク画面から「こんにちは」と送信してみてください。数秒以内に、Ollamaで動作しているLLMからの応答が返ってくるはずです。応答がない場合は、OpenClawのターミナルログを確認し、エラーメッセージがないかチェックします。よくある原因として、Webhook URLの設定ミス、トークンの誤入力、Ollamaが起動していない、モデルがダウンロードされていない、などがあります。`ollama list`でモデルが表示されるか、`curl http://localhost:11434/api/tags`でAPIが応答するかを確認してください。正常に動作すれば、複雑な質問や日本語・英語の切り替え、コード生成依頼など、さまざまなプロンプトを試してエージェントの能力を体験できます。
よくあるトラブルシューティング
初心者が遭遇しやすい問題と解決策をまとめます。 **1. Ollamaが起動しない**:`ollama serve`実行時にポート11434が既に使用されている場合、他のプロセスがポートを占有している可能性があります。`lsof -i :11434`で確認し、該当プロセスを終了してください。 **2. モデルダウンロードが遅い**:Ollamaのモデルは数GB~数十GBあります。Wi-Fi環境や時間帯により時間がかかることがあります。有線接続や深夜帯のダウンロードを推奨します。 **3. OpenClawが起動しない**:`npm install`でエラーが出る場合、Node.jsのバージョンを確認してください。推奨はNode.js 18以上です。`node --version`で確認し、必要に応じてnvmなどでバージョンを切り替えます。 **4. LINEボットが応答しない**:LINE DevelopersコンソールでWebhookの検証に失敗している場合、公開URLが正しく設定されているか、OpenClawが起動しているか確認してください。ngrokを使う場合、ngrokのURLは再起動のたびに変わるため、都度更新が必要です。 **5. 応答が遅い、またはタイムアウトする**:Mac mini M4のメモリが不足している、または大きなモデルを使用している場合、推論に時間がかかることがあります。軽量モデル(3B~7Bパラメータ)から試し、必要に応じてモデルを切り替えてください。
次のステップ:マルチエージェントとツール連携
基本的なエージェントが動作したら、次はOpenClawの強力な機能であるマルチエージェントルーティングとツール連携に挑戦しましょう。OpenClawでは、複数のエージェント(例:カスタマーサポート用、技術質問用、社内FAQ用)を定義し、ユーザーの質問内容に応じて適切なエージェントに自動ルーティングできます。また、外部APIやデータベース、Webスクレイピング、カレンダー連携などのツール(Function Calling)を追加することで、単なるチャットボットを超えた実用的なAIエージェントを構築できます。OpenClawのドキュメント(https://github.com/oflight-inc/openclaw)には、ツール定義のサンプルコードやマルチエージェント設定のベストプラクティスが掲載されていますので、ぜひ参考にしてください。さらに、セキュリティサンドボックス機能を活用すれば、エージェントが外部リソースにアクセスする際の権限を細かく制御でき、企業環境でも安心して運用できます。
まとめ:株式会社オブライトのAIエージェント導入支援
本記事では、Ollama + OpenClawを使ったAIエージェント開発の入門ガイドを、初心者向けにステップバイステップで解説しました。Mac mini M4とローカルLLMを組み合わせることで、プライバシーを守りながらコストを抑え、高度にカスタマイズ可能なAIエージェントを構築できます。東京都品川区に本社を置く株式会社オブライト(Oflight Inc.)では、品川区、港区、渋谷区、世田谷区、目黒区、大田区をはじめとする東京エリアの企業様向けに、OpenClawのセットアップ支援、カスタムエージェント開発、マルチチャネル連携、ツール統合、運用保守までを一貫してサポートしています。社内FAQボット、カスタマーサポート自動化、営業支援エージェント、技術サポートボットなど、お客様のニーズに合わせた最適なAIソリューションをご提案いたします。導入をご検討の際は、ぜひお気軽にお問い合わせください。AIエージェント開発の第一歩を、私たちと一緒に踏み出しましょう。
お気軽にご相談ください
お問い合わせ