AI2026-05-17
Constitutional AI(憲法的AI)
別名: Constitutional AI / CAI / 憲法的AI
Anthropicが提案したアラインメント手法で、AIの行動を規定する原則集(憲法)をもとにAI自身が自己批評・修正を行い、有害な回答を減らす。Claudeの開発に用いられている。
概要
Constitutional AI(CAI)はAnthropicが2022年に発表した手法で、AIの行動原則を文書(憲法)として定義し、LLM自身に有害な回答を批評・修正させます。従来のRLHFが大量の人間アノテーションを必要とするのに対し、CAIは自己批評サイクルを活用することで人間コストを削減しながら安全性を高めます。Claudeの主要なアラインメント手法として知られています。
仕組み
まず有害なリクエストに対する初期応答を生成し、次に憲法の原則に基づいて自己批評を行い、最後に改善版の応答を生成します。このサイクルを繰り返すことで、安全でHelpfulな応答パターンをモデルに学習させます。
関連コラム
AI
AIガバナンス・AI規制対応ガイド|2026年に企業が知るべきAI法規制と社内ルール整備
2026年に企業が対応すべきAIガバナンスとAI規制の実践ガイドです。EU AI Actの施行スケジュール、日本のAIガイドライン動向、AIリスク分類、影響評価の方法論、透明性・説明可能性要件、AIバイアス対策、社内AI利用ルールの策定から、品川区をはじめとする東京の中小企業向けの実務的なコンプライアンスチェックリストまで網羅的に解説します。
AI
Claude Opus 4.7 リリース解説 — ソフトウェアエンジニアリング強化、高解像度画像対応、Task Budgets【2026年4月版】
Anthropic が 2026年4月16日に GA とした Claude Opus 4.7 の概要。前モデル 4.6 比で難易度の高いソフトウェア開発タスクで顕著な改善、最大 2576px / 3.75MP の高解像度画像対応、エージェント実行のトークン使用見積もりを与える Task Budgets、AWS Bedrock / Vertex AI / Microsoft Foundry での提供、価格据え置き($5 / $25 per MTok)など、公式情報ベースで整理します。
AI
Anthropic Claude サブスクリプション制限変更 — 2026年4月の第三者ツール制限の全容と開発者への影響
2026年4月4日よりAnthropicはClaudeサブスクリプション(Pro/Max)の利用枠を第三者ハーネス(OpenClawなど)で使用不可に変更。影響範囲、追加利用オプション、開発者の対応策を徹底解説します。
関連用語
お気軽にご相談ください
お問い合わせ