株式会社オブライト
AI2026-05-17

Alignment(アライメント)

別名: Alignment / AIアライメント / AI整合

AIシステムが人間の意図・価値観・倫理に沿った行動をするよう設計・学習させるプロセスと研究分野。RLHF・DPO・Constitutional AIなどがアラインメントの実装手法。


概要

アライメントはAIが人間の望ましい目標・価値観・安全基準に沿って行動するようにする取り組みの総称です。技術的アライメント(RLHF・DPO・Constitutional AI等による学習フェーズ)と、ガバナンス・倫理・規制に関わる広義のアライメント研究の両方を含みます。AnthropicはAIアライメントを中核的ミッションとして創業された企業です。

企業・規制との関係

EU AI Act・Bidenの大統領令・日本のAI安全ガイドラインなど、各国の規制はアライメントの実現を企業に求めています。AIガバナンスの観点からも、ビジネスでLLMを活用する企業はモデルプロバイダーのアライメント方針と自社の使用方針の整合を確認することが重要です。

関連コラム

関連用語

お気軽にご相談ください

お問い合わせ