AI2026-05-17
Pre-training(事前学習)
別名: Pre-training / 事前学習 / プレトレーニング
LLMが膨大な量のテキストデータで次トークン予測などの汎用タスクを学習する最初の大規模学習フェーズ。後続のファインチューニングやアラインメントの基盤となる。
概要
事前学習はLLM開発の最初のフェーズで、数兆トークン規模のテキストデータ(Web・書籍・コード等)を使って次のトークンを予測する自己教師あり学習を行います。この段階でモデルは言語の構造・文法・世界知識・コーディング能力などを習得します。膨大なGPU時間と電力を必要とするため、ほぼすべての企業が事前学習済みモデルをベースに使います。
フロンティアモデルとオープンモデル
OpenAI・Anthropic・Googleは独自の大規模事前学習を行い、API提供しています。一方LlamaやQwenなどのオープンウェイトモデルは事前学習済みの重みを公開しており、企業がそれをベースにファインチューニングして使えます。
関連コラム
AI
SLM(小規模言語モデル)が2026年の主役に|中小企業が今すぐ導入すべき理由と実践ガイド
Gartnerが選ぶ2026年の戦略的テクノロジートレンドに「ドメイン特化型言語モデル」が選出。大規模LLMに代わり、低コスト・高精度・データ漏洩リスクゼロのSLM(小規模言語モデル)が中小企業のAI活用を変革します。導入メリット、代表的モデル、具体的な活用シーン、導入ステップを解説。
Software Development
中小企業のための生成AI活用ガイド|業務効率化を実現する導入ステップ
ChatGPTをはじめとする生成AIを中小企業の業務にどう活かすか?導入のステップ、活用事例、注意点をわかりやすく解説します。
AI
Gemma 4入門ガイド — 概要・特徴・Ollamaでの始め方【2026年完全解説】
Googleが2026年4月2日にリリースしたGemma 4の完全ガイド。E2B、E4B、26B MoE、31B Denseの4バリアント、Apache 2.0ライセンス、マルチモーダル対応など最新情報とOllamaでの実行方法を詳しく解説します。
関連用語
お気軽にご相談ください
お問い合わせ