※paizaに会員登録すると無料で動画学習コンテンツをご利用いただけます
会員登録する
#08:モデルの精度向上と各領域へのチューニング1
このチャプターでは、LLMを実務に適合させるために必要となる調整手法について学習します。
機械学習のモデルを開発・学習・デプロイ・監視する一連の運用体制。再現性や継続的改善を支える仕組み。
少数のサンプルをプロンプトに含めて、モデルに望ましい出力形式や推論パターンを誘導する手法。
LLMを実務に適合させる調整手法は、コストや導入難易度に応じて3つに大別されます。
1. プロンプトエンジニアリング/RAG
最も低コスト。モデルを変更せず、入力の工夫や外部知識の参照で精度を向上させる。不安定さや属人化が課題。
2. ファインチューニング
モデルに追加学習を行い、特定の振る舞いを学習させる。計算コストを抑えたPEFT(LoRAなど)が主流。破壊的忘却や過学習のリスクがある。
3. 継続事前学習
最も高コスト。特定ドメインの大量データでモデルの基礎能力を更新する。深いドメイン知識を埋め込めるが、実施できる組織は限定的。
これらの手法は、API利用かセルフホストかという運用形態も考慮して、目的に応じて使い分けることが重要です。