1s.xyz / LLM周辺用語 教科書 24 / 25

第24章. 用語索引

この章の目的

この章の目的は、本書全体で登場した主要な用語を網羅的にリストアップし、それぞれの用語がどの章で詳しく説明されているかを示すことです。読者が特定の用語の意味を再確認したい場合や、関連する概念をまとめて学習したい場合に、素早く情報にアクセスできる辞書として機能します。

この章で覚えるべきこと

  • 本書で扱われた主要なLLM関連用語の全体像を把握できる。
  • 各用語がどの章で詳細に解説されているかを素早く見つけられる。
  • 関連する用語や概念への理解を深めるための参照点として活用できる。

用語索引の利用方法

LLM(大規模言語モデル)の分野は、技術の進歩が著しく、新しい概念や専門用語が日々生まれています。本書では、初心者から中級者までがこの複雑な世界を理解できるよう、多くの重要な用語を丁寧に解説してきました。しかし、一度読んだだけではすべての用語を記憶するのは難しいでしょうし、特定の用語の意味を再確認したい場面も少なくないはずです。

この「用語索引」は、そんな読者の皆さんのための羅針盤です。本書で登場した主要な用語をアルファベット順に整理し、それぞれの用語がどの章で詳しく説明されているかを明記しています。これにより、読者は、知りたい用語の解説に素早くたどり着き、効率的に学習を進めることができます。

用語索引は、特定の分野の専門用語を網羅的に集め、その定義や関連情報への参照を提供するツールです。本書の用語索引は、以下の原則に基づいて構成されています。

  1. 網羅性: 本書で解説された主要な技術用語、概念、ツール名を可能な限り含めます。
  2. 参照性: 各用語に対し、その用語が最も詳細に説明されている章番号を明記します。これにより、読者は元の解説に簡単に戻ることができます。
  3. 利便性: アルファベット順に並べることで、目的の用語を素早く見つけられるようにします。

この索引は、単なる用語集ではなく、本書の各章がどのように関連し合っているかを理解するための一助ともなります。例えば、「ファインチューニング」という用語を調べた際に、それが「転移学習」の章(第10章)だけでなく、「プロンプトエンジニアリング」の章(第12章)や「Adapter」の章(第13章)でも言及されていることに気づけば、ファインチューニングがLLMの様々な側面と深く関連していることを理解できるでしょう。

用語索引の構造と参照フロー

graph TD
    A[読者] --> B{用語検索}
    B --> C[用語索引]
    C --> D{目的の用語発見}
    D --> E[参照章番号確認]
    E --> F[該当章へ移動]
    F --> G[詳細解説を学習]
    G --> H{関連用語発見}
    H --> C

用語索引は、読者が特定の用語から関連する章へとスムーズに移動し、学習を深めるためのナビゲーションシステムとして機能します。

LLM開発における主要な学習パラダイムの比較

特徴/パラダイム Pre-training (事前学習) Fine-tuning (ファインチューニング) In-context Learning (文脈内学習)
目的 広範な知識獲得 特定タスクへの適応 少量の例からの推論
データ量 大規模(数兆トークン) 中規模〜小規模(数千〜数万例) 非常に少量(数例)
モデル更新 全パラメータ更新 一部または全パラメータ更新 なし(プロンプトのみ変更)
計算コスト 非常に高い 中程度 低い
柔軟性 低い(汎用モデル) 中程度(タスク特化) 高い(プロンプトで調整)
代表例 BERT, GPT Adapter, LoRA Few-shot, Zero-shot
参照章 第5章 第10章, 第13章 第11章

LLMの評価指標の分類

graph TD
    A["LLM評価指標"] --> B["自動評価 (Automatic Evaluation)"]
    A --> C["人間評価 (Human Evaluation)"]

    B --> B1["生成品質"]
    B --> B2["タスク性能"]
    B --> B3["効率性"]

    B1 --> B1a["Perplexity (PPL)"]
    B1 --> B1b["BLEU"]
    B1 --> B1c["ROUGE"]

    B2 --> B2a["Accuracy"]
    B2 --> B2b["F1-score"]
    B2 --> B2c["Exact Match"]

    B3 --> B3a["Latency"]
    B3 --> B3b["Throughput"]

    C --> C1["関連性"]
    C --> C2["流暢さ"]
    C --> C3["有用性"]
    C --> C4["安全性"]

    subgraph "参照章"
            B1a
            B1b
            B1c
            B2a
            B2b
            B2c
            C1
            C2
            C3
            C4
    end

LLMの評価は、自動評価と人間評価の二つの主要なカテゴリに分けられます。自動評価は客観的な指標に基づき、人間評価はより主観的で多角的な視点を提供します。

具体例

以下に、本書で登場した主要な用語とその参照章をリストアップします。このリストは、本書の全内容を網羅するものであり、読者の学習をサポートするためのものです。

用語 参照章
Adapter 第13章
Attention 第4章
Auto-regressive 第2章
Backpropagation 第3章
BERT 第5章
Bias 第17章
BLEU 第18章
Chain-of-Thought (CoT) 第12章
ChatGPT 第1章
Classification 第8章
Context Window 第2章
Cross-entropy 第3章
Data Augmentation 第9章
Decoder 第4章
Deep Learning 第3章
Diffusion Model 第20章
Embeddings 第6章
Encoder 第4章
Few-shot Learning 第11章
Fine-tuning 第10章
Generative AI 第1章
GPT 第5章
Gradient Descent 第3章
Hallucination 第17章
Hyperparameters 第3章
In-context Learning 第11章
Instruction Tuning 第10章
Knowledge Distillation 第14章
Large Language Model (LLM) 第1章
Latent Space 第6章
LoRA 第13章
Machine Translation 第8章
Masked Language Model (MLM) 第5章
Model Compression 第14章
Multimodal LLM 第20章
Natural Language Processing (NLP) 第1章
Neural Network 第3章
One-shot Learning 第11章
Overfitting 第9章
Parameter-Efficient Fine-tuning (PEFT) 第13章
Perplexity 第18章
Pre-training 第5章
Prompt Engineering 第12章
Quantization 第14章
RAG (Retrieval-Augmented Generation) 第15章
Reinforcement Learning from Human Feedback (RLHF) 第16章
Representation Learning 第6章
Retrieval 第15章
RNN 第2章
ROUGE 第18章
Self-Attention 第4章
Semantic Search 第15章
Sequence-to-Sequence (Seq2Seq) 第4章
Tokenization 第7章
Transformer 第4章
Transfer Learning 第10章
Underfitting 第9章
Vector Database 第15章
Word Embeddings 第6章
Zero-shot Learning 第11章

クロスエントロピー損失関数

LLMの学習において、モデルの出力と正解ラベルとの間の誤差を測るためによく用いられるのがクロスエントロピー損失関数です。特に分類タスクや言語モデルの次単語予測において重要です。

$$ L = - \sum_{i=1}^{N} y_i \log(\hat{y}_i) $$

ここで、$L$ は損失値、$N$ はクラス数(または語彙サイズ)、$y_i$ は正解ラベルにおけるクラス $i$ の確率(通常はone-hotエンコーディングで1または0)、$\hat{y}_i$ はモデルが予測したクラス $i$ の確率です。この損失関数は、正解クラスの確率を最大化するようにモデルを学習させます。

Perplexity (PPL)

Perplexityは、言語モデルの性能を評価する指標の一つで、モデルが次に現れる単語をどれだけうまく予測できるかを示します。値が低いほど、モデルの予測能力が高いことを意味します。

$$ PPL = \exp \left( - \frac{1}{N} \sum_{i=1}^{N} \log P(w_i | w_1, \dots, w_{i-1}) \right) $$

ここで、$N$ は評価対象のテキストの単語数、$w_i$ は $i$ 番目の単語、$P(w_i | w_1, \dots, w_{i-1})$ はモデルが前の単語列に基づいて $w_i$ を予測する確率です。


3行まとめ

この章は用語索引であるため、「3行まとめ」は割愛します。

混同しやすい用語

この章は用語索引であるため、「混同しやすい用語」は割愛します。