gk transformer attention
G検定トップ
> Transformerの全体構造(Encoder / Decoder)とは?【BERT・GPTとの関係|G検定対策】
まず結論
- Transformerは、Self-Attentionを中核としたニューラルネットワーク構造である。
- Encoderは「入力を理解する役割」、Decoderは「出力を生成する役割」を担う。
- G検定では「EncoderかDecoderか」を見抜けるかが最大のポイント。
直感的な説明
Transformerは、文章処理を
「読むパート」と「書くパート」に分けた構造です。
- Encoder:
👉 文章を読んで、意味を理解する - Decoder:
👉 理解した内容をもとに、文章を生成する
👉 読む=Encoder、書く=Decoder
定義・仕組み
Transformerの基本構成
- Embedding層
- Self-Attention
- Feed Forward Network
- 残差接続+正規化
これらを
- Encoderブロック
- Decoderブロック
として積み重ねる。
Encoder
- 入力文全体を同時に処理
- 双方向に文脈を考慮
- 出力は「文脈情報を含んだ表現」
👉 意味理解が得意
Decoder
- これまでの出力をもとに次の単語を予測
- 一方向(未来は見ない)
- Encoderの出力を参照する場合もある
👉 文章生成が得意
いつ使う?(得意・不得意)
Encoder系が向く
- 文書分類
- 感情分析
- 質問応答(理解側)
Decoder系が向く
- 文章生成
- 要約
- 対話システム
G検定ひっかけポイント
ここが超重要 👇
❌ Encoderは文章を生成する
- 誤り
- Encoderは理解専用
❌ Decoderは双方向に文脈を見る
- 誤り
- Decoderは一方向
⭕ 正しい判断基準
- 「双方向」「理解」→ Encoder
- 「一方向」「生成」→ Decoder
BERT・GPTとの関係
- BERT:Transformer Encoderのみ
- GPT:Transformer Decoderのみ
- 翻訳モデル:Encoder + Decoder
👉 どの部分を使うかがモデルの性格を決める
まとめ(試験直前用)
- TransformerはAttention中心構造
- Encoder=理解(双方向)
- Decoder=生成(一方向)
- BERT=Encoderのみ
- GPT=Decoderのみ
- 「理解か生成か」で切る
🔗 関連記事
- CLIP(画像とテキストの対応付けモデル)とは?G検定対策
- PaLM(大規模言語モデル)とは?G検定対策
- PaLM-E(環境対応マルチモーダルモデル)とは?G検定対策
- Attention・Transformer・BERTの関係とは?【仕組みで整理|G検定対策】
- Attention(注意機構)
🏠 G検トップに戻る