gk nlp attention
G検定トップ
> Embedding と ELMo・BERT の違いとは?G検定対策
まず結論
- Embedding(Word2Vec など)は単語ごとに1つの固定ベクトルを割り当てるのに対し、ELMo や BERTは文脈に応じてベクトルが変わる文脈依存型Embeddingです。
- G検定では「静的か文脈依存か」「同じ単語でも意味が変わるか」が問われます。
直感的な説明
- 通常の Embedding は「辞書の意味」です。単語に1つの意味しかありません。
- ELMo や BERT は「会話の中の意味」です。同じ単語でも、前後の文で意味が変わります。
-
例:「bank」
- Embedding:金融機関 or 川岸を区別できない
- ELMo / BERT:文脈から意味を判断できる
定義・仕組み
-
Embedding(静的Embedding)
- Word2Vec / GloVe など
- 単語ごとに1つのベクトル
- 文脈を考慮しない
-
ELMo
- 双方向RNN(LSTM)を使用
- 文全体の文脈を考慮して単語表現を生成
-
BERT
- Transformer(Attention)を使用
- 双方向に文脈を考慮
- より強力な文脈表現が可能
いつ使う?(得意・不得意)
静的Embedding
-
得意:
- 計算が軽い
- 実装が簡単
-
不得意:
- 多義語を区別できない
文脈依存Embedding(ELMo / BERT)
-
得意:
- 多義語を区別できる
- 高精度なNLPタスクに有効
-
不得意:
- 計算コストが高い
G検定ひっかけポイント
-
最大のひっかけ
- 「ELMo や BERT は単語ごとに1つのベクトルを持つ」→ ❌
-
正しい理解
- 同じ単語でも文脈によってEmbeddingが変わる
-
よくある混同
- ELMo = Word2Vec の改良版 → ❌
- BERT = 単なるEmbedding → ❌
-
選択肢で
- 「文脈を考慮しない」→ 静的Embedding
- 「文脈を考慮する」→ ELMo / BERT
まとめ(試験直前用)
- Embedding:固定ベクトル(静的)
- ELMo / BERT:文脈依存ベクトル
- 多義語を扱えるのは文脈依存型
- 文脈という言葉が出たら要注意
🔗 関連記事
- CLIP(画像とテキストの対応付けモデル)とは?G検定対策
- PaLM-E(環境対応マルチモーダルモデル)とは?G検定対策
- TF-IDF・Word2Vec・BERTの違いとは?役割で整理するNLP基礎【G検定対策】
- 数理・アルゴリズム・データ活用基礎(オプション)【DS検定対応】
- Attention・Transformer・BERTの関係とは?【仕組みで整理|G検定対策】
🏠 G検トップに戻る