gk nlp
G検定トップ
> 隠れマルコフモデル(HMM)とは?G検定対策
まず結論
- 隠れマルコフモデル(HMM:Hidden Markov Model) とは、「観測できない状態(隠れ状態)」が確率的に遷移し、その結果として「観測できるデータ」が生成されると考える確率モデルである。
- G検定では 「隠れている状態」「確率モデル」「マルコフ性」 が正しく理解できているかを問われる。
直感的な説明
- 天気を直接見ることはできないが、服装や持ち物(傘など)から「晴れ・雨」を推測するイメージ。
- 本当の状態(天気)は見えないが、観測結果(人の行動)から確率的に推定する。
定義・仕組み
-
HMMは次の3つで構成される:
- 隠れ状態:直接観測できない内部状態
- 観測値:実際に観測できるデータ
-
確率:
- 状態遷移確率(前の状態 → 次の状態)
- 出力確率(状態 → 観測値)
-
状態遷移は マルコフ性(現在は直前の状態のみに依存)を仮定する。
いつ使う?(得意・不得意)
得意
- 時系列データのモデリング
- 音声認識、自然言語処理、品詞推定
不得意・注意点
- 状態数が多いと計算量が増える
- 長距離依存関係の表現は苦手(→ LSTMなどが登場)
G検定ひっかけポイント
- 「状態は常に観測できる」→ ✕(隠れ状態が前提)
- 「決定論的モデル」→ ✕(確率モデル)
- マルコフ性=過去すべてに依存しない点を混同しやすい
- 教師あり学習と誤認しやすいが、基本は確率モデル
まとめ(試験直前用)
- HMMは「隠れ状態+観測値」の確率モデル
- 状態遷移はマルコフ性を仮定
- 音声認識・NLPで古典的に利用
- 「状態は観測できない」が最大のキーワード
🔗 関連記事
- TF-IDF・Word2Vec・BERTの違いとは?役割で整理するNLP基礎【G検定対策】
- 数理・アルゴリズム・データ活用基礎(オプション)【DS検定対応】
- Bag of Words(BoW)とは?【文章の数値化手法|G検定対策】
- BERTとGPTの違い【比較チートシート|G検定対策】
- BERT(双方向Transformer)とは?G検定対策
🏠 G検トップに戻る