生成AIの仕組みと変遷
「生成AIパスポート(2026年2月試験対応)」において、第2章が扱っているのは、
生成AIがどのように生まれ、どんな進化を重ねて、今の対話型AIにたどり着いたのかという流れです。
この章は、用語を暗記するための章ではありません。
AIが
- もともとは「見分けるだけ」だったこと
- そこから「新しく作る」力を持ち
- 今では人と会話できる存在になったこと
この技術の進化のストーリーを理解することが目的です。
1) 生成AIは「作るAI」として生まれた
生成AIとは、
大量のデータから特徴や傾向を学び、新しいデータを作り出すAIのことです。
たとえば、
- たくさんの猫の写真を学んで、新しい猫の画像を描く
- 文章を大量に読んで、新しい文章を書く
こうしたことができるAIです。
初期の生成AIは、扱う対象によって大きく2つの流れに分かれていました。
① 画像を扱うAIの進化
画像の世界では、まず「確率的にそれっぽいものを作る」モデルが登場しました。
その後、
- VAE(変分自己符号化器)
→ 画像を一度ギュッと圧縮してから、元に戻す仕組み - GAN(敵対的生成ネットワーク)
→ 「作る役」と「見破る役」を競わせて、より本物らしい画像を作る仕組み
といった方法が生まれ、画像生成の精度が一気に向上しました。
② 言葉や時間の流れを扱うAIの進化
文章や音声のように「順番が大事なデータ」には、
- RNN(文章を前から順に読む仕組み)
が使われましたが、
長い文章になると、最初の内容を忘れてしまう弱点がありました。
そこで登場したのが、
- LSTM(長・短期記憶)
→ 大事な情報は長く覚えておけるように改良した仕組み
です。
2) Transformerの登場が、すべてを変えた
2017年に登場したTransformerは、この章最大の転換点です。
それまでのAIは、
- 前から順番に処理する
- 過去をたどりながら理解する
というやり方でした。
Transformerは、ここを思い切って変えました。
Transformerのすごいところ
- Attention(注意)という仕組みを使い
- 文章全体を一気に見て
- 「どの言葉がどの言葉と関係しているか」を同時に考える
これにより、
- 長い文章でも意味を正しく理解でき
- 学習スピードも一気に上がりました。
この仕組みが、
- 画像系AI
- 言語系AI
という別々に進化してきた流れを、一つの共通基盤にまとめることになります。
3) GPT系・BERT系、そしてChatGPTへ
Transformerをベースに、AIは方向性の違う2つの系統に分かれます。
GPT系(文章を作るのが得意)
- 次に来る言葉を予測して文章を作る
- 会話や文章生成に強い
この流れが進化し、
- GPT-1
- GPT-3(一気に巨大化)
- GPT-3.5 / GPT-4
を経て、ChatGPTが生まれました。
BERT系(文章を理解するのが得意)
- 文章の意味を正確に読み取る
- 検索や分類に強い
Googleが中心となって発展させました。
最新モデルの広がり
2026年2月試験向けのシラバスでは、さらに、
- 推論を強化した o1シリーズ
- 画像・音声も扱える GPT-4o
- 動画生成の Sora
- 他社の Gemini や Claude
などが登場し、
AIの進化スピードが非常に速いことが強調されています。
4) 生成AIを理解するための重要キーワード
この章では、生成AIを安全に使うための考え方も重視されています。
- RLHF
→ 人間が「この答えは良い」「これはダメ」と評価し、
AIを人の価値観に近づける学習方法 - ハルシネーション
→ AIが自信満々に間違った情報を作ってしまう現象
「知っているふり」に注意が必要 - マルチモーダル
→ 文字だけでなく、画像・音声・動画も一緒に扱える能力
まとめ:第2章は「生成AIが人間に近づいてきた道のり」
第2章を一言で言うなら、こう。
見分けるだけだったAIが、考え、作り、対話する存在へ成長してきた歴史を学ぶ章。
画像(目)と言葉(言語)が、
Transformerという共通の“脳”を得たことで、
今の生成AIが生まれた。
この流れが分かると、
「なぜ今こんなAIが急に出てきたのか」
「なぜ万能そうに見えるのか」
が、ちゃんと理解できるようになるよ。

