Part 1(第1章・第2章)の学習が完了しました。この記事では、2つの章で学んだ内容を一枚の地図として整理します。
試験直前の復習、あるいは黒本(問題集)で間違えた語句の位置確認に使ってください。
Part 1 の核心:第1章と第2章は「表裏一体」
第1章で学んだ「歴史」と、第2章で学んだ「技術の中身」は、1対1で対応しています。
| AIブーム(第1章) | 技術のアプローチ(第2章) | 限界(両章共通) |
|---|---|---|
| 第1次ブーム 探索・推論の時代 (1950〜60年代) | 2-1:探索・推論 幅優先・深さ優先・ヒューリスティック プランニング(STRIPS) Mini-Max法・αβ法・モンテカルロ法 | トイ・プロブレム(単純な問題)は解けるが、現実の複雑な問題には対応できない(組み合わせ爆発) フレーム問題(1969年、マッカーシーとヘイズが提唱) |
| 第2次ブーム 知識の時代 (1980年代) | 2-2:知識表現 意味ネットワーク(is-a/part-of) オントロジー(ヘビー/ライトウェイト) エキスパートシステム(マイシン) Cycプロジェクト・ワトソン | 知識獲得のボトルネック(人間の常識をすべて入れることが事実上不可能) 機械翻訳の限界でも同じ問題が登場する |
| 第3次ブーム 機械学習・特徴表現学習の時代 (2010年〜) | 2-3:機械学習・深層学習 統計的自然言語処理・コーパス 特徴量・ニューラルネットワーク ディープラーニング(ブラックボックス)・LLM | (現在進行形。次元の呪い・計算コスト・説明責任など課題は残る) |
「なぜその技術が生まれたか」と「その技術の中身」をセットで覚えると、語句が文脈の中に根付きます。
Part 1 の重要語句マップ
第1章・第2章で登場した Main キーワードを、「どのブームに属するか」で分類したマップです。問題を解いていて「この語句、どの文脈だったっけ?」と迷ったときの確認用に使ってください。
AIの基本概念(ブームをまたいで通底する考え方)
| キーワード | 10秒で言えること |
|---|---|
| AI(人工知能) | 推論・認識・判断など、人間と同じ知的処理能力を持つ機械。定義は研究者によって異なり、一意には定まらない。 |
| 強いAI(AGI) | 意味を理解し、あらゆる知的作業を行える未実現のAI。 |
| 弱いAI(ANI) | 特定タスクをパターン処理で実現する現在のAI。ChatGPTも弱いAI。 |
| AI効果 | AIが新しいことを実現すると「それはもうAIではない」と思われる心理的現象。AIの定義が時代とともに変わる理由。 |
| AIとロボットの違い | ロボットの「脳」にあたる部分が人工知能。AIの研究は「考える」という目に見えないものを扱う学問であり、ロボットの物理的機構の研究とは別物。 |
| チューリングテスト | 人間がコンピュータと会話して相手を見抜けなければ「知能がある」とみなすアラン・チューリングの判定法。 |
| 中国語の部屋 | ジョン・サールの思考実験。「正しく答えられること」と「意味を理解していること」は別という主張。 |
第1次ブーム関連:探索・推論
| キーワード | 10秒で言えること |
|---|---|
| トイ・プロブレム | 現実を単純化した「おもちゃの問題」。アルゴリズムの性能比較にも使われる。第1次ブームはこれしか解けなかった。 |
| フレーム問題 | 今の行動に関係ある情報だけを選ぶことがAIには難しいという問題。1969年にマッカーシーとヘイズが提唱。(マッカーシーはダートマス会議の主催者でもある) |
| 探索木 | 場合分けを枝状に展開した構造。AIが解を探す際の基本的な仕組み。 |
| 幅優先探索 | 出発点に近い順に探索。最短経路を必ず見つけるが、メモリを多く消費する。 |
| 深さ優先探索 | 行き止まりまで進んでから戻る。メモリは少ないが最短経路とは限らない。 |
| ヒューリスティックな知識 | 経験的・発見的な知識。コストのかかる探索を省略するために使う。 |
| プランニング・STRIPS | 探索を使ったロボットの行動計画。「前提条件・行動・結果」の3つ組で記述する形式をSTRIPSと呼ぶ。 |
| Mini-Max法 | 自分の番はスコア最大・相手の番はスコア最小を前提に未来から逆算して最善手を決めるゲーム戦略。 |
| αβ法 | Mini-Max法の改良版。不要な枝を切り落として探索を効率化。 |
| モンテカルロ法 | ランダムなシミュレーション(プレイアウト)を大量に繰り返して統計的に最善手を近似。囲碁AIに有効。 |
第2次ブーム関連:知識表現
| キーワード | 10秒で言えること |
|---|---|
| 意味ネットワーク | 概念をノード、関係をリンクで結んだ知識表現。is-aとpart-ofが重要。 |
| is-a関係 | 「犬は哺乳類である」のような継承関係。推移律が常に成立する。 |
| part-of関係 | 「足は犬の一部」のような属性関係。推移律が成立しないケースがある点に注意。(「指→太郎→野球部」は成立しない) |
| オントロジー | 知識を記述する語彙・意味・関係性を共有できる約束事として定義したもの。知識の共有と再利用を可能にする。 |
| ヘビーウェイトオントロジー | 哲学的考察を重視して厳密に構築するオントロジー。正確だが時間とコストがかかる。Cycプロジェクトがその典型。 |
| ライトウェイトオントロジー | 実用性を優先し自動化を活用するオントロジー。ワトソンやWebマイニングで利用されている。 |
| エキスパートシステム | 専門家の知識をルール化してデータベースに蓄積し、特定分野で判断するシステム。第2次ブームの中心技術。 |
| マイシン(MYCIN) | 1970年代スタンフォード大学で開発された血液診断エキスパートシステム。500ルール・69%正答率。エキスパートシステムの代表例。 |
| 知識獲得のボトルネック | 人間の常識をすべてコンピュータに入れることが事実上不可能という問題。第2次ブームの終焉の主因。機械翻訳の限界でも登場する。 |
| ワトソン(Watson) | IBMが開発した質問応答AI。2011年のクイズ番組で人間チャンピオンに勝利。ライトウェイトオントロジーを活用。 |
| シンボルグラウンディング問題 | 記号(文字)とその意味を結びつけることがAIには難しいという問題。 |
| 身体性 | 身体を通した体験によって概念が形成されるという考え方。AIはこの体験を持たない。 |
第3次ブーム関連:機械学習・ディープラーニング
| キーワード | 10秒で言えること |
|---|---|
| 機械学習 | AIがデータから規則性を自ら学習する仕組み。特徴量は人間が設定する。 |
| 統計的自然言語処理・コーパス | 大量の対訳データ(コーパス)を使い、文法規則ではなく統計的パターンから翻訳等を行う手法。 |
| 特徴量 | 学習対象の「どの特徴に注目するか」を定量的に表したもの。機械学習では人間が、ディープラーニングではAIが自動設定。 |
| 次元の呪い | 特徴(次元)が増えると必要なデータ量が指数的に増大する現象。 |
| ビッグデータ | インターネットの普及で蓄積された大量データ。第3次ブームの土台。 |
| ディープラーニング | 多層ニューラルネットワークにより、特徴量もAI自身が自動学習する手法。機械学習とはここが違う。 |
| ブラックボックス型AI | ディープラーニングはAIが特徴量を自動抽出するため、なぜその判断をしたのかを人間が説明できない。 |
| ニューラルネットワーク | 人間の脳の神経回路を模したアルゴリズム。パーセプトロンを層状に重ねた構造。 |
| トランスフォーマー | 2017年にGoogleが提案した、アテンション機構で単語間の関係を広範囲に学習できるモデル。LLM・生成AIの基盤技術。 |
| 大規模言語モデル(LLM) | 大量テキストで事前学習した巨大なニューラルネットワーク。ChatGPTの基盤。 |
| 事前学習 | LLMが大量の文章から言語の基本構造を学ぶ最初の学習フェーズ。 |
| ファインチューニング | 事前学習済みモデルを特定タスクや分野に向けて微調整する学習。 |
AIレベル分類との対応
第1章で学んだ「AIの4段階レベル分類」は、Part 1 全体を貫く軸でもあります。
| レベル | 区分 | 第2章の対応 |
|---|---|---|
| レベル1 | 単純制御 | (AIブームの対象外。自動ドア・エアコンなど) |
| レベル2 | 古典AI | 2-1 探索・推論・プランニング / 2-2 知識表現(エキスパートシステム・マイシン) |
| レベル3 | 機械学習 | 2-3 機械学習(特徴量は人間が設定)・統計的自然言語処理 |
| レベル4 | ディープラーニング | 2-3 ディープラーニング・LLM(特徴量もAIが自動学習。ブラックボックス型) |
Part 1 の学習チェック
次の問いに10秒で答えられれば、Part 1 の「枝」は完成しています。黒本で確認する前に声に出してみてください。
- AIの定義が一意に定まらないのはなぜか?
- AIとロボットの研究はどう違うか?
- 第1次AIブームが終わった理由は何か?
- フレーム問題を提唱したのは誰か?またその人物はAI史でほかに何をしたか?
- STRIPSの3つの構成要素を答えよ。
- is-aとpart-ofの推移律の扱いの違いは何か?
- エキスパートシステムの限界(知識獲得のボトルネック)とは何か?
- 機械学習とディープラーニングの違いは何か?(特徴量の扱いで説明する)
- ディープラーニングが「ブラックボックス」と呼ばれる理由は何か?
- フレーム問題とシンボルグラウンディング問題の違いは何か?
- Mini-Max法とモンテカルロ法はそれぞれどんな場面に有効か?
- トランスフォーマーが従来のニューラルネットワーク(RNN)と違う点は何か?
全問スラスラ答えられない項目が「Mainに戻るべき語句」です。そこだけ記事に戻って確認し、また問題へ進みましょう。
次のステップ
Part 2 は第3章「機械学習の具体的手法」です。「AIはどうやって学ぶのか」を、教師あり学習・教師なし学習・強化学習という3種類の学習方法と、具体的なアルゴリズムで理解していきます。
