📘第3章は「AIの学び方」を理解する章です
第3章では、AIがどのようにして「学ぶのか」を扱います。
ここを一言で言うと、AIはデータからパターンを見つけて、予測する仕組みです。
ただし、この章は用語が多く、構造を知らないまま読み進めると混乱しやすい章でもあります。
そこでこのページでは、先に全体の流れを整理してから、重要テーマを順番に確認していきます。
🧭この章の読み方
第3章は、次の順番で読むと理解しやすくなります。
- ① 機械学習とは何か
- ② 学習の種類
- ③ 回帰と分類
- ④ 代表的な手法
- ⑤ モデル評価
- ⑥ 失敗と限界
- ⑦ 比較まとめ
- ⑧ 10秒説明まとめ
- ⑨ 引っかけ・誤解まとめ
「全体像 → 学び方 → 予測するもの → 手法 → 評価 → 失敗例 → 比較 → 再現 → 試験対策」の順で理解すると、第3章の内容がつながります。
🎯この章で目指す状態
この章の目標は、用語を暗記することではありません。
機械学習の流れを「10秒で説明できる状態」になることです。
- 機械学習とは何かを説明できる
- 教師あり・教師なし・強化学習の違いを言える
- 回帰と分類を区別できる
- 評価の考え方(正解率・適合率など)を説明できる
- 過学習とは何かを説明できる
細かい数式やアルゴリズムをすべて覚える必要はありません。
重要なのは、用語を単独で覚えるのではなく、流れの中で説明できることです。
この状態になれば、第3章の問題には十分対応できます。
🌳第3章の全体像(俯瞰)
第3章は、一言で言うとAIがどのように学び、どのように判断するかの仕組みを扱います。
ここでは細かい手法に入る前に、まず全体の流れを押さえます。
🧭全体の流れ
機械学習は、次の流れで進みます。
- ① データを集める
- ② 学び方を決める
- ③ パターンを学習する
- ④ 予測する
- ⑤ 正しいか評価する
- ⑥ 失敗から調整する(過学習など)
この流れを理解すると、第3章の内容はすべてつながります。
重要なのは、「学習 → 予測 → 評価 → 改善」までが一連の流れであることです。
① データを集める
機械学習では、まず学習の材料となるデータが必要です。
- 過去の売上データ
- メールと迷惑メールのラベル
- ユーザーの行動履歴
AIはデータがなければ学習できません。
② 学び方を決める
次に、どの方法で学習するかを決めます。
- 教師あり学習(答え付き)
- 教師なし学習(答えなし)
- 強化学習(行動と報酬)
問題の種類によって適した学び方が変わります。
③ パターンを学習する
集めたデータから、規則(ルール)を見つけます。
このとき使われるのが「モデル」です。
- 回帰(数値を予測する)
- 分類(種類を判定する)
- クラスタリング(グループ分けする)
AIはここで、人があらかじめ決めていないルールをデータから見つけ出します。
④ 予測する
学習したルールを使って、新しいデータに対して判断を行います。
- このメールは迷惑メールか
- 来月の売上はいくらか
- このユーザーはどのグループに属するか
この「未知データへの判断」が、機械学習の目的です。
⑤ 正しいか評価する
予測結果がどれだけ正しいかを確認します。
- 正解率
- 適合率・再現率
- 誤差(MSEなど)
評価は、学習に使っていないデータ(未知データ)で行うことが重要です。
⑥ 改善する(過学習への対応)
評価の結果が悪い場合は、モデルや学習方法を見直します。
代表的な失敗が「過学習」です。
訓練データに合わせすぎてしまい、新しいデータに対応できなくなる状態です。
このような問題を防ぐために、モデルの複雑さやデータの量を調整します。
詳細は後のセクションで扱います。
まとめ
第3章の流れは次の一文で表せます。
データから学び、未知データを予測し、評価して改善する
この流れを理解することで、個々の手法の役割がつながります。
学び方の種類|AIはどうやって学ぶのか
機械学習では、データからどのようにルールを学ぶかによって学び方が分かれます。
主な学び方は次の3つです。
- 教師あり学習
- 教師なし学習
- 強化学習
この3つの違いを理解することが、第3章の出発点になります。
① 教師あり学習
入力データと正解(ラベル)をセットにして学習する方法です。
- 例:メール → 迷惑 / 通常
- 例:身長 → 体重
入力から正解を予測する関係を学習します。
特徴:正解があるため、予測精度を直接評価できる
最も一般的に使われる学習方法です。
② 教師なし学習
正解を与えずに、データの特徴や構造を見つける方法です。
- 例:顧客をタイプ別に分類する
- 例:似た商品をグループ化する
データの中にある共通点や違いを見つけることが目的です。
特徴:正解がないため、「何が正しいか」を定義するのが難しい
③ 強化学習
行動とその結果(報酬)をもとに、最適な行動を学ぶ方法です。
- 行動する
- 結果(報酬)を得る
- 良い行動を強化する
試行錯誤を繰り返しながら、より良い判断を学習します。
特徴:正解は与えられず、「結果の良さ」で学習する
ゲームや自動制御などで利用されます。
まとめ(学び方の違い)
| 項目 | 教師あり学習 | 教師なし学習 | 強化学習 |
|---|---|---|---|
| 正解ラベル | あり | なし | なし(報酬) |
| 目的 | 予測(回帰・分類) | 構造発見 | 最適行動の獲得 |
| 代表例 | スパム判定 | 顧客クラスタリング | 自動運転 |
| 特徴 | 入力と正解の関係を学習 | データのパターンを発見 | 試行錯誤で行動を改善 |
- 教師あり:答え(ラベル)から学ぶ
- 教師なし:データの構造を見つける
- 強化学習:行動と結果(報酬)から学ぶ
これらは優劣ではなく、問題の種類に応じて使い分けます。
※試験では「どの学習方法を使うべきか」を問われることが多い
回帰と分類|AIは何を予測するのか
教師あり学習では、入力データから答えを予測します。
ここで重要になるのが、予測する答えの種類です。
数値を予測する場合は回帰、種類を判定する場合は分類になります。
回帰とは
回帰は、連続した数値を予測する問題です。
- 来月の売上を予測する
- 明日の気温を予測する
- 身長から体重を予測する
- 家の価格を予測する
答えが数値(連続値)になるものが回帰です。
分類とは
分類は、データを種類ごとに仕分ける問題です。
- メールを迷惑メールか通常メールかに分ける
- 画像が犬か猫かを判定する
- レビューを好意的か否定的かに分ける
- 商品をカテゴリごとに分類する
答えがカテゴリ(離散値)になるものが分類です。
回帰と分類の違い
回帰=数値予測 / 分類=カテゴリ判定
回帰は数値を予測し、分類はカテゴリを判定します。
※試験ポイント:ロジスティック回帰は「回帰」という名前だが分類問題に使う
なぜこの違いが重要なのか
回帰と分類では、使う手法や評価方法が変わります。
- 回帰:予測した数値のズレを見る(誤差)
- 分類:どれだけ正しく仕分けできたかを見る(正解率など)
まず「何を予測したいのか」を見極めることが重要です。
代表的な手法|AIはどうやって予測するのか
機械学習では、問題に応じてさまざまな手法(モデル)が使われます。
重要なのは、名前ではなく仕組みと使いどころで理解することです。
ここでは、代表的な手法を「何をする方法か」が分かるように整理します。
これらの手法は、回帰や分類などの問題に応じて使い分けられます。
多くの手法は回帰・分類の両方に応用できるが、用途が限定される手法もある
教師あり学習の手法(予測を行う)
線形回帰
データに最も合う直線を引いて、数値を予測する手法です。売上や価格など、答えが数字になる問題で使います。
ロジスティック回帰
確率をもとに分類を行う手法です。名前に「回帰」とありますが、分類問題で使う点に注意します。
出力は確率であり、その値をもとに分類を行います。
決定木 / ランダムフォレスト
決定木は条件分岐で判断する手法です。ランダムフォレストは複数の決定木を組み合わせ、多数決のように判断します。
ランダムフォレストやブースティングは「アンサンブル学習」と呼ばれ、複数のモデルを組み合わせて精度を向上させる手法です。
SVM
データを最もきれいに分ける境界を見つける手法です。クラス間の余白(マージン)を最大にするのが特徴です。
ブースティング
前のモデルの誤りを重点的に学習して精度を高める手法です。
教師なし学習の手法(構造を見つける)
クラスタリング(k-means)
似ているデータをグループに分ける手法です。k-meansでは、あらかじめ決めた数のグループに分類します。
主成分分析(PCA)
情報を保ったままデータの次元を減らす手法です。データを圧縮して扱いやすくします。
協調フィルタリング
似ているユーザーの行動からおすすめを行う手法です。
強化学習の手法(行動を最適化する)
バンディットアルゴリズム
「探索」と「活用」のバランスを取りながら最適な行動を選ぶ手法です。
価値関数(Q値)
行動の良さを数値で評価する仕組みです。
方策
どの行動を選ぶかを決めるルールです。
手法は「何を予測するか(回帰・分類・構造)」で選ぶ
モデル評価|AIの判断は正しいのか
機械学習は、予測するだけでは不十分です。
その予測が正しいかを判断する必要があります。
この判断を行うのが「モデル評価」です。
🌳まず結論
- ① データの分け方
- ② 評価指標
この2つをセットで理解することが重要です。
① データの分け方
モデルの性能は、未知のデータで評価する必要があります。
- 訓練データ:モデルの学習に使う
- テストデータ:性能の評価に使う
学習に使ったデータで評価してはいけません。
ホールドアウト検証
データを一度だけ分割して評価する方法です。
k分割交差検証
データを複数回に分けて評価し、結果のばらつきを抑える方法です。
② 評価指標
評価方法は、問題の種類によって異なります。
回帰の評価(数値予測)
- MSE:誤差の二乗平均
- RMSE:誤差を元の単位で表す
- MAE:誤差の絶対値平均
予測値と実測値のズレが小さいほど良いモデルです。
分類の評価(カテゴリ判定)
- 正解率(accuracy):全体でどれだけ当たったか
ただし、正解率だけでは不十分な場合があります。
混同行列(TP・FP・TN・FN)
分類の評価では、予測結果を「当たり方」と「外し方」に分けて考えます。
- TP(真陽性):正例を正例と予測できた
- FP(偽陽性):負例を正例と誤って予測した
- TN(真陰性):負例を負例と予測できた
- FN(偽陰性):正例を負例と誤って予測した
評価指標(適合率・再現率)
- 適合率(Precision):予測した中で正しかった割合
- 再現率(Recall):実際の正解をどれだけ当てたか
この2つはトレードオフの関係にあります。
評価指標の計算式
- 適合率(Precision)= TP / (TP + FP)
- 再現率(Recall)= TP / (TP + FN)
- F値(F1)= 2 × (適合率 × 再現率) / (適合率 + 再現率)
試験では、混同行列の数値からこれらを計算させる問題が出題されます。
ROC・AUC
モデル全体の分類性能を評価する指標です。
AUCは1に近いほど性能が高いことを示します。
🎯チェックポイント
ミニチェック(理解確認)
- 適合率と再現率の違いを説明できるか?
- なぜ正解率だけでは不十分な場合があるか?
- 回帰と分類の評価方法の違いは何か?
- 評価は必ず未知データで行う
- 正解率だけでは評価できない場合がある
- 適合率と再現率はトレードオフ
- 回帰は誤差で評価する
- 分類は正解率だけでなく適合率・再現率を見る
- 目的に応じて指標を使い分ける
評価は「未知データ × 適切な指標」で行う
例:
- 病気検出:見逃しを防ぐ → 再現率重視
- スパム判定:誤判定を防ぐ → 適合率重視
失敗と限界|なぜAIは間違えるのか
機械学習は万能ではありません。
モデルがうまく動かない原因を理解することは、評価と同じくらい重要です。
🌳まず結論
- 過学習:覚えすぎて失敗する
- 汎化:未知データに対応する力
- モデル選択:複雑さのバランスが重要
「ちょうどよい学習」が最も重要です。
① 過学習とは
訓練データに適合しすぎてしまい、新しいデータに対応できない状態です。
- 特定のデータだけ覚えてしまう
- 応用が効かない
未知データに弱くなることが問題です。
なぜ起きるのか
- モデルが複雑すぎる
- データが少ない
- ノイズまで学習してしまう
② 汎化とは
未知のデータに対しても正しく予測できる能力です。
機械学習の本来の目的は、この汎化性能を高めることにあります。
③ モデルの複雑さ
モデルには表現の複雑さがあり、性能に大きく影響します。
- 単純:表現力が低い(学習不足)
- 複雑:表現力が高い(過学習のリスク)
重要なのはバランスです。
④ オッカムの剃刀
必要以上に複雑なモデルを避け、シンプルなモデルを優先する考え方です。
同じ性能なら、より単純なモデルを選びます。
⑤ モデル選択(AIC・BIC)
モデルの良さを「当てはまり」と「複雑さ」の両面から評価する指標です。
- AIC:複雑さにペナルティを与える
- BIC:データ数も考慮してより厳しく評価する
複雑すぎるモデルは自動的に不利になります。
パラメータとハイパーパラメータ
- パラメータ:学習によって自動で決まる値(重みなど)
- ハイパーパラメータ:人が事前に設定する値(kの数、木の深さなど)
ハイパーパラメータの設定は、過学習やモデル性能に大きく影響します。
🎯まとめ
良いモデルとは、訓練データだけでなく未知データでも正しく予測できるモデルです。
比較まとめ|違いを整理する
| 比較項目 | 内容 | ポイント |
|---|---|---|
| 回帰 vs 分類 | 回帰:数値 / 分類:カテゴリ | 予測対象の違い |
| 教師あり vs 教師なし | あり:ラベルあり / なし:ラベルなし | 学び方の違い |
| 適合率 vs 再現率 | 適合率:予測の正確さ / 再現率:見逃しの少なさ | トレードオフ関係 |
| 過学習 vs 良いモデル | 過学習:訓練に適合しすぎ / 良いモデル:汎化できる | 未知データへの強さ |
| バギング vs ブースティング | バギング:並列学習 / ブースティング:逐次修正 | 学習方法の違い |
10秒説明まとめ|第3章を言葉で再現する
第3章の内容を、短い言葉で再現できる形に整理します。
基本構造
- 機械学習:データからパターンを学習し予測する仕組み
- 流れ:データ → 学習 → 予測 → 評価
学び方
- 教師あり学習:正解ラベルを用いて学習する
- 教師なし学習:ラベルなしで構造を見つける
- 強化学習:報酬を最大化する行動を学習する
問題設定
- 回帰:連続値を予測する
- 分類:カテゴリを予測する
代表手法
- 線形回帰:直線で予測する
- ロジスティック回帰:確率で分類する(分類問題で使用)
- 決定木:条件分岐で判断する
- クラスタリング:類似データをまとめる
評価
- 評価は未知データで行う
- 回帰:誤差(MSEなど)で評価する
- 分類:正解率だけでなく適合率・再現率で評価する
- 適合率:当てた中の正確さ
- 再現率:見逃さない力
失敗と限界
- 過学習:訓練データに適合しすぎる状態
- 汎化:未知データにも通用する性質
- モデルは複雑すぎても単純すぎてもいけない
最終まとめ(最重要)
機械学習は、データから学習し、未知データを予測し、その結果を評価して改善する仕組み
👉 この一文が口で言えれば、第3章は理解できています。
引っかけ・誤解まとめ|試験で狙われるポイント
第3章では、「用語の意味のズレ」を狙った問題が多く出題されます。
👉 正しい知識を知るだけでなく、誤った選択肢を見抜く力が重要です。
- 誤解:ロジスティック回帰は回帰である
理由:名称に「回帰」が含まれるため
正解:分類問題に用いる手法(確率により判定する) - 誤解:正解率が高ければ良いモデルである
理由:全体の正答率のみで判断してしまうため
正解:不均衡データでは適合率・再現率を併用する必要がある - 誤解:評価は訓練データで行えばよい
理由:学習結果をそのまま評価してしまうため
正解:未知データ(テストデータ)で評価する必要がある - 誤解:適合率と再現率は同じ意味である
理由:どちらも「正しさ」に見えるため
正解:適合率は予測の正確さ、再現率は見逃しの少なさを表す - 誤解:回帰と分類は同じ評価方法でよい
理由:どちらも予測問題であるため
正解:回帰は誤差、分類は分類指標で評価する - 誤解:モデルは複雑なほど良い
理由:精度が上がると考えやすいため
正解:複雑すぎると過学習となり汎化性能が低下する - 誤解:教師なし学習は簡単である
理由:正解がないため単純に見えるため
正解:評価が難しく、目的設定が重要となる - 誤解:手法には優劣がある
理由:精度のみで比較してしまうため
正解:問題設定に応じて適切な手法を選択する必要がある - 誤解:k-meansは正解を当てる手法である
理由:分類問題と混同しやすいため
正解:正解なしでグループ分けを行うクラスタリング手法である - 誤解:評価指標はどれを使っても同じである
理由:指標の役割の違いを理解していないため
正解:目的に応じて適切な評価指標を選択する必要がある
