文系GのG検定対策│機械学習とは何か?AIはどうやって学ぶのかを一発理解(第3章)

📘第3章は「AIの学び方」を理解する章です

第3章では、AIがどのようにして「学ぶのか」を扱います。

ここを一言で言うと、AIはデータからパターンを見つけて、予測する仕組みです。

ただし、この章は用語が多く、構造を知らないまま読み進めると混乱しやすい章でもあります。

そこでこのページでは、先に全体の流れを整理してから、重要テーマを順番に確認していきます。

🧭この章の読み方

第3章は、次の順番で読むと理解しやすくなります。

  • ① 機械学習とは何か
  • ② 学習の種類
  • ③ 回帰と分類
  • ④ 代表的な手法
  • ⑤ モデル評価
  • ⑥ 失敗と限界
  • ⑦ 比較まとめ
  • ⑧ 10秒説明まとめ
  • ⑨ 引っかけ・誤解まとめ

「全体像 → 学び方 → 予測するもの → 手法 → 評価 → 失敗例 → 比較 → 再現 → 試験対策」の順で理解すると、第3章の内容がつながります。

🎯この章で目指す状態

この章の目標は、用語を暗記することではありません。

機械学習の流れを「10秒で説明できる状態」になることです。

  • 機械学習とは何かを説明できる
  • 教師あり・教師なし・強化学習の違いを言える
  • 回帰と分類を区別できる
  • 評価の考え方(正解率・適合率など)を説明できる
  • 過学習とは何かを説明できる

細かい数式やアルゴリズムをすべて覚える必要はありません。

重要なのは、用語を単独で覚えるのではなく、流れの中で説明できることです。

この状態になれば、第3章の問題には十分対応できます。

🌳第3章の全体像(俯瞰)

第3章は、一言で言うとAIがどのように学び、どのように判断するかの仕組みを扱います。

ここでは細かい手法に入る前に、まず全体の流れを押さえます。

🧭全体の流れ

機械学習は、次の流れで進みます。

  • ① データを集める
  • ② 学び方を決める
  • ③ パターンを学習する
  • ④ 予測する
  • ⑤ 正しいか評価する
  • ⑥ 失敗から調整する(過学習など)

この流れを理解すると、第3章の内容はすべてつながります。

重要なのは、「学習 → 予測 → 評価 → 改善」までが一連の流れであることです。

① データを集める

機械学習では、まず学習の材料となるデータが必要です。

  • 過去の売上データ
  • メールと迷惑メールのラベル
  • ユーザーの行動履歴

AIはデータがなければ学習できません。

② 学び方を決める

次に、どの方法で学習するかを決めます。

  • 教師あり学習(答え付き)
  • 教師なし学習(答えなし)
  • 強化学習(行動と報酬)

問題の種類によって適した学び方が変わります。

③ パターンを学習する

集めたデータから、規則(ルール)を見つけます。

このとき使われるのが「モデル」です。

  • 回帰(数値を予測する)
  • 分類(種類を判定する)
  • クラスタリング(グループ分けする)

AIはここで、人があらかじめ決めていないルールをデータから見つけ出します。

④ 予測する

学習したルールを使って、新しいデータに対して判断を行います。

  • このメールは迷惑メールか
  • 来月の売上はいくらか
  • このユーザーはどのグループに属するか

この「未知データへの判断」が、機械学習の目的です。

⑤ 正しいか評価する

予測結果がどれだけ正しいかを確認します。

  • 正解率
  • 適合率・再現率
  • 誤差(MSEなど)

評価は、学習に使っていないデータ(未知データ)で行うことが重要です。

⑥ 改善する(過学習への対応)

評価の結果が悪い場合は、モデルや学習方法を見直します。

代表的な失敗が「過学習」です。

訓練データに合わせすぎてしまい、新しいデータに対応できなくなる状態です。

このような問題を防ぐために、モデルの複雑さやデータの量を調整します。

詳細は後のセクションで扱います。

まとめ

第3章の流れは次の一文で表せます。

データから学び、未知データを予測し、評価して改善する

この流れを理解することで、個々の手法の役割がつながります。

学び方の種類|AIはどうやって学ぶのか

機械学習では、データからどのようにルールを学ぶかによって学び方が分かれます。

主な学び方は次の3つです。

  • 教師あり学習
  • 教師なし学習
  • 強化学習

この3つの違いを理解することが、第3章の出発点になります。

① 教師あり学習

入力データと正解(ラベル)をセットにして学習する方法です。

  • 例:メール → 迷惑 / 通常
  • 例:身長 → 体重

入力から正解を予測する関係を学習します。

特徴:正解があるため、予測精度を直接評価できる

最も一般的に使われる学習方法です。

② 教師なし学習

正解を与えずに、データの特徴や構造を見つける方法です。

  • 例:顧客をタイプ別に分類する
  • 例:似た商品をグループ化する

データの中にある共通点や違いを見つけることが目的です。

特徴:正解がないため、「何が正しいか」を定義するのが難しい

③ 強化学習

行動とその結果(報酬)をもとに、最適な行動を学ぶ方法です。

  • 行動する
  • 結果(報酬)を得る
  • 良い行動を強化する

試行錯誤を繰り返しながら、より良い判断を学習します。

特徴:正解は与えられず、「結果の良さ」で学習する

ゲームや自動制御などで利用されます。

まとめ(学び方の違い)

項目教師あり学習教師なし学習強化学習
正解ラベルありなしなし(報酬)
目的予測(回帰・分類)構造発見最適行動の獲得
代表例スパム判定顧客クラスタリング自動運転
特徴入力と正解の関係を学習データのパターンを発見試行錯誤で行動を改善
  • 教師あり:答え(ラベル)から学ぶ
  • 教師なし:データの構造を見つける
  • 強化学習:行動と結果(報酬)から学ぶ

これらは優劣ではなく、問題の種類に応じて使い分けます。

※試験では「どの学習方法を使うべきか」を問われることが多い

回帰と分類|AIは何を予測するのか

教師あり学習では、入力データから答えを予測します。

ここで重要になるのが、予測する答えの種類です。

数値を予測する場合は回帰種類を判定する場合は分類になります。

回帰とは

回帰は、連続した数値を予測する問題です。

  • 来月の売上を予測する
  • 明日の気温を予測する
  • 身長から体重を予測する
  • 家の価格を予測する

答えが数値(連続値)になるものが回帰です。

分類とは

分類は、データを種類ごとに仕分ける問題です。

  • メールを迷惑メールか通常メールかに分ける
  • 画像が犬か猫かを判定する
  • レビューを好意的か否定的かに分ける
  • 商品をカテゴリごとに分類する

答えがカテゴリ(離散値)になるものが分類です。

回帰と分類の違い

回帰=数値予測 / 分類=カテゴリ判定

回帰は数値を予測し、分類はカテゴリを判定します。

※試験ポイント:ロジスティック回帰は「回帰」という名前だが分類問題に使う

なぜこの違いが重要なのか

回帰と分類では、使う手法や評価方法が変わります。

  • 回帰:予測した数値のズレを見る(誤差)
  • 分類:どれだけ正しく仕分けできたかを見る(正解率など)

まず「何を予測したいのか」を見極めることが重要です。

代表的な手法|AIはどうやって予測するのか

機械学習では、問題に応じてさまざまな手法(モデル)が使われます。

重要なのは、名前ではなく仕組みと使いどころで理解することです。

ここでは、代表的な手法を「何をする方法か」が分かるように整理します。

これらの手法は、回帰や分類などの問題に応じて使い分けられます。

多くの手法は回帰・分類の両方に応用できるが、用途が限定される手法もある

教師あり学習の手法(予測を行う)

線形回帰

データに最も合う直線を引いて、数値を予測する手法です。売上や価格など、答えが数字になる問題で使います。

ロジスティック回帰

確率をもとに分類を行う手法です。名前に「回帰」とありますが、分類問題で使う点に注意します。

出力は確率であり、その値をもとに分類を行います。

決定木 / ランダムフォレスト

決定木は条件分岐で判断する手法です。ランダムフォレストは複数の決定木を組み合わせ、多数決のように判断します。

ランダムフォレストやブースティングは「アンサンブル学習」と呼ばれ、複数のモデルを組み合わせて精度を向上させる手法です。

SVM

データを最もきれいに分ける境界を見つける手法です。クラス間の余白(マージン)を最大にするのが特徴です。

ブースティング

前のモデルの誤りを重点的に学習して精度を高める手法です。

教師なし学習の手法(構造を見つける)

クラスタリング(k-means)

似ているデータをグループに分ける手法です。k-meansでは、あらかじめ決めた数のグループに分類します。

主成分分析(PCA)

情報を保ったままデータの次元を減らす手法です。データを圧縮して扱いやすくします。

協調フィルタリング

似ているユーザーの行動からおすすめを行う手法です。

強化学習の手法(行動を最適化する)

バンディットアルゴリズム

「探索」と「活用」のバランスを取りながら最適な行動を選ぶ手法です。

価値関数(Q値)

行動の良さを数値で評価する仕組みです。

方策

どの行動を選ぶかを決めるルールです。

手法は「何を予測するか(回帰・分類・構造)」で選ぶ

モデル評価|AIの判断は正しいのか

機械学習は、予測するだけでは不十分です。

その予測が正しいかを判断する必要があります。

この判断を行うのが「モデル評価」です。

🌳まず結論

  • ① データの分け方
  • ② 評価指標

この2つをセットで理解することが重要です。

① データの分け方

モデルの性能は、未知のデータで評価する必要があります。

  • 訓練データ:モデルの学習に使う
  • テストデータ:性能の評価に使う

学習に使ったデータで評価してはいけません。

ホールドアウト検証

データを一度だけ分割して評価する方法です。

k分割交差検証

データを複数回に分けて評価し、結果のばらつきを抑える方法です。

② 評価指標

評価方法は、問題の種類によって異なります。

回帰の評価(数値予測)

  • MSE:誤差の二乗平均
  • RMSE:誤差を元の単位で表す
  • MAE:誤差の絶対値平均

予測値と実測値のズレが小さいほど良いモデルです。

分類の評価(カテゴリ判定)

  • 正解率(accuracy):全体でどれだけ当たったか

ただし、正解率だけでは不十分な場合があります。

混同行列(TP・FP・TN・FN)

分類の評価では、予測結果を「当たり方」と「外し方」に分けて考えます。

  • TP(真陽性):正例を正例と予測できた
  • FP(偽陽性):負例を正例と誤って予測した
  • TN(真陰性):負例を負例と予測できた
  • FN(偽陰性):正例を負例と誤って予測した

評価指標(適合率・再現率)

  • 適合率(Precision):予測した中で正しかった割合
  • 再現率(Recall):実際の正解をどれだけ当てたか

この2つはトレードオフの関係にあります。

評価指標の計算式

  • 適合率(Precision)= TP / (TP + FP)
  • 再現率(Recall)= TP / (TP + FN)
  • F値(F1)= 2 × (適合率 × 再現率) / (適合率 + 再現率)

試験では、混同行列の数値からこれらを計算させる問題が出題されます。

ROC・AUC

モデル全体の分類性能を評価する指標です。

AUCは1に近いほど性能が高いことを示します。

🎯チェックポイント

ミニチェック(理解確認)

  • 適合率と再現率の違いを説明できるか?
  • なぜ正解率だけでは不十分な場合があるか?
  • 回帰と分類の評価方法の違いは何か?
  • 評価は必ず未知データで行う
  • 正解率だけでは評価できない場合がある
  • 適合率と再現率はトレードオフ
  • 回帰は誤差で評価する
  • 分類は正解率だけでなく適合率・再現率を見る
  • 目的に応じて指標を使い分ける

評価は「未知データ × 適切な指標」で行う

例:

  • 病気検出:見逃しを防ぐ → 再現率重視
  • スパム判定:誤判定を防ぐ → 適合率重視

失敗と限界|なぜAIは間違えるのか

機械学習は万能ではありません。

モデルがうまく動かない原因を理解することは、評価と同じくらい重要です。

🌳まず結論

  • 過学習:覚えすぎて失敗する
  • 汎化:未知データに対応する力
  • モデル選択:複雑さのバランスが重要

「ちょうどよい学習」が最も重要です。

① 過学習とは

訓練データに適合しすぎてしまい、新しいデータに対応できない状態です。

  • 特定のデータだけ覚えてしまう
  • 応用が効かない

未知データに弱くなることが問題です。

なぜ起きるのか

  • モデルが複雑すぎる
  • データが少ない
  • ノイズまで学習してしまう

② 汎化とは

未知のデータに対しても正しく予測できる能力です。

機械学習の本来の目的は、この汎化性能を高めることにあります。

③ モデルの複雑さ

モデルには表現の複雑さがあり、性能に大きく影響します。

  • 単純:表現力が低い(学習不足)
  • 複雑:表現力が高い(過学習のリスク)

重要なのはバランスです。

④ オッカムの剃刀

必要以上に複雑なモデルを避け、シンプルなモデルを優先する考え方です。

同じ性能なら、より単純なモデルを選びます。

⑤ モデル選択(AIC・BIC)

モデルの良さを「当てはまり」と「複雑さ」の両面から評価する指標です。

  • AIC:複雑さにペナルティを与える
  • BIC:データ数も考慮してより厳しく評価する

複雑すぎるモデルは自動的に不利になります。

パラメータとハイパーパラメータ

  • パラメータ:学習によって自動で決まる値(重みなど)
  • ハイパーパラメータ:人が事前に設定する値(kの数、木の深さなど)

ハイパーパラメータの設定は、過学習やモデル性能に大きく影響します。

🎯まとめ

良いモデルとは、訓練データだけでなく未知データでも正しく予測できるモデルです。

比較まとめ|違いを整理する

比較項目 内容 ポイント
回帰 vs 分類 回帰:数値 / 分類:カテゴリ 予測対象の違い
教師あり vs 教師なし あり:ラベルあり / なし:ラベルなし 学び方の違い
適合率 vs 再現率 適合率:予測の正確さ / 再現率:見逃しの少なさ トレードオフ関係
過学習 vs 良いモデル 過学習:訓練に適合しすぎ / 良いモデル:汎化できる 未知データへの強さ
バギング vs ブースティング バギング:並列学習 / ブースティング:逐次修正 学習方法の違い

10秒説明まとめ|第3章を言葉で再現する

第3章の内容を、短い言葉で再現できる形に整理します。

基本構造

  • 機械学習:データからパターンを学習し予測する仕組み
  • 流れ:データ → 学習 → 予測 → 評価

学び方

  • 教師あり学習:正解ラベルを用いて学習する
  • 教師なし学習:ラベルなしで構造を見つける
  • 強化学習:報酬を最大化する行動を学習する

問題設定

  • 回帰:連続値を予測する
  • 分類:カテゴリを予測する

代表手法

  • 線形回帰:直線で予測する
  • ロジスティック回帰:確率で分類する(分類問題で使用)
  • 決定木:条件分岐で判断する
  • クラスタリング:類似データをまとめる

評価

  • 評価は未知データで行う
  • 回帰:誤差(MSEなど)で評価する
  • 分類:正解率だけでなく適合率・再現率で評価する
  • 適合率:当てた中の正確さ
  • 再現率:見逃さない力

失敗と限界

  • 過学習:訓練データに適合しすぎる状態
  • 汎化:未知データにも通用する性質
  • モデルは複雑すぎても単純すぎてもいけない

最終まとめ(最重要)

機械学習は、データから学習し、未知データを予測し、その結果を評価して改善する仕組み

👉 この一文が口で言えれば、第3章は理解できています。

引っかけ・誤解まとめ|試験で狙われるポイント

第3章では、「用語の意味のズレ」を狙った問題が多く出題されます。

👉 正しい知識を知るだけでなく、誤った選択肢を見抜く力が重要です。

  • 誤解:ロジスティック回帰は回帰である

    理由:名称に「回帰」が含まれるため

    正解:分類問題に用いる手法(確率により判定する)
  • 誤解:正解率が高ければ良いモデルである

    理由:全体の正答率のみで判断してしまうため

    正解:不均衡データでは適合率・再現率を併用する必要がある
  • 誤解:評価は訓練データで行えばよい

    理由:学習結果をそのまま評価してしまうため

    正解:未知データ(テストデータ)で評価する必要がある
  • 誤解:適合率と再現率は同じ意味である

    理由:どちらも「正しさ」に見えるため

    正解:適合率は予測の正確さ、再現率は見逃しの少なさを表す
  • 誤解:回帰と分類は同じ評価方法でよい

    理由:どちらも予測問題であるため

    正解:回帰は誤差、分類は分類指標で評価する
  • 誤解:モデルは複雑なほど良い

    理由:精度が上がると考えやすいため

    正解:複雑すぎると過学習となり汎化性能が低下する
  • 誤解:教師なし学習は簡単である

    理由:正解がないため単純に見えるため

    正解:評価が難しく、目的設定が重要となる
  • 誤解:手法には優劣がある

    理由:精度のみで比較してしまうため

    正解:問題設定に応じて適切な手法を選択する必要がある
  • 誤解:k-meansは正解を当てる手法である

    理由:分類問題と混同しやすいため

    正解:正解なしでグループ分けを行うクラスタリング手法である
  • 誤解:評価指標はどれを使っても同じである

    理由:指標の役割の違いを理解していないため

    正解:目的に応じて適切な評価指標を選択する必要がある
タイトルとURLをコピーしました