Explore 03

賢さのヒミツ(生成AIの裏側)

ChatGPT は、なぜあれほど自然な文章を返せるのでしょうか。 この章では、生成AIの仕組みを「難しすぎず、でも浅すぎない」形で理解していきます。

Chapter Goal

理解すること 1

生成AIが「考えているように見える」理由を言葉で説明できるようになる。

理解すること 2

LLM・トークン・Transformer・アテンションの役割がざっくりつかめる。

理解すること 3

画像生成AIも「パターンを学んで作る」仕組みだと理解できる。

1 生成AIは「答えを覚えている機械」ではない

生成AIに質問すると、まるで人間が内容を理解して話しているように見えます。 そのため、「AIはすべての知識を頭の中にそのまま保存していて、必要なときに取り出している」と感じるかもしれません。 しかし、実際の仕組みはもう少し違います。

生成AIは、文章や画像の膨大なデータから、どのような並び方やパターンが自然なのかを学んでいます。 つまり、「正解を丸暗記している」というより、大量の例から“もっともらしさの法則”を身につけているのです。

従来のAI(分類・予測)

「この画像は猫か?」→ 判定する

答えの候補がある中から、どれが最も近いかを選ぶのが得意でした。

生成AI(クリエイト)

「宇宙で昼寝する猫の絵を描いて」→ 新しく作る

過去のパターンをもとに、文章や画像の案そのものを出力できます。

理解のコツ

生成AIは「意味を完全に理解している存在」ではなく、 「大量のデータから、自然らしい形を作るのが非常にうまい仕組み」と捉えると、本質に近づけます。

2 LLMは「超高性能な予測変換」に近い

ChatGPT の頭脳である大規模言語モデル(LLM)は、 仕組みの核心だけを抜き出すと、「次にどの言葉が来そうか」を予測しているシステムです。

もちろんスマートフォンの予測変換よりはるかに複雑ですが、考え方の出発点は似ています。 文章の途中までを見て、次に続く言葉として何が自然かを確率で選ぶ、という動きを高速に繰り返しているのです。

AI Processing...
明日の 天気は
※AIは「意味を考える」というより、文脈の中で次に自然な言葉を計算しています。

入力を見る

これまでの文脈を読み取り、何についての文章かを把握する。

候補を出す

次に来そうな単語や記号を複数候補として評価する。

1つ選んで続ける

最も自然そうな候補を選び、その結果を踏まえてまた次を予測する。

3 文章はそのまま扱えない ─ 「トークン」に分けて考える

コンピュータは、人間のように文章をそのまま理解できません。 そこで文章は、内部ではトークンという単位に分けて扱われます。

トークンは「単語そのもの」とは限りません。日本語では、単語の一部や助詞、記号が別々に分かれることもあります。 AIはこの細かな単位を数値として扱い、どの並びが自然かを計算しているのです。

たとえば、こんなイメージ

AI 文章 学習 する

実際の内部では、こうした単位がさらに細かく数値に変換され、計算可能な形に置き換えられています。

ここが重要

文章も、画像も、音声も、最終的にはコンピュータが扱える数値の形に変換されます。 だからこそ、AIは「言葉だけ」の技術ではなく、さまざまな情報形式を扱えるようになってきています。

4 文脈をつかむ鍵 ─ Transformer とアテンション

生成AIがここまで自然な文章を扱えるようになった大きな理由のひとつが、2017年に発表された Transformerです。

Transformer の中核には、アテンションという仕組みがあります。 これは、文章の中で「どの言葉とどの言葉が関係しているか」に重点を置いて読むようなものです。

人間の読み方にたとえると

私たちも長い文章を読むとき、今の文と前の文とのつながりを意識します。 代名詞が何を指しているか、主語は誰か、前提は何かを見ながら読んでいます。

AIではどうなるか

AIも、ある単語を出力するときに、入力文中のどこに強く注目すべきかを計算します。 これにより、単語単位ではなく、文脈全体を踏まえた出力がしやすくなります。

なぜこれが大事なのか

単語を1つずつ機械的に並べるだけでは、長い文章の整合性は保てません。 Transformer は「文章の中の関係性」を広く見渡せるため、要約、翻訳、対話の自然さが大きく向上しました。

5 画像生成AIは、どうやって絵を作るのか

文章だけでなく、画像生成AIもまた「大量の例からパターンを学ぶ」ことで成立しています。 つまり、人間が1枚ずつ描き方を教えているのではなく、多くの画像と説明文の関係を学び、 「この言葉なら、こういう見た目が自然そうだ」と判断して画像を作っているのです。

GAN(昔の主流)

「生成する役」と「見破る役」を競わせることで、より本物らしい画像を作る方法です。 互いに競争することで質を上げていきます。

拡散モデル(今の主流)

ノイズだらけの画像から少しずつ情報を整え、意味のある画像へ近づけていく方法です。 Stable Diffusion などで広く知られる方式です。

画像生成AIのイメージ

1. 指示を受け取る

「夕焼けの海辺を走る白い犬」などの説明文を読む

2. パターンを参照する

犬、海辺、夕焼け、それぞれの見た目の特徴を学習済みパターンから組み立てる

3. 画像を整えて出力

全体の整合をとりながら、新しい1枚を作り上げる

6 生成AIが便利なのに、間違うことがある理由

ここまで読むと、生成AIが「パターンをもとに自然な出力を作る仕組み」だと見えてきたはずです。 そしてこの仕組みは、そのまま便利さの理由であると同時に、弱点の理由でもあります。

便利な理由

  • ・ゼロから文章や案を作れる
  • ・大量のパターンを素早く参照できる
  • ・形式を整えた出力が得意

弱点の理由

  • ・もっともらしいが事実でない内容を出すことがある
  • ・学習していない状況に弱いことがある
  • ・本当に理解しているわけではないため、論理が破綻することがある

実務で覚えておきたいこと

生成AIは、答えをそのまま信じる対象ではなく、下書きやたたき台を高速で作る相棒です。 だからこそ、最後の確認や判断は人間が担う必要があります。 この視点があるだけで、AIとの付き合い方は大きく変わります。

第3章のまとめ

  • 生成AIは、膨大なデータから学んだパターンをもとに、新しい文章や画像を作っている。
  • LLMは「次に来るものを予測する」仕組みを高速に繰り返して、自然な文章を生成している。
  • 便利さの裏側には、事実誤認や論理の破綻といった弱点もあるため、人間の確認が欠かせない。

Take-away for Business

「AIは理解しているのではなく、パターンからもっともらしい出力を作っている」。 この前提が分かると、なぜプロンプトの質で回答が変わるのか、なぜ確認が必要なのかが腑に落ちます。

第4章:仕事での活用へ

Understanding Check

Q1. LLMの基本的な動きとして最も近いものは?

Q2. トークンとは何か?

Q3. 生成AIが間違うことがある主な理由は?

第2章へ戻る