Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
学ぶ 言語モデルの「思考」方法 | 現代AIの仕組み
業務のためのAI理解

book言語モデルの「思考」方法

メニューを表示するにはスワイプしてください

車のエンジンの仕組みを知らなくても運転はできますが、燃料で動くことを知っていればガス欠を防げます。AIにも同じことが言えます。コンピュータサイエンスの学位は不要ですが、このコースの他の内容を理解するために、1つの核心的なアイデアを知っておくと役立ちます。

予測という核心的なアイデア

大規模言語モデル(LLM)— ChatGPT、Claude、Gemini などの技術 — は、次に何が来るかを予測することで動作します。

単語の並びが与えられると、モデルは膨大なテキスト(書籍、記事、ウェブサイト、コードなど)から学習したパターンに基づき、次に続く可能性が最も高い単語(またはフレーズ)を計算します。

これはスマートフォンのオートコンプリート機能に似ていますが、実質的にインターネット全体を学習し、はるかに高度な仕組みとなっています。

スクリーンショットの説明:3つのステップが矢印でつながった、シンプルな横長の図。ステップ1 — 「Your input」とラベル付けされたテキストボックスに「The weather today is…」と入力。ステップ2 — 「Model predicts the most likely next word」とラベル付けされたボックスに、3つの選択肢と確率が表示:「sunny」42%、「cold」31%、「unpredictable」27%。ステップ3 — 「Output builds up word by word」とラベル付けされたボックス。シンプルでフラットなデザイン、図内に専門用語は一切なし。

トークンとは何か

AIは人間のように単語をそのまま読み取りません。テキストをトークンと呼ばれる小さな単位に分割します。これはおおよそ単語や単語の一部に相当します。

例えば:

  • "running" は1つのトークンになる場合があります;
  • "unbelievable""un" + "believ" + "able" の3つに分割される場合があります;
  • スペースや句読点もトークンです。

このため、AIが珍しい単語をうまく扱えなかったり、非常に長い入力で処理が遅くなったりすることがあります。すべてのトークンが処理能力を必要とするためです。

実用上、重要なのは次の点です:会話内のトークン数が多いほど、モデルが持つ文脈も多くなる — そして実行コストも増加します(これが無料プランに制限がある理由です)。

なぜAIは時々事実でないことを作り出すのか

モデルは自然に聞こえるものを予測しており、必ずしも事実に基づいた内容を生成するわけではありません。学習データにない話題や自信を持って答えられない質問に出会うと、「わかりません」とは言わず、もっともらしい応答を生成します。

これをハルシネーションと呼びます。

これはバグでもAIが嘘をついているわけでもありません。予測の仕組みによる根本的な特性です。これを理解することがAIを安全に使う第一歩です。詳細はセクション3で解説します。

AIは予測を行うものであり、真に知っているわけではありません。この1つの洞察が、良いプロンプトが重要である理由、重要な事実を検証すべき理由、そしてAIを使う際に人間の判断が不可欠である理由を説明しています。

1. ChatGPTのような大規模言語モデルが動作する基本的な考え方は何ですか?

2. AIが事実と異なる応答を生成することがあるのはなぜですか?

question mark

ChatGPTのような大規模言語モデルが動作する基本的な考え方は何ですか?

正しい答えを選んでください

question mark

AIが事実と異なる応答を生成することがあるのはなぜですか?

正しい答えを選んでください

すべて明確でしたか?

どのように改善できますか?

フィードバックありがとうございます!

セクション 1.  2

AIに質問する

expand

AIに質問する

ChatGPT

何でも質問するか、提案された質問の1つを試してチャットを始めてください

セクション 1.  2
some-alt