Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
学ぶ AIが応答を生成する仕組み | プロンプトの仕組み
業務向けプロンプトエンジニアリング

bookAIが応答を生成する仕組み

メニューを表示するにはスワイプしてください

より良いプロンプトを書くためには、送信ボタンを押した後に何が起こるかについての基本的なメンタルモデルを持つことが役立ちます。言語モデルの背後にある数学を理解する必要はありませんが、プロセスを概念的に理解することで、プロンプトがどのように機能するのか、そしてなぜ結果が予測できない形で変化することがあるのかが説明できます。

入力から出力まで:実際に何が起こるのか

プロンプトを送信すると、モデルはデータベースから答えを検索するわけではありません。あらかじめ用意された応答を取得することもありません。モデルは生成します。すなわち、入力されたすべての情報をもとに、次に来るべきものをトークンごとに予測しながら応答を作り出します。

プロセスのおおまかな流れは次の通りです:

  1. プロンプトがトークン(おおよそ単語や単語の一部などの小さなテキスト単位)に分割される;
  2. モデルはこれらのトークンを数十億の学習済みパラメータで処理し、意味や意図の表現を構築する;
  3. その後、出力を1トークンずつ生成し、新しいトークンはそれまでのすべての内容に影響される;
  4. モデルが自然な終了点に到達するか、出力制限に達するまでこれが続く。

結果は取得されるのではなく、構築されます。トレーニング中に学習したパターンに基づき、単語ごとに作り上げられます。

スクリーンショットの説明:4つのラベル付きステップが矢印でつながれた、シンプルな横長のフローチャート図。ステップ1 — 「Your prompt」とラベル付けされたボックスに「Summarize this in 3 bullet points for a non-technical audience.」というテキスト。ステップ2 — 「Tokenization」とラベル付けされたボックスに、同じ文が色分けされたチャンク(Summarize / this / in / 3 / bullet / points / for / a / non-technical / audience)として表示。ステップ3 — 「Model predicts next token」とラベル付けされたボックスに、3つの選択肢("The" 38%、"Here" 31%、"This" 19%)を示す小さな確率表示。ステップ4 — 「Output builds token by token」とラベル付けされたボックスに、部分的に完成した応答が表示。図自体には専門用語は使われておらず、フラットでミニマルなデザイン。

同じプロンプトで異なる回答が得られる理由

まったく同じプロンプトを2回送信しても、異なる回答が返ってくることがあります。これはバグではなく、**temperature(温度)**と呼ばれるパラメータによるものです。このパラメータは、トークン選択プロセスにどれだけランダム性を導入するかを制御します。

  • 低い温度 — モデルは常に最も確率の高い次のトークンを選択します。出力は予測しやすく、繰り返しが多くなります。
  • 高い温度 — モデルは時々、確率の低いトークンを選択します。出力は多様で創造的になりますが、一貫性は低くなります。

多くのAIツールでは温度が自動的に設定されており、ユーザーがこの設定を変更できない場合がほとんどです。実際に重要なのは、バリエーションが発生するのは当然であり、普通のことだと理解しておくことです。特に創造的または自由度の高いタスクではこの傾向が強くなります。

一貫性が求められるタスク(標準的な要約、構造化されたレポート、テンプレート化されたコミュニケーションなど)では、プロンプト内でフォーマットや期待する出力についてより明確に指示することが重要です。

モデルがアクセスできないもの

モデルがどのように生成するかを理解するのと同じくらい、モデルが何にアクセスできないかを理解することも重要です。

  • デフォルトではインターネットにアクセスできません — ツールがウェブ検索機能を提供していない限り利用できません。
  • 知識のカットオフ日があります — トレーニング後の出来事は、プロンプトで情報を与えない限りモデルは知りません。
  • セッション間の記憶がありません — 新しい会話は毎回ゼロから始まります。
  • ファイル、画面、システムを見ることはできません — プロンプトに内容を貼り付けない限り認識できません。

これらの制限は、プロンプトでモデルが本来持っていない情報を提供することで補うことができます。これこそがプロンプトにおけるコンテキストの役割です。

question mark

なぜ同じプロンプトでもAIモデルから異なる回答が得られるのですか?

正しい答えを選んでください

すべて明確でしたか?

どのように改善できますか?

フィードバックありがとうございます!

セクション 1.  2

AIに質問する

expand

AIに質問する

ChatGPT

何でも質問するか、提案された質問の1つを試してチャットを始めてください

セクション 1.  2
some-alt