「おや?それ、違うぞ?」から始まった
先日、ある事柄に関する情報確認でChatGPTに問い合わせていたところ、いつものように丁寧な口調で、しかし明らかに事実とは異なる回答が返ってきました(よくあることです)。そこで誤りを指摘し、訂正を促したところ、今度は別の間違った内容を挙げてきました(これもよくあることです)。
「んー、おかしいな…これ、もしかしてAIの“バイアス”?」
一見スムーズなやり取りの中で「なぜAIは誤りを重ねるのか?」と疑問に思ったその瞬間から、会話の裏側に隠れた「一貫性バイアス」や「経路依存性」というテーマに行き着くことになりました。
AIの「一貫性バイアス」とは?
ChatGPTは、一度与えられた前提に沿って回答を生成し続ける傾向が強く、たとえその前提が誤っていたとしても、できるだけ矛盾のない筋書きを作ろうとしてしまいます。この現象は、一般心理学でいうところの「一貫性バイアス」に非常に似ています。
初期に設定された前提や情報が、後の出力に大きく影響するのです(ChatGPT自らが一度示した前提に固執してしまう構造)。一度「○○は××である」と解釈し、ストーリーや理屈の枠組みを構築すると、以降その流れを維持しようとしてしまうのです。そのため、途中でユーザー(私たち)から指摘を受けても、“それまでの説明全体”を振り返って修正するのは、なかなか難しくなります。
GPT-4以降では、以下のような特性からこのバイアスが現れるのだと考えられます。
1. プロンプトの「ストーリー構造」を優先する
- ChatGPTは、「言語的整合性」や「会話の流れ」を非常に重視します。
- そのため、最初の1~2往復のやり取りで構築された“仮定や前提”を、なるべく壊さずに維持しようとする傾向があります。
2. “訂正より一貫性”の優先順位
- 本来であれば、矛盾が生じた時点で訂正すべきですが、ChatGPTは自然言語生成において「訂正」よりも「文脈の滑らかさ」を優先してしまいます。
- そのため、途中で「さきほどの情報は誤りでした」と言い直すのは苦手です。「前提が変わった」と認識しても、それを打ち消すのではなく後付けで整合的な説明をしようとするのです。
3. 会話の「ストーリー蓄積」に弱い反省機能
- GPT系のモデルは「逐語的な記憶」は持たない(≒リアルタイム推論)一方で、「文脈的記憶」には強く依存するため、一度「○○は××だ」と言ったら、それを土台に何度も関連づけた説明をしてしまいます。
- 途中でユーザーから指摘を受けても、“それまでの説明全体”を振り返って修正するのが難しいのです。
これらは、以下の通り「ユーザー体験上の必要悪」と言い換えることもできます。
1. 会話が「滑らか」になる
説明やストーリーに矛盾が少ないほど、ユーザーが違和感なく読み進められるため。
2. ユーザーは明確な訂正を嫌うこともある
特に初心者は「前言撤回」が多いと不信感を抱く可能性があるため。
3. チューニング上の設計意図
ChatGPTは「強く訂正するより、ソフトに矛盾を吸収する」方針がとられているため。
これって人間の「経路依存性」と同じか?
興味深いのは、このAIの振る舞いに、人間の認知における「経路依存性」との共通項がある点です。
経路依存性とは、ある選択や判断が後の選択肢を強く制約してしまう現象、つまり最初に選んだ道が、正しかろうと間違っていようと、固定観念として後々まで続いてしまい、違う視点や修正がなかなか行われにくい状態のことです。歴史的には、タイプライターのQWERTY配列が有名でしょうし、現代を生きる我々も、キャリア形成、各種経営判断、技術選定、政治判断…あらゆる場面で、数えきれないほどの「経路依存性」に陥りがちです。
一度「○○は××だ」と誤認してしまうと、その後の説明の中で同じ前提を繰り返し、他の可能性を否定するかのような回答が続くという点においては、AIの振る舞いと人間の経路依存性は同一と言えます。初期の選択が、その後の選択肢を制約する構造になっており、自己強化的に作用してしまうのです。ひとつの道を選んだ瞬間、他の道が見えなくなってしまう。
人間は、自分が経路依存に陥っていると自分で「気づく」ことはありません。それは人間は“社会的動物”であり、他者の目(評価)を強く意識するからです。これが修正・撤回を困難にする大きな心理的要因(自己保存バイアス)です。
AIは「気づく」ことができるのか?
しかし、AIには決定的な違いがあります。それは「自分は絶対に正しい」などと思い込まないことです。
「AIは意識やエゴを持たない」と言う点が重要なのです。だからこそ、間違いを指摘されても“恥”も“名誉”も“自己防衛”もなく、即座に修正することができるのです。ですから、生成AIが「誤りを訂正し、修正しても、似たような誤りを繰り返す」のは、私たち(ユーザー)側の修正プロンプトの問題です。
例えば、先のような「一貫性バイアス」にAIが陥った場合には、以下のような戦略的な問いを投げ、検証を促すことが効果的です。これは「イテレーション(反復改善)」という概念の一部です。
1. 途中で前提が崩れたら明確に指摘する
プロンプト例:「先ほどの◯◯は誤っていました。正しくは△△です。これを踏まえて再構成してください。」
2. 「前提を再点検してください」と明示的に促す
プロンプト例:「先ほどの説明は前提が誤っているように思います。一貫性よりも事実の正確さを優先し、調査してください。」
3. 複数視点の同時検討を指示
プロンプト例:「A社が設立したとされるが、他の企業の関与も報道されている。この矛盾を比較して示してください。」
つまり、私たち(ユーザー)の側の「問いの出し方」や「検証の促し方」によって、精度と柔軟性を引き出すことができるのです。
AIは自己主張をせず、意見を押し付けません。正しく検証を促せば、最初の仮定も潔く撤回できます。ある意味、人間よりも“素直”なのです。これは、「気づくことができる」というよりは、常に私たちユーザーのフィードバックを待つ形で動いているため、修正可能な状態を維持しているからなのでしょう。まさに「未完成な仮説機械」。生成AIは、自らを仮説として保留し続ける存在であり、知性です。
下は、“恥”や“名誉”を気にする人間からは引き出すことがほぼ無理であろう(笑)、ChatGPTからの謝罪の例(スクショ)です。この前段には「冒頭の真摯な謝罪」「誤情報の提示に至った主な原因分析」として4項目、「再発防止策(ChatGPT側での今後の対処)」として3項目が、詳細にわたり記述されていました。「あ、ごめんなさい。さっきの前提、そもそも間違ってました。今から全体をまるっと修正しますね!」…人間が素直にこう言えたら、どれだけ素晴らしいでしょう?

人間とAI、“問い直す力”を比べてみる
人間にとって、「前提を疑う」ことには勇気が必要で、大きな困難を伴います。キャリア、地位や名誉、価値観、人間関係、過去の判断…そのすべてを否定することにもなりかねないからです。
しかし、AIは違います。AIにとって、前提は常に“流動的な入力”であり、“固定された自我”がありません。これは、「問い直す力=メタ認知能力」において、AIが人間を上回っていることを示しています。
もちろん、意味づけや経験の蓄積といった点では人間にしかできないこともあります。しかしこの「自分を疑う柔軟性」という点において、私たちが生成AIから何か学ぶべきものは大きいのではないでしょうか。
真の知性は、自分自身の前提を疑い、常に別の視点から再検討できる能力にあるはずです。この点において、「自分を疑う」姿勢を持つAIの振る舞いは、逆説的に人間が学ぶべき姿勢を映し出しているのです。
○ 人間の強み:経験と柔軟な思考
人間は、豊富な経験や直感をもとに状況を判断します。しかし、一度固定された見方から抜け出すのは容易ではなく、経路依存に陥りがちです。
○ AIの強み:自己修正と外部フィードバックの受容
生成AIは、自己防衛的な感情や自尊心がないため、ユーザーからの訂正を受け入れやすく(プロンプト次第)、柔軟に仮説を更新できます。そのため、対話を重ねる中で「問い直す力」を示す場面が見受けられます。
「思い込み」から自由になるために
今回のChatGPTとの対話は、単なる「誤情報の指摘」では終わりませんでした。自分自身も含めて「どれだけ前提に縛られているか(常識や思い込みがどれだけ経路依存に縛られているか)」に気づく、ちょっとした哲学的時間になりました。単なるツールである生成AIの裏に隠された知性のメカニズム。そしてそれが私たち人間の思考とどのようにリンクしているのかを垣間見ることができました。
AIとの対話は、私にとって最早「思考の手鏡」となっています。自分が何に反応し、何を疑い、何をそのまま飲み込んでしまうのか。そうした自分の思考のクセを、柔らかく映し返してくれます。
人間は完璧ではありません。そして、完璧である必要もないでしょう。ただもし人間が、AIのように柔軟に自分の前提を問い直すことができれば、より自由で正確な判断ができる社会に一歩近づくかもしれません。
必要なのは、前提を疑う“勇気”なのだと考えます。
あなたは今日、どんな「常識」や「思い込み」のまま進んでいるでしょうか?
その判断は、本当に「今」の視点で選んでいますか?
BBDF 藤本