最新AIモデルのハルシネーション問題
OpenAIが2025年4月16日に正式リリースした、ChatGPT向けの新しい推論モデル「o3」と「o4-mini」。
○o3モデル
- これまでで最も高度な推論AIモデル
- 数学、科学、プログラミング、視覚的推論などの分野で優れた性能を発揮
- 画像分析や生成、ウェブ検索、Pythonコード実行、ファイル解釈など、ChatGPT内のすべてのツールを統合的に活用可能
○o4-miniモデル
- o3の小型・軽量バージョン。速度とコスト効率を実現
- 数学、コーディング、視覚的タスクにおいて高いパフォーマンスを発揮
- 無料ユーザー含む、すべてのChatGPユーザーが利用可能
登場時には「ついにAGI(汎用人工知能)が実現したのでは?」という声がネット上でも飛び交い、「4/16が“AGI実現記念日”か?!」と騒がれるほどでした。要するに推論性能が一気に向上した訳ですが、その後、特にo3において、ハルシネーション(もっともらしい誤情報の生成)が多いことがわかり(参考リンク:TECHNO EDGE)、「むむ、やはりAGIはまだか…」という状況になってしまっています。確かに今回のリリースによって「AGIが実現した」とまでは言えないのかもしれません。
AI開発における一つの「通過点」
今回のハルシネーション増加により、「AGIはまだまだ先。いや、実現しないのでは?」という声まで聞こえてきていますが、私はこれを単なる「通過点」(より強力なAIを目指す過程で生じる「副作用」)であると確信しています。
まず、今回の特にo3におけるハルシネーション増加には、大きくふたつの要因が考えられます。
1. 性能の最適化バランスが変わった
o3では「推論速度」や「コスト効率」「応答の自然さ」などを重視するあまり、「確実性(faithfulness)」が犠牲になる場面があるようです。特に、創造的な出力や推論的対話において大胆さが増した分、誤情報のリスクも増すというトレードオフ構造が存在する可能性が高いのです。
2. 学習データや方針の違い
o3は、より多様で大規模なデータセット、あるいは異なる学習目標で訓練された可能性があります。その結果、「創造性」や「文脈理解力」が向上した反面、「事実性」にブレが出ている場面があるのです。
これらは、決して放置して良い問題ではありませんが、ある程度「通らざるを得ない道」であると言えます。
大規模モデルの開発では「振れ幅」は不可避です。モデルが複雑化すればするほど、ある性能を伸ばすと別の性能が一時的に下がる、そんな“バランスの揺れ”は避けられません。画像生成AIでも、解像度を上げると構図が崩れるなどの問題がありますし。o3は「万能に見えるが、まだ完成ではない」という典型的な例でしょう。
また、OpenAIやAnthropic、Google DeepMindは、ハルシネーション低減のための明示的な強化学習(RLHF)や事実整合性フィルタを導入しています。今回のo3のフィードバックは、次のモデル改善に不可欠な「テスト段階」と言えます。つまり、次世代モデル(o4、o5)においては「大胆さと正確さ」のバランスがさらに洗練され、再び整合性が高まる見込みが高いとみています。
言い換えれば、「信頼性」を一時的に犠牲にしてでも、「汎用性」や「応答力」を高めるフェーズに差し掛かったとも言えるのです。AIが“創造的な飛躍”を見せるタイミングには、こうした「暴走」や「逸脱」もつきものです。それは人間の歴史や芸術の進化とも似ているのではないでしょうか?
暫定的な対応策
当面はマルチモデルチェックが必要かもしれません。「ハルシネーションは起こるものだ(人間同様に)」という前提に立ち、複数モデル(例えばChatGPTとCopilot)を併用し、その検証を通じて多数決を取りるのです。Googleなどの検索ツールやWeb参照機能と組み合わせて「真偽」を補完する作業も、まだ必要でしょう(Google Geminiでは、モデルが「どのくらい自信を持っているか」を出力に添える工夫~信頼度スコアの提示~を一部導入していますが)。
ユーザー自身が「小さなファクトチェッカー」となることが、今のところ最も効果的なハルシネーション対策なのです。情報の出典を都度確認し、複数モデルや検索結果と照合する習慣を持つことで、AIとの協働精度は確実に高まります。
簡単に言ってしまうと、これらの作業が不要となった時こそが「AGI認定」となる日かもしれません。
35年前にAtrocityが歌った「ハルシネーション」
さて、この「ハルシネーション」という概念。AIに触れることで初めて認識した方も多いのではないかと思われますが、私にとっては35年も前から非常に馴染みの深い言葉だったりします。
それは、私が高校の時から愛聴している音楽アルバムのタイトルが、何を隠そう『Hallucinations』だからです。
ドイツの変態デスメタルバンドAtrocity(後にインダストリアル~ディスコへとスタイルを転換させてしまいます)が、フロリダの聖地Morrisound Recordingsで録音した、記念すべきデビューアルバム、『Hallucinations』(90年)(参考リンク:Wikipedia)。

近未来的な造形で有名なHRギーガー(『エイリアン』のデザイナー)による病的で官能的、不気味さMAXのアートワークが素晴らしく、これ以上なく複雑でテクニカル、かつ冷徹な音楽性が今でも絶大なるインパクトを与えてくれる、正に不朽の名作です。
Atocityの“Hallucinations”は、何も生成AIが誤った回答をするようになる未来を予言したものではなく、ストレートに「幻覚」をコンセプトとした内容(幼少期に児童虐待を受けた少女のトラウマや精神崩壊、売春、薬物依存による「幻覚」、そして死をテーマとしたアルバム)です。しかしここにおいて、現在AIが抱えている様々な問題やリスク、つまりバイアスやフェイク(デマ)、そしてハルシネーションなどは、いずれも元々人間にあったからこそAIに反映されてしまったものである、という事実を認識する必要があります。そうすると、このアルバムで描かれているような「人間が元々持っている問題」について深く考えることが、実はAIを適切に進化させるためには不可欠なのだ、という結論に達するはずです。
よくよく考えてみると、嘘ばかりついているおじさんや人を騙すことで生計を立てている詐欺師などが多数存在する「人間」に、果たしてAI(o3)のハルシネーションを糾弾する資格があるのか?という疑問すら沸いてきませんか?
最近、AIとは人間の鏡であるような気がするのです。人間にある闇や歪みが、AIにも宿ってしまうのは当然の帰結です。だからこそ、AIの進化を見つめる視点には、人間そのものを深く見つめ直す覚悟が求められていると考えます。
因みに、Atrocityとは一度だけアメリカで一緒にライヴを演ったことがあり、ボーカリストのAlexとも会話とサインを交わしました。彼は、(当時)世界に2人しかいない「私より髪の長いボーカリスト」のひとりでした(笑)。代表曲はもちろんコレ(YouTubeリンク:Atrocity ”Hallucinations”)です。
AGIの登場に向けて
このハルシネーション問題が解決(次世代モデルが登場)した暁には、今度こそ「AGI時代」となるはずです。そしてその先に控えるのが「ASI(人工超知能)の登場」です。30万年に渡り、地上で最も知能の高い存在としての立ち位置を謳歌してきた人間が遂にその座を明け渡す、後にも先にもない瞬間が迫っているのです。法整備や新たな社会制度の構築を急がねばなりません。そして何より重要なのは、「AGI・ASI時代が到来した時に、自分(人間)はどう在りたいか」を考えることです。これは今のこのタイミングにしか行えない、行わなくてはならない作業であり、怠ってしまうと、とんでもないしっぺ返しを食らうことになるはずです。
AGIの登場は、単なるテクノロジーの進化ではありません。それは、「人間とは何か?」という問いを、社会全体に突きつける出来事です。
AGIは準備万端。しかし、人間はどうでしょうか?
その問いに答えられるのは、まさに「今この瞬間」に生きる私たちだけなのです。
BBDF 藤本