生成AI利用者の65.4%が、ハルシネーションを十分に理解していない、との調査結果があります(参考外部リンク:株式会社ITSUKIプレスリリース)。
調査によると、44.7%がハルシネーションを経験しているにも関わらず、対策を講じていない人が60.2%もいます。これは「利便性がリスク認識を上回っている」典型例と言えます。便利だからこそ、多少の誤りを許容してしまう構造。
これでは、濃霧の中を地図なしで歩いているようなものです。リテラシーが全く追いついていない。リテラシー・ギャップが、想像以上に深刻であることが判明しました。
原因は人間にある?
「ハルシネーション」という言葉は生成AI特有に聞こえますが、根っこをたどると実は人間の「認知のクセ」や「語りの習性」と地続きであることがわかります。(ブログ内参考リンク:「35年前の“ハルシネーション”が今、AIと交差する」)
人間にも日常的に「存在しないことを自信満々に語る」ことが、多々あります。思い込みや勘違いは日常茶飯事ですし、記憶の捏造が酷い人も数多く存在します。都合よく話を盛る、あるいは意識的に嘘をつく、というやつです。脳は膨大な情報を瞬時に補完するので、「整合性はあるけど真実ではない物語」をつくることがあるのです。
生成AIは、一言で言うと「確率的にもっともらしい文章をつなぐ」仕組みです。よって、論理や事実よりも「言語の自然さ」を優先します。つまり「正しそうに見える嘘をつく」振る舞いは、人間の会話的直感を学習した結果とも言えるのです。特に大規模言語モデル(LLM)は人間の会話・文章を大量に学習しているので、人間由来の“誤りパターン”まで継承しています。
「AIのハルシネーション」は、ある意味、人間の“語りの習性”を鏡写しにしたものと捉えられます。つまり生成AIは、人間から「知識」だけでなく「錯覚や虚構の作り方」まで学んでしまった、と。
ハルシネーション・リスク回避策
誤情報をそのまま信じてしまうリスクが高い現状の改善には、適切な対策(クロスチェックや出典確認、AIと人間の役割分担など)を取ることが重要ですが、そのこと自体が一般利用者に十分に共有されていない可能性が高いと考えます。
生成AIには「ハルシネーション」がつきものなの。そしてそれは人間由来のもの。
まずは、クロスチェック(医者のセカンド・オピニオンのように、複数のAI~例えばChatGPTとCopilotなど~を利用して裏を取る)が、誰にでもできる対策でしょう。この普及・啓発活動が急務です。しかし、「クロスチェック」「セカンド・オピニオン」という言葉では、日本での啓発には向かないような気がします、なんとなく。
そこで私は提案したいと思います。
「春」を超えて「夏」へ
「ハル(春)シネーションを超えて夏に進む行為=“夏る”(なつる)。」
誤情報に振り回されず、春からもう一歩先の「夏」に進むためのクロスチェック/セカンド・オピニオン取得行為を 「夏る(なつる)」 と呼びましょう。より的確に言うならば、「夏る=AIの回答を複数の視点で検証し、納得できる情報に昇華させる行為」といったとろこでしょうか。
「AIが出してきた回答、ちゃんと夏った?」
「いや、夏ってない情報は危険だってば!」
「夏る」=クロスチェック、セカンドオピニオンを取ること。ご自由にお使いください(笑)。
AIリテラシーは難しい専門用語より、暮らしの中に溶け込む言葉で広がっていくはずです。
春を抜け、夏へ。私たちは今、「夏る」習慣を身につけるべき時代にいるのです。
もはや季節は「秋る」ですけども。情報に「飽き」てしまい、思考停止することだけは避けたいものです。
BBDF 藤本