ブラックボックス化するAIの課題
ChatGPTなどを使っていると、同じプロンプトでも毎回違う結果が返ってくる。つまり、AIの出力には再現性がない。
従来のシステム開発では、不具合があれば同じ条件で再現し、原因を突き止め、修正できた。しかし、深層学習モデルではその再現ができない。AIは“データから学んだ数億のパラメータ”によって判断しており、人間にとってその内部はブラックボックスである。
このため、AIが出した結論の「根拠」を誰も説明できない。医療診断、司法判断、人事評価、金融リスク管理……AIが社会の中枢に入り込むほど、「誰が説明し、誰が責任を負うのか」という問いが避けられなくなる。
2025年6月に我が国で施行されたAI推進法は、「人間中心の原則」を明文化した。これは透明性(AIの判断プロセスを可視化する)と説明責任(人間がそのロジックを理解・検証できるようにする)を起点に、信頼・安全・公平・責任が循環する構造を設計するという思想だ。
OECD、EU AI Act、UNESCOなど、国際的なAI倫理フレームも同じ方向を向いている。言い換えれば、「人間中心のAI」を実現するための最大のボトルネックは、Explainability(説明可能性)の欠如にある、となる。
課題解消への突破口:Tensor Logicという思想
この難題に理論的な光を投げかけているのが、ワシントン大学の機械学習研究者Pedro Domingosだ。彼が先月(2025年10月)発表した論文「Tensor Logic: The Language of AI」は、AIの進化を論理(Logic)とテンソル(Tensor)という共通言語で再定義しようとする壮大な試みだ。
Domingosはかつて、確率推論と論理推論を統合した「Markov Logic Networks(2006)」で知られる。Tensor Logicはその延長線上にあり、AIの「学習」と「推論」を一つの数理空間で扱う理論的フレームワークとして提唱された。
彼の主張を要約すると次の通りだ。
- AIの統一言語はテンソルであり、思考の構文は論理である。
 - Tensor Logic は、この二つを融合した「知性の母語(native language of intelligence)」である。
 - それによって、ニューラルネットが論理的に思考し、論理システムがデータから学ぶことが可能になる。
 
つまり、Tensor Logicとは「AIに“考える力”だけでなく、“理解し説明する力”を与える理論」である。
Tensor Logicの核心:AIの思考を数理的に表現する
Domingosの提唱するTensor Logicは、AIの内部推論をテンソル演算の形で表す。これにより、「なぜその結論に至ったのか」という論理構造を、数学的に追跡できるようにする。ポイントは次の三つだ。
1. 「論理」と「学習」を同じ数式空間で扱う
これまでAIの世界は、「ルールで推論するシンボリックAI」と「データで学ぶニューラルAI」に分かれていた。Tensor Logicは両者をテンソル代数の中で統合し、命題や関係、論理式(A→B)をテンソル構造として表現する。これにより、AIの判断過程を数理的に検証できるようになる。
2. 「微分可能な論理(Differentiable Logic)」という橋渡し
Tensor Logicでは、論理演算(AND, OR, NOT)を離散操作ではなく連続的なテンソル演算に置き換える。こうすることで、ニューラルネットの学習プロセスに「論理推論」を滑らかに組み込める。AIは確率的で曖昧な状況下でも、“論理的整合性を保ちながら学習する”ことができるようになる。
3. 「説明可能性(Explainability)」の再定義
Tensor Logicは、AIが出した結果だけでなくその推論のプロセスを再構成できる。中間テンソル(内部表現)が“論理的根拠”そのものになる(テンソル構造が論理的推論の中間表現として機能する)ため、AI自身が「私はこう考えた」と言えるようになる。これは単なる説明の可視化ではなく、AIが自らの思考を説明できる構造的Explainabilityである。
ExplainabilityからAccountabilityへ
Tensor Logicが目指しているのは、AIの思考を理解することだけではない。それを通じて、責任の構造そのものを再構築することにある。これまでは「結果の責任=AIを使った人間が負う」という単純な構図だった。しかしAIが「なぜそう判断したのか」を明示できるようになれば、責任は次のように多層化される。
- データ層:学習データの妥当性を保証する責任
 - モデル層:推論過程を監査・評価する責任
 - AI層(Tensor Logic):推論理由を説明する責任(自己説明能力)
 
つまり、AIが“説明する存在”になることで、倫理的責任の一部をAI自身が担う(責任の説明構造にAIが関与する)という新たな構造が生まれる。その結果、人間とAIの関係は「指示する側と従う側」から、「共に理解し、共に意思決定を行うパートナー」へと進化する。
Accountabilityを果たせるAIは信頼され、社会的意思決定にも参加できる。それは、人間とAIの新しい関係性(社会契約)の始まりである。
補記:MITとの関係について
しばしばSNSなどで「MITがTensor Logicを発表した」と誤解されるが、現時点でMITやMIT-IBM Watson AI Labが「Tensor Logic」という名のプロジェクトを公表した事実は確認されていない。
MITのTommi Jaakkola教授はテンソル表現や微分可能推論など近接領域の研究を行っているが、Pedro Domingosが2025年に発表した論文『Tensor Logic: The Language of AI』とは独立した理論系統である。
「説明する知性」こそ人間中心AIの条件
Tensor Logicが提示するのは、AIを“賢くする”技術ではなく、AIを“理解できる存在”に変える理論である。
AIに「考える力」を与える前に、「説明する力」を与えること。それこそが、人間中心のAI時代における真の知性の条件と言えるだろう。
人間×AI共進化ストラテジスト/HRアーキテクト
藤本英樹(BBDF)

