報道の概要とその意義
本日付日本経済新聞は、「超知能の開発禁止を求める書簡」に関する報道を掲載した(リンク:日本経済新聞『トランプ氏元側近バノン氏とメーガン妃、AI「超知能」反対運動に賛同』)。
記事によれば、第1次トランプ政権で首席戦略官を務めたスティーブ・バノン氏や英国のメーガン妃、そして「AIのゴッドファーザー」と称され、2024年ノーベル物理学賞を受賞したジェフリー・ヒントン氏ら著名人・専門家がこの書簡に署名した。
書簡は米非営利団体フューチャー・オブ・ライフ・インスティチュート(Future of Life Institute)が公表し、こちらに原文が掲載されている(リンク:Statement Of Superintelligence)。
内容は、人類の認知能力を大きく上回る「超知能(Artificial Superintelligence; ASI)」が誕生した場合に、人間の尊厳の喪失や国家安全保障上の重大なリスクをもたらす可能性を指摘し、「安全かつ制御可能な範囲に収まるという科学的合意と社会的支持が得られるまでは、開発を禁止すべき」と提言するものである。※主要な世論調査によると、「規制のない急速な発展の現状を支持している」米国の成人は5%、「超人的なAIは安全または制御可能であることが証明されるまで作られるべきではない、あるいは作られるべきではないと信じている」は64%、「高度なAIに対する強力な規制を求める」は73%とされている。
署名者の一人であるスチュアート・ラッセル教授(カリフォルニア大学バークレー校)は、「これは極端な主張ではなく、人類絶滅の可能性を持つ技術に対し、安全対策を求める当然の要求である」と述べている。
本件は単なる倫理論争を超え、AI開発をめぐる国際秩序形成の転換点となる可能性を含んでおり、今後の人類史的課題として位置づけられるだろう。
この動きの必然性:「準備なき知能創造」への警鐘
私は2025年4月に「AGIは準備万端。一方人間は、丸腰。」という論考を公表した(リンク:「AGIは準備万端。一方人間は、丸腰。――間近に迫るAGI登場に向け、今から備える5つの行動――」)。その中で、「人類は自らを上回る知能を創造する準備ができていない」という点を指摘した。
現実には、特に我が国において、多くの人々がAIを“業務効率化の延長”としてしか理解しておらず、社会構造・雇用・法制度に与える構造的影響を全く想定できていない。
イスラエルの歴史学者、ユヴァル・ノア・ハラリが警告した「無用者階級(useless class)」が現実化するのは、もはや時間の問題である。このまま備えを欠いたまま進めば、数十億単位の人間が社会的役割を失うだろう。
したがって、今回のように「規制」という形で一時停止の議論が始まることは、文明的には極めて自然かつ必然的反応である。むしろ人間が“立ち止まる”ことができる、最後の機会なのかもしれない。
ただし問題は、「ではいつになれば準備が整うのか?」という問いに、誰も答えを持たないことである。
おそらく、人間が自己制御を完全に習得する日は永遠に来ない。人類の知は進化しても、理性は進化しきれない。この非対称性が、すべての危機の根っこにある。
西側中心の規制加速がもたらす地政学的リスク
今回の動きが仮に欧米を中心に加速した場合、地政学的な不均衡をもたらす危険があると考える。特に中国は、すでに生成AIサービスに関する制度整備を進め、「促進+統制」の二段構えで技術開発を推進している。
同国の政策文書を見る限り、AIは「経済・軍事の両面で国家競争力を決定する中核技術」として位置づけられている。このため、「規制して止まる」ことよりも「先に進んで優位を取る」ことが国家インセンティブとして強く働く。
もし一国が抜け駆け的にASIを獲得すれば、冷戦期の核バランス以上の非対称的支配構造が生まれる可能性がある。
一方、EUは「AI Act」においてリスクベースの包括規制を策定しているが、米国は政権交代のたびに方針が揺れ、アジア諸国は独自路線を模索中である。
こうした地域間非同期の規制環境は、結果的に技術覇権競争を助長するリスクを孕む。従って、国際協調なくして規制の正義は成立しない。部分的な規制は、むしろ不安定化を招くことになるだろう。
バックキャスティング法制の必要性:日本への示唆
変化の速度が指数関数的に高まる時代には、法制度も「過去の延長」ではなく、「未来からの逆算」で設計されねばならない。即ちバックキャスティング型法制度である。
日本の現行制度は、AIを「産業振興」や「効率化推進」の文脈でしか捉えておらず、倫理・社会・安全保障の多次元的影響に対する備えが圧倒的に欠けている。
本来、法とは社会の“行動操作系”であり、未来の秩序を設計するツールであるべきだ。従って、日本に求められるのは「規制による抑制」ではなく、「安全に使いこなし、国際ルール形成に参画する戦略的関与」である。
小国だからこそ、ルール設計の側に回る知恵が必要となる。
知と倫理の非同期性:永遠に成功しない規制
人類の技術史は、知の進化と倫理の進化の非同期性の歴史でもある。火、核、遺伝子編集、インターネット……いずれも「使い方を誤れば破滅する力」だった。そして私たちはいつも“後付けの倫理”でその傷を癒やしてきた。
しかしAIは違う。制御の主導権が人間から離れる可能性があるため、「後付け」では間に合わない。
ハラリやヒントンらの主張は、単なる恐怖ではなく「人間の判断速度がAIの進化速度に追いつかない」という現実認識に基づく。ゆえに、今回の“規制”とは単なる技術統制ではなく、人類最後の自己保存本能である。
だが皮肉なことに、理性で規制を理解しても、欲望がそれを打ち破る。「安全のために止めよう」と言いながら、誰かが「チャンスのために進める」。この構造が変わらない限り、規制は永遠に成功しない。
つまり、「その規制を解くべき時は永遠に来ない」というのは、人類が永遠に“準備未完の種”であり続けるという事実の裏返しなのである。
規制のための規制ではなく、「意味の再定義」を
我々人間が究極的に問うべきは、「超知能を作るべきか」ではない。「人間とは何か」「知性とは何か」「支配と共存の境界はどこにあるのか」という、存在論的再定義の問題である。
科学の最前線が哲学に回帰する時代、それが今である。
ヒントンらが求めているのは、単なる禁止令ではなく、「人間が再び、自らの限界を自覚する時間を持つこと」に他ならない。
技術が加速しすぎたとき、人間が立ち止まれるか。
技術が加速しすぎたとき、人間が立ち止まれるか。
その問いこそが、次の文明を決定づける分岐点に立つ私たちへの、最後の知的挑戦である。
BBDF 藤本英樹

