イーロン・マスクの未来予測(5~6年後)
10月31日に公開されたジョー・ローガンによるインタビューの中で、イーロン・マスクは「スマホやアプリ/OSは5~6年以内に不要になる」と明言し、AIがすべてを媒介する未来像を語りました(Joe Rogan Experience #2404 - Elon Musk)。
イーロンが語った衝撃的な未来予測は、以下の通りです。
- 5~6年以内にOSやアプリは不要になる。
- Xのサービスやアプリもなくなる。
- あらゆる体験はAIが管理するようになり、すべてAI経由で提示・生成される。
- AIがユーザーの欲求を先読みし、必要と思われるものが自動で提示されるようになる。
- 人々が消費するコンテンツは、音楽も映像も、殆どがAIが生成したものになる。
これを聞き、多くの人の頭を過るのは、「本当にすべてをAIに任せてしまっていいのか?」という漠然とした不安ではないでしょうか。
すべてをAIに任せることで起こる人間の「衰退」
イーロンの発言は、技術の進化がもたらす利便性と同時に、私たちの「選択」や「主体性」が薄れていく未来を暗示しているように感じます。この不安は、以下のように分類できるでしょう。
1. 人間の意思の希薄化
アプリやOSが消え、AIがすべてを判断する世界では、「自分で選ぶ」「自分で探す」という行為が減ります。「どのアプリを使うか」「どのコンテンツを選ぶか」を自ら決める構図が変わるのです。これは、思考や好奇心そのものがAIに委ねられてしまうことを意味します。人間の“意思”の希薄化と言っても良いでしょう。
2. “選ぶ”主体からの撤退
AIがユーザーの欲求を先読みし、必要と思われるものが自動で提示されるということは、つまり、人間が“選ぶ”主体から、“提示を受ける”対象になる可能性が示唆されています。ここで出てくるのは「自分で選べるという感覚・主導性」が失われるという不安、つまりコントロールの喪失感です。人間は「自分で選び、試し、失敗し、学ぶ」というプロセスを通じて主体性を獲得してきましたが、その「試行錯誤・能動性・意味づけ」の余地が縮まってしまうのです。
3. 文化・芸術の意味変質
また、音楽や映像がAIによって生成される世界では、「人間が作った」という価値が相対化されてしまいます。創造性や感情の表現がアルゴリズムに置き換えられることで、文化や芸術の意味が変質するでしょう。
これらは、いずれも人間の「衰退」を意味すると言って差し支えないものです。AI依存が強まるほど、「人間らしさ・自律性」が揺らいでしまう。この大変化に対する恐怖。結局はこれが一番大きいのではないでしょうか。
4. 歴史的・社会的・倫理的インパクトへの恐れ
「アプリがなくなる」「すべてAIが生成・管理する世界」という未来予測は技術的インパクトだけでなく、労働構造、個人データ/プライバシー、価値観、意味の再編成といった社会変革を伴う可能性があります。こうした“大変化”に対して、人は本能的に「取り残される怖れ」「振り回される怖れ」を抱きやすいのは当然でしょう。
不安の払拭に必要なこと
上記の構造を踏まえると、「便利になる/効率化される」未来に安心して向き合うためには、以下のような観点・備えが必要だと考えられます。
A. コントロール・主導性を再確立する仕組み
インターフェースとしての「人間の選択性」を制度として残す必要があるでしょう。仮にAIが多くを代行するとしても、「どういう条件で提示するか」「提示されたものを自分がどう扱うか」という選択の余地を明確にするのです。「説明可能なAI(Explainable AI)」や「人間の意思介入の機会」を制度化・設計段階から確保することです。ブラックボックスではなく、「提示されたのはこういう理由だ」という理解可能性が安心材料となります。
また、AIとともに生きる社会で主体性を維持するために、「どういう提示に注意すべきか」「どういう操作が可能か」「どういう制限があるか」を理解するような教育・リテラシーの強化も必要でしょう。
B. 意味・主体性・学びの場の確保
AIに“ただ提示される”だけの世界ではなく、人間が問いを立て、選び、試し、失敗し、再構築するというプロセスを使い続けられる場を設けることが鍵となります。たとえば、AI活用が進んでも、「自分で何かを作る」「自分なりに問いを立ててインタラクションする」「自分なりの意味づけを行う」場を意識的に確保することです。
また、技術的変化が社会・文化・価値観にも及ぶ中で、“なぜこの提示が出てきたのか”“自分にとって何を意味するのか”を内省する習慣を持つことが、不安を生態的に扱う上で有効でしょう。
C. 透明性(Transparency)・説明責任(Accountability)を制度化する
AIが提示・生成・管理を担う世界では、そのインフラ構造・アルゴリズム・データ源に対しての透明性と説明責任が、信頼性を支える柱となります。社会・企業レベルで「AIがどのように動いているか」「どのようなバイアス・誤りがあり得るか」「その監査・検証はどうなっているか」を制度・ガバナンスとして確保する必要があるでしょう。
日本の企業・行政でも「カルチャー・フィロソフィーを担うHR部門」が、技術的側面だけでなく、組織の価値観や倫理観を守る文化の番人としてAI活用に関与することが重要です。
D. フィードバック・エラー耐性・人的介入の仕組み
AIが盛んに提案・代行する世界では、誤りが生じたとき/提示が不適切だったときの人間側の介入・修正可能性が不可欠です。設計段階から「AIが誤った提示をする可能性」「それを人間が検知・訂正する仕組み(HITL:Human In The Loop)」 を備えておくことで、安心は格段に高まります。
また、AI依存が進んでも、人間が“余地”を持つように設計されたシステム(=人間+AIのハイブリッド)であることが、主体喪失を防ぐ鍵となります。
E. 倫理・価値観・文化・人間味を維持する場
技術が進歩しても、人が「意味を感じる」「関係性を築く」「創造する」「失敗から学ぶ」という営みが変わることはありません。むしろ、技術が高度化するほど、“人にしかできない”意味づけ/文化の創出/問いの立て方が差別化要因となります。したがって、企業・個人双方で「AI時代にこそ強めておきたい“人間味”/“フィロソフィー”/“文化”」を意図的に育てておくことが、不安を和らげる上では有効でしょう。
不安と向き合うための問いと実践
ユーザー自身も「AIが提示してくれたものをただ受け取る」だけでなく、「どういう問いからそれを選び取ったか」「どういう意味を自分でつけたか」を振り返る習慣を持つことで、主体性を保持できるはずです。
結局、「すべてをAIに任せてしまっていいのか」という問いは、単なる技術的懸念ではなく、“人間であること”“自分で選び・問い・意味づけすること””がこれからも担保されるのか?という存在的な問いにもつながっています。
AIが自分の提示を代行・先読みしてくれる世界で、私は何を自分で選び、どこに意味を見出すか?
AIの提示・生成構造が透明でない状況でも、私は自分の主体性を失っていないか?
システム化・代行化が進む中で、私は「問いを立てる力」「意味づける力」「選ぶ力」を維持・強化できているか?
組織・企業として、AIを導入・運用する際に「人間性・文化・価値観」の観点をどう担保しているか?
このような問いを意識しながら、実践していくことが私たちには求められています。
個人レベルでは、時折「AIに任せる/AIからの提示を受ける」ことから距離を置き、自分で探す・試す・失敗する場を持つことが必要でしょう。また、企業・組織レベルでは、AI活用のロードマップにおいて、「技術導入」だけでなく、「人間の主体性をどう守るか」「文化・価値観をどう反映するか」「誤りやブラックボックスをどう扱うか」を初期段階から設計に入れることが重要です。そして、制度・社会レベルでは、AIに関する説明責任・透明性・アカウンタビリティを求める議論・規制・ガバナンスの強化を支援するべきでしょう。
すべてがAIにより提示される世界においても、私たち人間は“選ぶ力”を手放してはならないと考えます。
人間×AI共進化ストラテジスト/HRアーキテクト
藤本英樹(BBDF)

