閣議後会見が映した“新しいAIリスク”
2025年11月7日、小野田紀美経済安保・AI戦略担当大臣が閣議後の記者会見で、採用支援AIにおける「性差の認識精度の偏り」に関する質問に答えました。
小野田大臣は次のように述べています。
「採用支援のAIにおける性差の認識精度の偏り等についてはAIリスクの一つと考えられており、既に企業等における採用人事評価等に係る先行調査の結果を第1回AI戦略本部で報告したところだ。これまでの調査では大きな問題は確認されていないが、今後も採用支援等のAI活用の拡大が予想されることから、引き続き事態把握に努めるとともに、関係省庁と連携して必要な対策を検討していきたい。」
政府として「採用AIの性差バイアス」を明示的にリスク認識したのは、今回が初めてのはずです。この問題の背景には何があるのでしょうか。
元となった事例:Amazonの「採用AI」問題
この「採用AIの性差偏り」という表現は、おそらく2014年に米Amazon社で発覚した事例を指していると考えられます。
Amazonは、過去10年分の応募データを学習させたAIを用いて候補者をスクリーニングするシステムを開発していました。しかし、そのデータの多くは「男性応募者」中心で構成されていたため、AIは無意識のうちに“男性を高く評価し、女性を低く評価する”傾向を学習してしまったのです。
たとえば「women’s chess club captain(女子チェスクラブ主将)」のように“女性”を示す単語を含む履歴書は、評価を下げられる傾向が確認されました。この問題を受け、Amazonは2018年に当該AIツールの運用を全面的に中止しています(Reuters, 2018年10月10日「Insight - Amazon scraps secret AI recruiting tool that showed bias against women」)。
この事例が象徴しているのは、「AIのバイアスはAI自身の問題ではなく、“人間社会の偏りをそのまま学習してしまう構造的問題”である」ということです。
事例に付随する事実:構造化されるバイアス
Amazonの件は氷山の一角にすぎません。世界各地で、採用AIによる性別・人種・年齢などの“無意識の差別”が指摘されています。
● 学術研究による分析
2023年、英国のNature系ジャーナル『Humanities and Social Sciences Communications』に掲載された論文では、複数の採用AIを分析した結果、性別・人種・出身地などの属性に基づく差別的な出力傾向が確認されています(Nature, 2023年12月「Ethics and discrimination in artificial intelligence-enabled recruitment practices」)。
● 英国ICOによる報告
英国の監督機関「Information Commissioner’s Office(ICO)」も2024年11月、採用AIツールが「保護された属性(protected characteristics)」──性別、人種、障がい、宗教など──を不当に扱っている可能性を警告しました。ICOは企業に対して「透明性・説明責任の確保」「AIによる自動選考の適法性確認」を求めています(ICO, 2024年11月「AI tools in recruitment, Audit outcomes report」)。
● 根本的課題の継続
こうした問題は2025年の今も解消されていません。AI採用ツールの利用が急増する一方で、過去データの偏りがそのまま未来の判断基準になってしまうという構造的リスクが依然として指摘されています。
Workday訴訟と研究結果が示す“現在進行形”の危険
2024年以降も、「採用AIのバイアス問題」は新たな段階に入っています。
● Workday訴訟(米国)
2024年4月、米HRテック大手Workday社の採用AIをめぐり、年齢・人種・障がいによる差別を受けたとする応募者の集団訴訟が連邦裁判所で認められました。このAIは、応募者を自動的に候補リストから除外する機能を持っていたとされ、訴訟は現在も進行中です(Reuters, 2024年4月12日「EEOC says Workday must face claims that AI software is biased」)。この事件は、AIがブラックボックス化された採用判断を代替する危険性を象徴しています。
● ワシントン大学の研究(2024年)
2024年、ワシントン大学の研究チームは複数のLLM(大規模言語モデル)を使ってレジュメ評価実験を行い、「白人男性応募者が他の属性よりも高く評価される」傾向を確認しました(GeekWire, 2024年3月「AI overwhelmingly prefers white and male job candidates in new test of resume-screening bias」)。また、年齢・障がい・英語を母語としない応募者も不利に扱われるケースがあると報告しています。
これらの研究から、AIは人間社会の不均衡を“再生産”しうる存在であることが明確になってきています。
対策:バイアスを制御する3つの視点
では、企業や人事部門はどう対処すべきでしょうか。有効な方策は「技術的修正」「運用上の設計」「制度的ガバナンス」の三層構造で考えることができます。
○ 対策1:トレーニングデータと特徴量の検証・修正
AIの学習データは過去の実績に基づくため、そもそもバイアスを内包しています。たとえば、特定部署の男女比が偏っていれば、AIは「男性が多い=適性が高い」と学習してしまいます。設計段階でデータ構成や重みづけをチェックし、「何を成果指標とするのか」をHR部門が明確に定義することが不可欠です。
○ 対策2:「ヒト+AI(HITL)」のハイブリッド体制
AIに最終判断を委ねず、Human in the Loop(人間が介在する設計)を導入することは前提です。AIはスクリーニングや補助判断に留め、人間のHR担当が最終的に意思決定を行うべきです。また、求職者に対して「AIを用いた分析を実施していること」「異議申立てルート」を明示し、説明責任を果たす必要があります。
○ 対策3:制度・ガバナンス・倫理の確立
AI採用ツール導入時には、HR・法務・IT部門が連携して公平性・透明性を担保するルールを設ける必要があります。「AIを採用判断の唯一根拠にしない」「差別的挙動が疑われる場合は即時レビュー」というポリシーを明文化することが重要です。さらに、欧州AI法案(EU AI Act)などの国際基準を参考に、リスク評価体制を整備する必要があるでしょう。
※根本的には、AIの推論過程を説明可能にするTensor Logicなどの研究が進展し、AIの判断理由を“人間が理解できる言葉”で説明できるようにすることが求められます。
「採用をAIに任せる時代」への違和感
最近、一部では「採用マッチングはAIで完結できる」「人材紹介というビジネスは消滅する」といった極端な論調も見られます。しかし、こうした主張は“人間の判断”の価値を過小評価しています。
AIは効率的に「最適解」を導きますが、人間の「原体験」や「意味づけ」、たとえば、キャリアブレイクや異業種経験の意義などはデータ化しにくく、その“逸脱”こそが創造的なキャリアを生むことがあります。
採用の本質は、「過去の最適化」ではなく「未来の可能性を見抜く」ことです。人的資本経営の観点からも、多様な経験を持つ人材を迎え入れることは企業価値を高める要です。AI導入=効率化ではなく、AI導入=人間の多様性をどう支えるかという設計思想への転換が必要でしょう。
AIが人を選ぶ時代に、人がAIを問う力を
AIが採用プロセスに深く関与する時代、最も問われるのは「どんな人を採るか」ではなく、「どんな基準でAIが判断しているか」です。
AIの透明性と説明責任を確保し、技術を人間中心の仕組みに組み込むこと。それこそが、これからの人的資本経営の真の課題だといえます。
人間×AI共進化ストラテジスト/HRアーキテクト
藤本英樹(BBDF)

