AIの役割は「選定」ではなく「浮上」―米国企業にみる採用プロセスへの導入実態
米国大手企業におけるHRテクノロジー活用の実態を整理した「Solution Stack調査2025」では、採用プロセスでのAIの位置づけと運用方針が明らかになった。調査では、IT、製造、コンサルティング、通信など12社を対象にオンラインフォーラムを開催し、さらに7社への個別インタビューを通じて深掘りを行ったものである。加えて、CareerXroads共同創設者ジェリー・クリスピン氏へのヒアリングも実施した。
調査で浮かび上がった5つのポイント
本調査では、HRテクノロジー企業によるAI実装が急速に進む一方で、実際にそれを活用する米国企業の現場は、驚くほど慎重に試行錯誤を重ねていることがわかった。この模索の様子は、新しい技術に戸惑いながらも導入を図る日本企業とも共通する側面を持つ。
調査から明らかになった実態は、以下の5つである。
- AIは、採用プロセスの前半工程において集中的に活用されている。
- AIの役割は、候補者を選定することではなく、人が検討すべき候補者を見つけるサポート役である。
- 面接や最終決定は、倫理・法令面の懸念からAI活用が限定的で、「人」の判断が必須である。
- AIの導入スタンスは、企業によってアプローチが異なる。
- 生成AIによる履歴書作成や大量応募の増加により、「本人の真の能力をどう見極めるか」が焦点となっている。
前半工程でのAI活用――母集団形成とスカウトの自動化
AIが最も活用されている領域は、母集団形成や転職潜在層の発掘といった採用プロセスの「前半工程」である。企業は、候補者へのキャンペーンメールの配信やスカウト文面作成の自動化など、候補者との最初の接点を効率化する領域でAIを集中的に活用している。
■ 候補者発掘の変革――過去応募者の再発掘
近年、過去の応募者データが積極的に再活用されている。応募者数が増加する企業では、ATS(応募者追跡システム)に膨大なデータが蓄積されており、AIがその中から求人の要件に合う候補者を再発掘する「リディスカバリー」が定着しつつある。
新規候補者を外部から探すよりも、過去に自社に関心を示した層へ再アプローチするほうが効率的であり、選考スピードの向上にも寄与している。
また、ソーシングツールの自動化が進み、AIによる求人とのマッチング精度が向上したことにより、企業が求めるスキルや適性を持つ候補者を、より正確に抽出することが可能となっている。
■ スクリーニング――AIは「人による選考」の補助役
候補者がAIを活用して一度に大量の求人に応募するケースが増え、なかには1件の求人に8000件を超える応募が寄せられることもある。このため、複数の企業が、大量の応募者の中から、スキルなどを基に適合度の高い候補者を特定するAIスクリーニングツールを導入、または検討している。
ただしこの導入目的は、AIに候補者を「選別」させることではなく、人が見落としがちな候補者を「浮上させる」ことにあり、選考の効率化とバイアスの低減を図るための補助ツールとしての位置づけである。

面接・アセスメントなど「後半工程」では人の判断を重視
採用プロセスの後半に当たる面接や最終判断においては、AIの活用は慎重かつ限定的である。月に数千件規模の面接業務を効率化するため、自動面接ツールを導入する企業も存在するものの、録画データの解析や発話内容の自動評価などは、倫理・法令面の懸念から多くの企業が導入を見送っている。
また、AIが候補者の発言の意図や文脈を正確に理解できるとは限らず、誤った判断につながる恐れがあるため、「録画データのAI分析は現時点では控えている」という声も聞かれた。
候補者のスキルを測るアセスメントについても、依然として人が主導している。AIによるスコア算出や分析結果はあくまで参考情報であり、最終的な評価や判断は人が行うというスタンスが一般的である。
AIの利点としてバイアスの低減が挙げられる一方で、AIの学習データに偏りがあれば、優秀な候補者が不当に除外される「スクリーンアウト」のリスクも存在する。このため、各社とも「AIで決める」ことはせず、必ず人が介在し、最終的な判断を行う “Human in the loop”(※)の原則を維持している。
企業によって異なるAI導入アプローチ
AI導入のスタンスは企業間で大きな差があり、積極的に導入を進める企業もあれば、倫理・法令・公平性の観点から慎重に進める企業もある。この差異は導入スピードではなく、企業文化、意思決定構造、およびリスク許容度の違いに起因している。
AI導入アプローチは以下の3つに大別される。
- 先行導入型:試験導入後、効果を見ながら運用体制を整備する。
- 段階導入型:領域を限定して試験運用を行い、効果とリスクを検証後に拡張する。
- 統制投入型:リスク管理や法務のレビューを経て導入を決定する。
さらに、学習データの制限やバイアス監査など、公平性と説明責任を確保する取り組みも進んでいる。
- 内部審査体制の構築:AIツールの導入時に法務やAI審査委員会がレビューする。
- 学習データの制限:EEOC(雇用機会均等委員会)が差別禁止の対象とする、人種・性別・年齢・宗教などの候補者データをAIツールに読み込ませない。
- バイアス監査の導入:ツールの導入後も、結果の偏りを社内で定期的に検証し、独自の監査を実施することで、透明性の確保を図る。
候補者のAI利用の進展と、企業側の対応
近年、候補者が生成AIを活用するケースが増加している。企業は不正検出ツールや行動面接の導入などで対応を強化している。主な対策は、以下のとおりである。
- 複数応募の抑制:同一人物による大量応募の監視
- 面接プロセスの見直し:対面面接の拡大や、過去の行動事例について質問する行動面接の導入
- 不正検出ツールの活用:オンライン面接での生成AI利用を検知
- リクルーター向け研修の実施:不正を見抜く力を強化
多くの採用責任者が懸念していたのは、「候補者本人の実力と回答の真正性をどう見極めるか」というAI時代の新しい課題である。
採用現場では、候補者がAIで求人に応募し、企業がAIで候補者を絞り込む、“AI対AI”の構図が生まれている。現時点では、この状況に最適解や、候補者のAI利用に関する明確な方針を打ち出している企業は少ない。
しかし、採用プロセスそのものを見直す動きは既に始まっている。今後は、候補者と企業双方のAI利用を前提に、利用範囲や方針を明示することが不可欠となるだろう。
AIと人との協働――採用の次なるモデルへ
2025年は「AIエージェント元年」ともいわれ、“実証から本格導入へ”移行する過渡期にある。
インタビュー協力企業7社中、AIエージェントを実際に活用していた企業は1社のみであった。しかし今後は、AIエージェントの利用拡大に伴い、特定のタスクの自動化にとどまらず、複数の工程をまたいだAIと人の連携が深まる。AIは単なるサポート役から、リクルーターの意思決定を支えるパートナーへと進化していくだろう。
これにより、AIと人の役割を分担する現段階から、協働して選考を進める次の段階に移行することが予測される。
採用の設計者が、この関係を今後どう描くか―。それが、次の採用モデルを決定づける鍵となる。
TEXT=杉田真樹
(※)Human in the loop: AIのシステムや業務プロセスの設計において、人間が意図的に関与する考え方。
メールマガジン登録
各種お問い合わせ