Global View From Work Tech World
第18回 人事でAIを活用するなら、自動化バイアスを乗り越える努力もセットで
AI使用に関して社員との合意に先鞭をつけたIBM。今後は多くの企業が検討せざるを得なくなるはずだ
(写真は同社箱崎事業所)。
人事の各プロセスでAIを活用できないか、さまざまな模索が始まっている。目覚ましいのは、採用における書類選考や面談シーンでのAI活用だ。誰を採用し、不採用にするかの「決定」までをAIに任せることへの批判や異論はもちろんあるが、人間が検分したとしても能力の高い人物や自社に必要な人物を採りこぼすリスクはある。何百枚ものエントリーシートを読み続けて途中からおざなりになる可能性などを考えれば、人間よりもAIによる選別のほうが公平だ、という考え方も徐々に広がっている。
実用に向けての試行錯誤が始まっているのは人事考課におけるAI活用だ。これに関しては、2020年から2024年にかけて日本アイ・ビー・エム(以下IBM)と同社の労働組合が係争した事件が大いに参考になるだろう。IBMで、賃金査定に同社開発のAI、Watsonを活用する試みをスタートさせたところ、組合からAIによる査定の根拠やその正当性に関して情報開示を求める声が上がり、4年にわたる係争に発展したというものだ。
組合側は、プライバシーの侵害の恐れ、公平性や差別につながる恐れ、説明ができない評価が増えるブラックボックス化、上司に「自動化バイアス」が働くリスクなどの不利益の可能性を提示し、AIに学習させる全項目の開示などを求めた。2024年8月に会社側が、AIが学習に使う全項目を開示することなどを了承し、和解が成立している。
現在では当時よりもAIそのものが格段に進化し、またAI活用に対する寛容性も高まっている。プライバシー侵害については従業員への事前の説明と承認を求めることで、公平性や差別の問題とブラックボックス化についてはアルゴリズムや事前の学習データをうまくコントロールすることで、かなりリスクを低減させることが可能になっているはずだ。
残る「自動化バイアス」は、難度の高い課題だ。多くの人に、機械が出した答えや何らかの計算則から生成されたものは「正しい」と信じてしまうバイアスがあるからだ。ちなみに、EUのAI法では、人材評価へのAI活用は「高リスク」に分類されている。
AIによってさまざまなことが自動化され得る現在だからこそ、「それって本当に正しいの?」「目的に照らして、本当にこれでいいの?」と問い直す姿勢が求められている。
Photo=朝日新聞社/時事通信フォト
プロフィール
石原直子氏
Ishihara Naoko
エクサウィザーズはたらくAI&DX研究所所長。銀行、コンサルティング会社、リクルートワークス研究所を経て現職。AI×人事、働き方、組織などの研究と情報発信を中心に活動中。
Reporter
エクサウィザーズはたらくAI&DX研究所所長。銀行、コンサルティング会社、リクルートワークス研究所を経て現職。AI×人事、働き方、組織などの研究と情報発信を中心に活動中。
Reporter
メールマガジン登録
各種お問い合わせ