「AI面接官」にどこまで任せる?就活戦線に進出 拒否感示す学生も 人にしかできない役割とは

AIを活用している学生

「学生時代に苦労や困難を乗り越えた経験はありますか?」

記者にそう質問したのは、人間ではなく、目の前のスマートフォンの画面内にいる「AI面接官」。

人の代わりに採用面接を担うAI(人工知能)が登場し、企業での活用が広がっている。

どのように使われているのか。評価は信頼できるのか。現状を取材した。

記者が「AI面接」についてインターネットで検索すると、質問を投げ掛けてくる対話型や、面接動画の表情や話し方を分析して評価する形式などがあり、複数の企業がサービスを提供していることが分かった。

その中の一つである対話型AI面接サービス「SHaiN(シャイン)」を体験してみた。

スマホに届いたURLをタップし、音声確認などを済ませると、さっそく面接が始まった。

「組織をまとめた経験」や「計画を立てて取り組んだこと」などについて、その時の状況やどう行動したかを質問され、スマホに向かって答えていく。

AIは「それは大変でしたね」などと相づちを打つが、声から感情は読み取れない。

回答が不十分だと「もっと具体的に教えて」と求められた。

50問以上に回答し終えると、1時間ほどたっていた。

サービスを提供するタレントアンドアセスメント(東京都港区)は、過去の経験に関する「状況」「課題」「行動」「結果」を尋ね、受験者の資質を客観的に評価する手法を開発。

SHaiNに搭載されたAIは、その手法を用いて専門の評価スタッフが採点した、性別などの個人情報が含まれない約4万件のデータを学習しており、受験者の回答を分析することで「バイタリティ」「計画力」といった7項目の資質を1.0~10.0で評価する。

受験後約15分で、評価リポートや面接動画、回答全文が企業に提供される仕組みだ。

2024年6月末時点で585社が導入している。

同社の山崎俊明社長は「面接日程や会場の調整も不要で、学生は24時間どこでも面接を受けられるのがメリット。選考の初期段階で導入している企業が多い」と説明する。

採用現場の実情を知ろうと、SHaiNを活用している光応用製品メーカー「ウシオ電機」(東京都千代田区)に取材を申し込んだ。

地方の志望者が多い同社は、移動の負担軽減などを理由に20年卒の採用から2次選考として導入。

2次選考の対象は400~600人で、以前は人事担当だけでは面接官が足りず、他部署から人員を集めていたという。

人事担当の沢田泰宏さんは「応募者が多いと1人当たりの面接時間が限られるし、面接官の評価にばらつきが出る問題があった。AIはどの学生にも同じように質問し、確実に経験談を引き出せるのが利点」と説明する。

AIの評価リポートはすぐに人事担当者に届くが、まずはAIの評価を見ずに、文字起こしされた回答や面接の音声・動画データを確認し、合否を決定。

その後、AIの評価を参考として確認しているという。

「先入観を持たないようにこの順番にしています。人間の評価と差が出る場合があり、AIの採点結果に影響されると、欲しい人材を落としてしまう」と沢田さん。

人が最終的な合否を決めることは事前に学生に説明している。AI面接を受けて入社した女性社員は、「人と比べ緊張しなかった。回答内容について担当者からコメントがあり『ちゃんと見てくれている』と感じた」と振り返った。

3次選考以降は対人面接を実施しており、AIへの置き換えは考えていない。生のコミュニケーションを通じて学生側が「この企業で働きたい」と思ってくれるケースもあるといい、沢田さんは「最終的な相性は人でなければ見極められないと思います」と語った。

記者の学生時代はAIと面接することなど想像もできなかったが、今の学生はどう感じているのだろう。

26年卒向けの就職説明会に足を運び、声を聞いた。

金融志望の女子学生は「応募者が多い企業は学歴で選別すると聞いている。AIで効率化して全員が面接を受けられるなら、学生にとってもチャンスが広がるのではないか」と歓迎する。

「面接官との相性で不採用になるなら、AIが一律の基準で判断した方が公平だと思う」と話す男子学生もいた。

一方で、観光業界志望の女子学生は「学生をデータとして見ているように感じるし、人材を採用する過程に使うのはおかしい。判断も正確か分からない」と拒否感を示す。

教育関係志望の男子学生は「人間と違って面接官の反応が見えないので、手応えが分かりにくそう」と不安げだった。

効率化や機会拡大にメリットを感じつつも、機械に判断されることの違和感や信頼性に疑問を持つ心情がうかがえた。

実際に海外では採用分野のAI活用を巡り、法規制の動きが強まっている。

米アマゾン・ドット・コムでは技術職の採用にAIを導入したところ、学習させた過去10年の応募者のデータがほとんど男性だったため、女性を低く評価するようになり、運用を取りやめた。

こうした問題を踏まえ、米国は23年10月、AI開発事業者に安全性評価の報告などを義務付ける大統領令を出した。

欧州連合(EU)では24年5月、世界で初めてAIの開発や使用を規制する法律が成立。

健康や安全、人権にリスクを及ぼす可能性のある分野を「高リスク」とし、高品質なデータを学習させることや、人による監視といった厳しい対応を求めている。

採用や昇進時の評価をするAIは、キャリアや生活に大きな影響を与える可能性があるとして、「高リスク」と分類された。

日本では、AIの開発や活用に包括的な法規制はされていない。

経済産業省と総務省は、事業者向けのガイドラインを策定し、企業の自主的な取り組みに委ねている。

ただ、政府の「AI戦略会議」は24年5月、リスクの高い分野については日本でも法規制の検討が必要との結論を出した。

7月に新たに設置した「AI制度研究会」が今後、具体的な制度設計を検討する。

AIにどこまで採用を任せてよいのか。

AIガバナンスに詳しい中央大国際情報学部の平野晋教授は「AIは一定のルールに基づいた選別は得意だが、全体の文脈を読んで判断するのは苦手。人間の尊厳の問題を考えても、採用プロセスのすべてを代替することは許されず、人による面接は必要です」と指摘する。

日本における採用分野のAI活用は、労働基準法や男女雇用機会均等法などで禁止する差別に該当せず、人の判断を支援するツールという使い方であれば問題ないとされ、企業が各自の判断で導入している。

取材では、「人は偏見があるからAIの方が良いのでは」という意見もあったが、「米アマゾンの例のように、学習するデータによってはAIも差別的な振る舞いをする可能性があり、正しいとは限らない」と平野教授。

他にも、データを学習し進化していくAIは制御不能となったり、意思決定の過程が複雑で検証ができない「ブラックボックス化」したりする可能性もはらんでいると説明する。

取材した学生からはAI活用に理解を示しつつも、「仕組みや判断の基準は知りたい」という希望も聞かれた。

企業にはどのような対応が期待されているのだろう。

平野教授は、①信頼性の高いデータを学習させる②AIの予測や決定を過度に信頼する「自動化バイアス」にかからない訓練を受けた人に監視させる③受験者に仕組みを説明し、望まない人には別の選択肢を用意する―などを挙げる。

「採用選考は人の一生を左右し、間違った場合は重大な結果につながる。正確で公正という担保がなされた場合のみ、AIを導入するのがあるべき姿でしょう。こうした対応は世界的な価値観として求められている」と語った。

参照元∶Yahoo!ニュース