人間より公平で客観的?企業に広がるAI面接官

  • 2018.02.12
  • AI
人間より公平で客観的?企業に広がるAI面接官

1.人間より公平で客観的?企業に広がるAI面接官 まとめ

・企業の採用選考に人工知能が使われ始めていると日経新聞で報道
・人工知能は人間より客観性や公平性が高いのではないかと期待する人達もいる
・人工知能が人間の差別や偏見を素直に学習してしまう事もあるので要注意

2.人工知能と採用活動

タイトルの「人間より公平で客観的?企業に広がるAI面接官」は日経新聞の記事タイトルをそのまま引用させて頂いたがとてもびっくりした。人工知能は過去に人間が下した判断基準をそのまま学ぶから、元々の判断基準に差別や偏見が含まれていたらそれをそのまま増幅させる可能性が高い。

例えば、ある会社の社員の男女構成比が9対1であったとする。最初に人工知能に「採用に至った人材のエントリーシート」と「採用に至らなかった人材のエントリーシート」を見せて学習させる。次に新卒のエントリーシートを見せて合否判定させる。性別を隠す等の処理を行わない限り、合格判定されるエントリーシートの男女構成は9対1に近づく可能性が高い。

大量のエントリーシートを「同じ判断基準で見てくれる」と言う意味では公平ではあるけれども、元々の判断基準が実は歪んでいてそれに人間が気づいていないケースは十分あり得る。

2016年5月
アメリカの一部の州では保釈申請を認めるか否かの判定をCOMPASと言うプログラムに任せている。入力された犯罪歴、年齢、人種、雇用状況、教育レベル、薬物使用状況などから保釈の可否などを決定するが、白人より黒人のほうが再犯リスクが高く判定されており、機械による差別(マシンバイアス)があると指摘される。

麻薬所持で逮捕された2人の男性の判定

Machine Biasより引用

左の白人男性
前科 強盗未遂
再犯判定 ローリスク リスク度3
実際の再犯 麻薬所持3回

右の黒人男性
前科 逮捕に抵抗(暴力行為はなし)
再犯判定 ハイリスク リスク度10
実際の再犯 なし

COMPASの開発会社の反論によれば、再犯リスクが高いと判定された人が実際に再犯を犯した割合は白人も黒人も同じと言う事だけど、自分が仮に裁かれる側になって判定者が機械であったらどう感じるだろうか。

2016年9月
人工知能(AI)による美人コンテスト「Beauty.AI」が、人種主義論争で炎上。同コンテストには世界100カ国以上から6000人以上の応募者が参加。応募者が提出した写真を人工知能が審査し、世界一の美人を決定するというものだったが最終受賞者がほとんど白人であった。

3.人工知能による面接

ソフトバンクがWatson(IBMのAI)を使ってエントリーシートの合否を判別させた時は、過去に学生が提出した「合格したエントリーシート」と「不合格だったエントリーシート」を1500件分、それぞれの特徴をワトソンに学習させたとの事。その結果、エントリーシート選考に掛かる時間を75%削減したらしいのだけど、エントリーシート通過後の採用面接は人が実施するらしい。

しかし、世の中には面接自体もAIに任せてしまう試みも出始めているようだ。日本の製品だとSHaiNが、スマホやペッパーに向かって会話(面接)する事で志望者を診断するサービスを開始している。これは、面接と言うより、性格診断テストを筆記ではなく音声でやらされているだけのような気もする。

HireVue社のAI面接は、ゴールドマン・サックス、ユニリーバが使う採用面接AIソフトと言う事で動画も公開されている。

しかし、iphoneに写る動画で「アイコンタクトや熱意を観察し、仕事をする時の姿勢を推測」されても正直あまり上手に自己PR出来る気はしない。

近い将来、「AI面接官に好印象を持ってもらうための面接のお作法を教えるAI」が登場するんだろうな。

4.人間より公平で客観的?企業に広がるAI面接官 参考リンク

1)propublica.org
Machine Bias

2)beauty.ai
Winners of Beauty.AI 2.0 contest

3)stonewashersjournal.com
人工知能に起こり得るバイアス、データが偏るとAIも偏見を持つ

4)itmedia.co.jp
採用現場で「AI面接官」は普及するのか
ソフトバンクが新卒の「ES選考」をAIに任せた理由