1.人工知能と公平性まとめ
・人工知能は公平に判断をするのではなく一定の基準で判断を下す
・一定の基準は現実世界から取得した学習用データから学習する
・学習用データには現実世界の差別やバイアスが含まれる事がある
2.人工知能は何故公平と言えないのか?
「人工知能が公平に判断してくれる」
と言う表現を目にする事がある。人工知能面接や人工知能政治家など、様々な場面でこのフレーズを目にするが、厳密には
「人工知能が一定の基準に基づいて判断してくれる」
と考えた方が良い。人間のように感情や体調で「一定の基準」がブレる事はないが、一定の基準が必ずしも公平とは限らない。人工知能は現実世界の事例を元に学習するので、現実世界のルールに思い込みや差別があれば、それを素直に学習する。現実世界が「自由で差別のない公平な世の中」であればこういった問題は起こらないが、残念な事に現実は理想からほど遠いのだ。
「公平性の問題」は人工知能の問題ではなく社会の縮図と見なせる事が多い。
例えば、人工知能を使った広告表示システムを精査したところ、「男性向けに表示する求人広告」と「女性向けに表示する求人広告」では男性向けに表示される求人の方が給料が高かった!との批判を読んだ事があるがそれは広告主に言うべき話で人工知能のみに責任を負わすべき問題とも思えない。
また、人工知能を使った顔認識システムを精査したところ、「白人男性の写真」と「黒人女性の写真」では顔認識率に大きな差があった!と言う批判も読んだ事があるが、学習に利用できる「白人男性の写真の数」と「黒人女性の写真の数」に差があるから認識率に差が出るのだ。写真の数に差が出てしまうのは、現実世界にも何らかの差があるからだ。それは、人口の差なのかネット利用率の差なのか写真公開を躊躇わない人の数なのかわからないが、学習用データさえ十分であれば認識率には大きな差は出ない 。
学習用データを公平に集めるべき、と言う批判は出来るかもしれないが、人工知能開発の際は学習用データの不足に悩まされる事が多く、出来る限り沢山の学習用データを集める努力は常にしているはず。そもそも現実世界にも「欧米人にはアジア人の顔を見て年齢を判断するのが難しい」「海外ドラマを見ていると登場人物の見分けが難しい事がある」など認識率の差があるのだから人工知能にも多少の認識率の差は許されて良いのではないかと思うが、人工知能技術に対する期待値の大きさ故に批判もあるのだろう。
Wiredの去年の記事に「人工知能が差別主義者になる」のを防ぐためにできる、4つのこと」があった。
1)ゲーム制作から学ぶ
コミュニティにアカウント停止権限を与えたところ、差別や嫌がらせ事例が激減
2)問題を発見できる人を雇う
女性や非白人、バイアスに影響されやすい人たちの意見を聞く
3)アルゴリズムの監査
アルゴリズムの社内監査の仕組みの導入
4)規格や認証基準の導入
セキュリティや地球環境は守るための基準があるが同様に公平性を担保する基準
4)はやりすぎると大企業による独占が進んでしまうが、2)と3)の考え方は心の片隅に置いておくのが望ましいのかと思う。
3.人工知能と公平性まとめ
1)wired.jp
人工知能が「差別主義者になる」のを防ぐためにできる、4つのこと
コメント