1.人工知能と倫理まとめ
・人工知能の学会でも人工知能が引き起こす倫理問題への懸念が提起されている
・様々な場面で使われ始めているが、偏見を学んでしまう等への対策は不十分である
・人工知能は人間の倫理観を学んでいるので人工知能だけで解決できる問題のわけでもない
2.人工知能学会における人工知能の倫理問題
wiredの記事より。
去年のNIPS(人工知能の学会)でも進化するAIへの懸念が語られたとの事。AIが様々な分野で活用されるにつれ、予想外の弊害を引き起こす可能性も大きくなりつつある。人工知能は黒人をゴリラと誤認識する問題のように人間の偏見や思い込み(バイアス)を増幅してしまう。何も対策を考えずに人工知能を面接に使用すれば、人種だけでなく国籍や性別や年齢、居住地などの偏見を誰も気づかないうちに増幅し、固定化してしまうかもしれない。
また、AIの出した結論は「何故、その結論になるのか?」を人間が説明できない。高度な医療行為などでは「AIがそう言っているから」だけでは患者も納得感がないからAIの思考プロセスを人間が説明できるような仕組みも引き続き求められるとの問題提起もあった。
また、カンファレンスの中では、自分たちのテクノロジーが越えてはいけないラインを考えるよう呼びかけをする人もいたとのこと。最もな意見とは思うのだけど、人工知能は自分自身でバイアスを作りだしているわけではなく、人間世界に存在するバイアスを学んでいる。そのため、バイアス問題は社会が解決すべき問題で技術的に解決すべき問題ではないと考える人はいるだろう。その人たちは人工知能の倫理など気にせず突っ走るだろうし、突っ走る人がいる限り他の人たちも止まるわけにはいかないのだろうな、とも思う。
コメント