人工知能が不適切な画像を認識したり作成したりするお話

  • 2018.02.08
  • AI
人工知能が不適切な画像を認識したり作成したりするお話

1.人工知能がイカガワシイ画像を認識したり作成したりするお話まとめ

・職場閲覧注意な不適切な画像を発見する人工知能をYahooが公開している
・不適切な画像を発見する人工知能を利用して不適切な画像を作り出す人工知能を作った人がいる
・スコットランドヤードに導入された人工知能は砂漠と裸体の区別に苦戦中であるらしい

2.不適切な画像を発見する人工知能

FaceBookには一日100億枚もの写真が投稿されるそうだけど、こういった大きなサイトでは量が多すぎて人が目で写真がNSFW(Not Safe For Work、職場閲覧注意)な画像か否かを判断するのは困難。そこで人工知能の出番になるのだけど、Yahooがnsfwか否かを判断する人工知能(Open nsfw)を公開してくれている。

中々、出来が良いようで一番左の花畑で人が花を摘んでいる写真は不適切度スコア0.001、真ん中の水着の女性が走っている写真は不適切度スコア0.116、右端の水着の男性は不適切度スコア0.074、と単純に肌色が多い少ないで判断しているのではない模様。

3.不適切な画像を発見する人口知能を利用して不適切な画像を作り出す人工知能

不適切な画像を発見する人工知能は「不適切さ」を判断する事ができる。それでは、その判断された「不適切さ」を使って画像を作れば、不適切な画像を自動で作り出す人工知能ができるのではないか!と考えた人がいて、はい、例によって人工知能が作る悪夢っぽい画像ではありますが、イカガワシイ雰囲気満載の画像を作成する人工知能も発明されている。

Image Synthesis from Yahoo’s open_nsfw

不適切度判断にopen_nsfw、画像生成にSynthesizing、フレームワークにcaffeを使っているとはいえ、Pythonのコード自体はわずか160行なのが驚き。しかも2016年10月の発表。

4.スコットランドヤードにお勤めの人工知能は砂漠に悩む

確かに砂漠は肌色っぽく、砂漠の陰影は人間の体っぽく見える事もあるが、ロンドン警視庁が導入した不適切な画像を自動検出する人工知能は砂漠画像が設定されたスクリーンセーバーを不適切認定してしまい誤検出改良に苦戦しているとの事。こちらは2017年12月のニュースだから最近。どんな砂漠画像が誤検出されるのか具体的な画像はわからないが、技術的な限界ではなく、何か他の制限もしくは誤解に基づく報道であるような気がする。Open nsfwが2016年発表で、真ん中の砂場で水着女性2人が走っている画像を正確に認識できているのだから。

5.人工知能が不適切な画像を認識したり作成したりするお話参考リンク

1)gigazine.net
職場で閲覧注意な画像を自動生成するシステムをYahooのディープラーニングで開発

2)github.com
yahoo/open_nsfw

3)evolvingai.org
Synthesizing the preferred inputs for neurons in neural networks via deep generator networks

4)gizmodo.jp
人工知能には「砂漠」の画像がエロ画像に見えるらしい