1.GoogleのAI研究チームの2017年成果 新手法編まとめ
・GoogleのAI研究チームが2017年のまとめとして投稿した記事から新手法をまとめ
・これらの単語を覚えておくと2018年の人工知能のトレンドにもかなりついていけるはず
・AutoML, Tacotron2, Capsules, MultiModel, Transformer(Attention), Path Consistency Learning
2.AutoML
自己進化する機械学習。
強化学習と進化的アルゴリズムを使って、ニューラルネットワークが新しいニューラルネットワークを作り出す仕組み。画像認識や物体認識で優れた成果を出しCLOUD AUTOMLとして既に試用が始まっている。
3.Tacotron 2
Googleの音声認識と文章読み上げシステムの結晶。既に 非ネイティブには既に人間の声か機械の合成音声か区別できないレベルに達しており、将来的に文法知識がなくても文章読み上げシステムを作れるようになる。
4.Capsules
人工知能業界のパイオニアで何度も世間の度肝を抜く発表をした69歳のイギリス人、ヒントン教授が2017年11月に発表した機械学習の新手法。従来手法では目や鼻などの個別のパーツの認識はかなり出来るようになっているが、目と鼻の位置関係の情報を保持する事が難しかった。そのため、顔を回転させると「目が一つなくなった」事だけに注目してしまい、正面を向いた顔写真と真横を向いた顔写真が同一人物である事を認識させる事が難しかった。カプセルネットワークはこの問題を突破するポテンシャルがあると期待されている。ヒントン教授は現在はGoogle所属だが「人工知能はきっとアメリカ人より先に皮肉を理解するようになるよ」と発言したり、ジョン・ブルとでも表現すればいいのだろうか、典型的な誇り高き少し皮肉屋のTheイギリス人って感じで面白い。
5.MultiModel
Multi-Task Machine Learning Across Domains。従来は専攻分野が異なるニューラルネットワークはそれぞれ別物として開発されていたが、MultiModelは画像と音声と言語翻訳用のニューラルネットワークを統合して1つのネットワークで扱えるようにしようと言う試み。成果の一部はTensorflowのライブラリとして提供されている。
6.Transformer(Attention)
「Attention is All You Need」と言うカッコいいタイトルの論文で発表されて論文名と共に話題になったAttentionと言う仕組みを取り入れた新しいニューラルネットワーク構造がTransformer。Attentionは主に言語認識の分野で既存の仕組みより優れた成果を出している。
7. Path Consistency Learning
略称PCL。強化学習(Reinforcement Learning)には二つの手法(Value BaseとPolicy Based)があるが、そのギャップを埋めるとして発表された強化学習の新手法。実験では既存の強化学習手法(Actor-criticやQ-learning)を凌ぐパフォーマンスを出した。
コメント