人工知能関連用語集

基礎理論

人工知能関連用語集

言葉の正確性や厳密な定義よりわかりやすさを優先します。随時更新

2020年12月追記)固定ページ「人工知能/機械学習関連用語集」にまとめ直し予定です。

活性化関数とは?
計算結果を次層に渡す際に整形する関数。シグモイド関数、ReLU関数、ステップ関数などがある。

CNNとは?
Convolutional neural network
畳み込みニューラルネットワーク。画像認識や音声認識によく使われる人工知能の手法の1つ。従来手法で画像認識する場合、全部の画素を1列に並べて数字の羅列にしてパターンを学習する。それに対してCNNは学習用画像を2次元のまま扱うのでデータの形状を従来より捉えやすい。しかし、二次元のデータはサイズが大きくなってしまうので風呂敷を畳むように少しずつ畳み込みながら学習させる。それが畳み込みニューラルネットワーク。

MNISTとは?
人工知能の学習用に公開されている手書き数字の画像集(7万枚)。人工知能は学習用データと学習手法によって性能が決まるので、学習用データに同じ物を使えば学習手法の性能を比較しやすい。そのため、手書き文字認識用の共通データとしてMNISTが使われる事が多い。

ReLU関数とは?
活性化関数の一つ。入力された数が0以上ならばその数をそのまま出力し、0未満なら0を出力する。

SoftMax関数とは?
人工知能の最終出力は「この物体がオレンジである確率が80%、リンゴである確率が20%」のように百歩率で表現してくれると扱いやすい。SoftMax関数は人工知能の出力を百歩率に修正してくれる関数。

TPUとは?

一般的なパソコンはCPU(セントラル プロセッシング ユニット)で動いている。CMなどで「インテル入ってる」などと宣伝しているのを見た事があると思うが、アレだ。機械学習では、GPU(グラフィックス プロセッシング ユニット)を使う事が多い。CPUより並列処理が得意なため計算が早くなるからだ。

GoogleはGPUより更に機械学習に最適化されたTPU(テンソル・プロセッシング・ユニット)を作っており、その第二版が2017年5月に公開された。機械学習ではほとんど使わない小数点演算などを犠牲にするかわりに、TPUを何個積んだマシンであっても同じプログラムで動す事ができるなど、機械学習を効率化する工夫がこらされている。

WikiPediaによれば、下記性能を誇るらしい
・TPUは囲碁の人間対機械シリーズのAlphaGo対李世ドル戦で使用された
・TPUはGoogleストリートビューの写真から文章を抜き出す処理に使われており、5日以内に全世界のストリートビューの写真を処理する事ができる
・Googleフォトでは個々のTPUは1日に1億枚以上の写真を処理できる。

タイトルとURLをコピーしました