on-device

学習手法

MobileNetV3:次世代のオンデバイス視覚モデル(2/3)

1.MobileNetV3:次世代のオンデバイス視覚モデル(2/3)まとめ ・MobileNetV3の探索スペースはh-swishとsqueeze-and-excitationで改良が施されている ・ネットワークの最後に新しい効率的な〆(l...
モデル

MobileNetV3:次世代のオンデバイス視覚モデル(1/3)

1.MobileNetV3:次世代のオンデバイス視覚モデル(1/3)まとめ ・スマートフォンなどのデバイス上で実行される事が前提のニューラルネットワークMobileNetV3の発表 ・オンデバイスでの実行に最適化されているがMobileNe...
その他の分野

Live Caption:オンデバイスで音声コンテンツに字幕を付与(2/2)

1.Live Caption:オンデバイスで音声コンテンツに字幕を付与(2/2)まとめ ・Live Captionを長時間駆動させる事を可能にするために様々な工夫が行われている ・例えばASR用のRNN-Tエンジンは電力消費が激しいので発話...
学習手法

Live Caption:オンデバイスで音声コンテンツに字幕を付与(1/2)

1.Live Caption:オンデバイスで音声コンテンツに字幕を付与(1/2)まとめ ・音声コンテンツに字幕を付ける新しいAndroidの機能、Live Captionが発表された ・現在Pixel 4およびPixel 4 XLで利用可能...
モデル

MediaPipeを利用してオンデバイスでリアルタイムに手の動きを知覚(2/2)

1.MediaPipeを利用してオンデバイスでリアルタイムに手の動きを知覚(2/2)まとめ ・手の形状を認識するランドマークモデルは手動でラベル付けされたデータに加えて合成画像も使用 ・純粋な合成画像では一般化性能が低下するため混合トレーニ...
モデル

MediaPipeを利用してオンデバイスでリアルタイムに手の動きを知覚(1/2)

1.MediaPipeを利用してオンデバイスでリアルタイムに手の動きを知覚(1/2)まとめ ・手は形状が自由に変化したり他の手と組み合わされる事もありリアルタイムな検知が難しい ・MediaPipeと言う様々な手法の知覚データを処理可能な機...
その他の分野

Pixel3のPlaygroundとGoogle Lensで世界を違う側面から見る(2/2)

1.Pixel3のPlaygroundとGoogle Lensで世界を違う側面から見る(2/2)まとめ ・Google LensはPixel 3のカメラとより深く統合された ・カメラに映った電話番号やURL、住所を認識し、関連アプリケーショ...
モデル

RNN-T:全てをニューラルネットワークで実装したオンデバイス音声認識の実現(2/2)

1.RNN-T:全てをニューラルネットワークで実装したオンデバイス音声認識の実現(2/2)まとめ ・RNN-Tモデルは従来モデルに比べて1/5のサイズ圧縮に成功 ・更にTensorFlow Liteのモデル最適化ツールキットで1/4にサイズ...
モデル

RNN-T:全てをニューラルネットワークで実装したオンデバイス音声認識の実現(1/2)

1.RNN-T:全てをニューラルネットワークで実装したオンデバイス音声認識の実現(1/2)まとめ ・スマホで実行可能ニューラルネットワークベースの音声認識が発表 ・音声をクラウドに送って認識する従来型システムより応答が早い ・コネクショニス...
モデル

オンデバイスでディープラーニングを学習させる手法

1.オンデバイスでディープラーニングを学習させる手法まとめ ・オンデバイスでディープラーニングを学習させる事は簡単ではない ・大企業のチームは既にそれを行って製品化しているので可能ではある ・FWを使って構築したモデルをFW外で扱う工夫が必...
学習手法

Googleの次世代音楽検索への挑戦

1.Googleの次世代音楽検索への挑戦まとめ ・Pixel 2の音楽検索機能Now PlayingをスケールアップしたSound Searchの技術の紹介 ・Sound SearchはAndroid端末にGoogle Assistantを...
モデル

オンデバイス用に機械学習モデルを圧縮するLearn2Compress

1.オンデバイス用に機械学習モデルを圧縮するLearn2Compressまとめ ・既存の学習済みモデルをスマホ用に圧縮してくれるLearn2Compressが発表 ・予測精度は少し下がるが、サイズ、実行速度、消費電力を大幅に改良 ・近日中に...