hardware accelerator

AI関連その他

2022年のGoogleのAI研究の成果と今後の展望~MLとコンピュータシステム編~(2/3)

1.2022年のGoogleのAI研究の成果と今後の展望~MLとコンピュータシステム編~(2/3)まとめ ・最近のMLPerfのコンペでは、TPUs v4が5つのベンチマークで新記録を達成し、2位に比べて平均1.42倍の差をつけた ・プラッ...
学習手法

PRIME:過去のシミュレーションログ使ってアクセラレータを新規に設計(3/3)

1.PRIME:のシミュレーションログ使ってアクセラレータを新規に設計(3/3)まとめ ・PRIMEは複数アプリケーション対応とゼロショット対応の2つの目的で設計されている ・一部モデルではシミュレータ駆動型の方が待ち時間が短いがPRIME...
学習手法

PRIME:過去のシミュレーションログ使ってアクセラレータを新規に設計(2/3)

1.PRIME:のシミュレーションログ使ってアクセラレータを新規に設計(2/3)まとめ ・PRIMEを未知のアプリケーションに汎化させるためにレイヤー数など高レベル特徴を与えている ・PRIMEはEdgeTPUに比べて2.69倍(t-RNN...
学習手法

PRIME:過去のシミュレーションログ使ってアクセラレータを新規に設計(1/3)

1.PRIME:のシミュレーションログ使ってアクセラレータを新規に設計(1/3)まとめ ・ハードウェア設計には多くのシミュレーションが必要でMLがあっても手間がかかる作業 ・過去データを使ってモデルを学習させ、次世代のアクセラレータを設計で...
モデル

Apollo:コンピュータアーキテクチャのために機械学習を活用(1/3)

1.Apollo:コンピュータアーキテクチャのために機械学習を活用(1/3)まとめ ・最近の機械学習の進歩の要因の1つにTPUなどのカスタムアクセラレータの開発がある ・急速に進化するMLモデルに順応するためにアーキテクチャの革新を続ける必...
インフラ

EfficientNet-EdgeTPU:アクセラレータでの実行に最適化したニューラルネット(1/2)

1.EfficientNet-EdgeTPU:アクセラレータでの実行に最適化したニューラルネット(1/2)まとめ ・ハードウェアアクセラレータ上での実行に最適化したニューラルネットワークはあまり存在しない ・AutoMLで最適化したEffi...