モデル LaMDA:人間より機知に富んだ会話が可能な対話モデル(2/2) 1.LaMDA:人間より機知に富んだ会話が可能な対話モデル(2/2)まとめ ・品質指標は微調整の有無にかかわらず、モデルパラメータの数とともに一般に改善する ・根拠性はモデルサイズが大きくなると向上するが外部の知識源を参照する事が可能 ・微... 2022.01.28 モデル
モデル LaMDA:人間より機知に富んだ会話が可能な対話モデル(1/2) 1.LaMDA:人間より機知に富んだ会話が可能な対話モデル(1/2)まとめ ・LaMDAは最大1370億のパラメータを持つ対話に特化したニューラル言語モデル ・微調整を行い外部の知識ソースを活用する方法をモデルを教えて品質を向上した ・品質... 2022.01.27 モデル
学習手法 StylEx:犬と猫の違いは何かを視覚的に説明する新しい手法(2/2) 1.StylEx:犬と猫の違いは何かを視覚的に説明する新しい手法(2/2)まとめ ・StylExは分類器を説明するものであり、現実世界の分類を説明するものではない ・現実世界におけるクラスラベル間の物理的な違いを特徴付けるとは限らない ・分... 2022.01.26 学習手法基礎理論
学習手法 StylEx:犬と猫の違いは何かを視覚的に説明する新しい手法(1/2) 1.StylEx:犬と猫の違いは何かを視覚的に説明する新しい手法(1/2)まとめ ・ニューラルネットワークが何に着目して画像を分類しているか特定する事は困難 ・従来手法は注目している場所や全体的な特徴はわかるが特徴が分離できていない ・St... 2022.01.25 学習手法基礎理論
モデル TaskMoE:効率的に推論を行うためにタスク別のルーティングを学習(2/2) 1.TaskMoE:効率的に推論を行うためにタスク別のルーティングを学習(2/2)まとめ ・蒸留でサイズを削減する際は教師モデルから生徒モデルを訓練する追加計算が必要 ・更にTokenMoEを蒸留しても向上したパフォーマンスを全て維持する事... 2022.01.24 モデル学習手法
モデル TaskMoE:効率的に推論を行うためにタスク別のルーティングを学習(1/2) 1.TaskMoE:効率的に推論を行うためにタスク別のルーティングを学習(1/2)まとめ ・MoEは効果的だが多くのトークンを複数のexpertsに送ると多くの計算コストがかかる ・TokenMoEはTaskMoEと異なりタスク毎にサブネッ... 2022.01.23 モデル学習手法
モデル V-MoEs:条件付き計算を使って視覚モデルの規模を拡大(2/2) 1.V-MoEs:条件付き計算を使って視覚モデルの規模を拡大(2/2)まとめ ・Batch Priority Routingにより優先度の低いトークンを捨てる事を強制 ・従来手法ではバッファ容量不足時に性能が低下するがBPRは堅牢 ・ルーテ... 2022.01.22 モデル学習手法
モデル V-MoEs:条件付き計算を使って視覚モデルの規模を拡大(1/2) 1.V-MoEs:条件付き計算を使って視覚モデルの規模を拡大(1/2)まとめ ・大規模なモデルやデータセットを使用するためには大量の計算が必要になり困難 ・計算に必要なリソースを抑える有望な手法のひとつに条件付き計算がある ・これは常にネッ... 2022.01.21 モデル学習手法
プライバシー Federated Reconstruction:部分的に端末内で連合学習を行い連合学習の規模を拡大(2/2) 1.Federated Reconstruction:部分的に端末内で連合学習を行い連合学習の規模を拡大(2/2)まとめ ・部分的端末内連合学習のための手法であるFederated Reconstructionを発表 ・Federated ... 2022.01.14 プライバシー学習手法
プライバシー Federated Reconstruction:部分的に端末内で連合学習を行い連合学習の規模を拡大(1/2) 1.Federated Reconstruction:部分的に端末内で連合学習を行い連合学習の規模を拡大(1/2)まとめ ・連合学習はユーザーがクラウドに生データを送ることなくモデルを学習することが可能 ・各ユーザーで傾向が異なっていても全... 2022.01.13 プライバシー学習手法
データセット データセット蒸留による機械学習モデルの効率的なトレーニング(2/2) 1.データセット蒸留による機械学習モデルの効率的なトレーニング(2/2)まとめ ・蒸留したデータセットは、画像分類データセットにおいて最先端の性能を達成 ・分散システムを利用してデータセットは数百のGPUを利用して作成した ・蒸留したデータ... 2022.01.12 データセット学習手法
データセット データセット蒸留による機械学習モデルの効率的なトレーニング(1/2) 1.データセット蒸留による機械学習モデルの効率的なトレーニング(1/2)まとめ ・蒸留はトレーニングを効率的に行うためのアイディアでモデルとデータセットが対象となる ・蒸留したデータセットでモデルを学習させるとメモリと計算量を減らすことがで... 2022.01.11 データセット学習手法