dahara1

プライバシー

FedJAX:連合学習のシミュレーションをJAXで容易に実行(1/2)

1.FedJAX:連合学習のシミュレーションをJAXで容易に実行(1/2)まとめ ・連合学習を使用するとデータをスマホからクラウドに送信せずともモデルトレーニングが可能 ・連合学習を研究する際の使いやすさを重視したJAXベースのFedJAX...
基礎理論

道路網を効率的に分割して最短経路探索を高速化(2/2)

1.道路網を効率的に分割して最短経路探索を高速化(2/2)まとめ ・最初に緊密に接続されたノード同士をグループ化してグラフを小さくする ・これを実現するためにランダムウォークを使用して閉じた領域を捜している ・閉じた領域群をグループ化してシ...
基礎理論

道路網を効率的に分割して最短経路探索を高速化(1/2)

1.道路網を効率的に分割して最短経路探索を高速化(1/2)まとめ ・古典的なアルゴリズムは現在も大規模問題の解決に役立つことが良くある ・ランダムウォークを使用して北米大陸の道路網全体を高品質に分割できた ・同様の出力品質を持つ他の分割アル...
学習手法

PSM:行動の類似性に着目して強化学習の一般化性能を改善(2/2)

1.PSM:行動の類似性に着目して強化学習の一般化性能を改善(2/2)まとめ ・本研究は効果的な特徴表現を学習するために強化学習で固有構造を活用する利点を示した ・ポリシー類似性指標(PSM)と対照指標埋め込み(CME)の提唱によって強化学...
学習手法

PSM:行動の類似性に着目して強化学習の一般化性能を改善(1/2)

1.PSM:行動の類似性に着目して強化学習の一般化性能を改善(1/2)まとめ ・強化学習は意味的に同等なタスク間であっても新タスクへの応用が困難 ・障害物を飛び越えるタスクでは初見の場所に設置された障害物に苦労する ・タスク間で類似している...
モデル

Translatotron 2:音声間直接翻訳アプローチの品質を更に改良(2/2)

1.Translatotron 2:音声間直接翻訳アプローチの品質を更に改良(2/2)まとめ ・翻訳前後で話者の声を保持するために同じ話者の声を使用してS2STモデルをトレーニングする ・多数のバイリンガルに協力して貰うのは難しいのでPnG...
モデル

Translatotron 2:音声間直接翻訳アプローチの品質を更に改良(1/2)

1.Translatotron 2:音声間直接翻訳アプローチの品質を更に改良(1/2)まとめ ・音声間翻訳システムは通常、音声認識や機械翻訳、音声合成を順番に適用して実現 ・2019年には2言語間で翻訳元音声を翻訳先音声に直接翻訳できるTr...
モデル

Pathdreamer:馴染のない建物内で何処に何がありそうか予測するAI(2/2)

1.Pathdreamer:馴染のない建物内で何処に何がありそうか予測するAI(2/2)まとめ ・Pathdreamerはベースラインと比較して成功率を10%高くする事ができる ・現実世界を実際に移動するエージェントより成功率は低いが時間と...
モデル

Pathdreamer:馴染のない建物内で何処に何がありそうか予測するAI(1/2)

1.Pathdreamer:馴染のない建物内で何処に何がありそうか予測するAI(1/2)まとめ ・人はなじみのない建物内でも視覚的な手がかりを利用して効率的に移動できる ・この機能をAIで実現するためには「視覚的な世界モデル」の実装が必要と...
データセット

WIT:ウィキペディアベースの画像-テキストデータセット(2/2)

1.WIT:ウィキペディアベースの画像-テキストデータセット(2/2)まとめ ・WITは108言語のデータを備えた、初の大規模多言語マルチモーダルデータセット ・WITは文脈情報を提供する初のデータセットで文脈の影響をモデル化するのに役立つ...
データセット

WIT:ウィキペディアベースの画像-テキストデータセット(1/2)

1.WIT:ウィキペディアベースの画像-テキストデータセット(1/2)まとめ ・テキストにも視覚にも対応できるマルチモーダルなモデルは豊富なデータを必要とする ・既存のデータセットは質と量の両立が出来ておらず英語以外の言語への対応も不足 ・...
モデル

CoAtNets:畳み込みと自己注意の利点を備えたハイブリッドモデル(2/2)

1.CoAtNets:畳み込みと自己注意の利点を備えたハイブリッドモデル(2/2)まとめ ・CNNよりTransformerモデルの方が大規模データセットに対応する能力が高い ・CoAtNetsは畳み込みと自己注意を組み合わせたハイブリッド...