1.ICLR 2022におけるGoogleの存在感まとめ
・4/25(月) – 4/29(金)に第10回目の開催となる ICLR 2022が仮想空間で開催された
・Googleは100近い論文で強力な存在感を示し講演やワークショップも開催
・Invited Talks 2、Publications 91、Workshops 10など
2.ICLR 2022とは?
以下、ai.googleblog.comより「Google at ICLR 2022」の意訳です。元記事は2022年4月25日、Cat ArmatoさんとCallan Hajosyさんによる投稿です。
アイキャッチ画像のクレジットはICLR
第10回International Conference on Learning Representations (ICLR 2022)は今週(訳注:4/25 – 4/29なので例によって終わってます)開幕し、研究者、起業家、エンジニア、学生などが集まり、急速に発展する深層学習の分野を議論し、探求しています。ICLR 2022では、ディープラーニングの最新研究、およびコンピュータビジョン、音声認識、テキスト理解からロボット工学、計算生物学などの分野への応用を紹介するカンファレンスとワークショップが開催されます。
ICLR 2022のプラチナスポンサーであり、DEI Action Fundの寄付者でもあるGoogleは、約100の論文が採択され、組織委員会やワークショップに幅広く参加し、確固たる存在感を示す予定です。ICLR 2022 に登録された方は、ぜひ Google の講演をご覧いただき、何十億もの人々に影響を与える複雑な問題に取り組む Google の取り組みをご理解いただければと思います。ここでは、私たちが発表する研究内容や、ICLR 2022 への参加全般について詳しくご紹介します。
・・・以下、例によってとっても長いリスト
Senior Area Chairs 3
Area Chairs 63
Workflow Chairs 1
Diversity Equity & Inclusion Chairs 1
Invited Talks 2
Publications 91
Workshops 10
以下がICLR 2021で発表されて概要が翻訳済のものです。
(1)Fine-Tuned Language Models Are Zero-Shot Learners
Introducing FLAN: More generalizable Language Models with Instruction Fine-Tuning
(2)Wisdom of Committees: An Overlooked Approach To Faster and More Accurate Models
Model Ensembles Are Faster Than You Think
(3)Data-Driven Offline Optimization for Architecting Hardware Accelerators
Offline Optimization for Architecting Hardware Accelerators
(4)SimVLM: Simple Visual Language Model Pretraining with Weak Supervision
SimVLM: Simple Visual Language Model Pre-training with Weak Supervision
(5)Pix2seq: A Language Modeling Framework for Object Detection
Pix2Seq: A New Language Interface for Object Detection
(6)Value Function Spaces: Skill-Centric State Abstractions for Long-Horizon Reasoning
Extracting Skill-Centric State Abstractions from Value Functions
3.ICLR 2022におけるGoogleの存在感関連リンク
1)ai.googleblog.com
Google at ICLR 2022
2)iclr.cc
ICLR | 2022