The Impact Lab:Googleの責任あるAI(1/2)

公平性

1.The Impact Lab:Googleの責任あるAI(1/2)まとめ

・グローバル化したテクノロジーは大規模な社会的インパクトを生み出す可能性があり、責任あるAI開発を保証するために根拠ある研究アプローチは重要
・Impact Labは歴史的に疎外されたコミュニティの声を中心に据え、研究に基づいたアプローチを提供することで根拠のない分析を行う慣習を克服する事
・EARRは、教育、法律、社会正義、AI倫理、経済発展の分野で公平性の専門家達とパートナーシップを確立したコミュニティベースの新しい研究連合

2.The Impact Labとは?

以下、ai.googleblog.comよりResponsible AI at Google Research: The Impact Labの意訳です。元記事は2023年3月16日、Jamila Smith-LoudさんとResponsible AI and Human-Centered Technology Teamによる投稿です。

AIの社会的インパクトを緩和する取り組みは絶対に必要になり、Responsible AIの取り組みはいずれ評価されると思っていますが、現状は皆が乗り遅れまいと夢中になって競走中のためビジネス優先になってしまっていると感じます。

既に皆がやっている、自分がやらなくても誰かがやる、のままではマズイとは思うのですが、産業革命がきっかけで工場法が出来て現代の労働基準法に繋がっていったように、問題が大きくなってからAI法なり、ユニバーサルベーシックインカム法なりが将来的に実現される事になるのかもしれません。しかし、それらの対策が実現されるまでは破壊的なテクノロジーが猛威を振るう予測不可能な世の中で庶民はなんとかサバイバルしなけれならないわけで、そう考えると問題があるとわかっていてもやっぱりAIを積極的に使う側に回るしかないわけで、それはそれでAIの普及の加速に繋がっていくというジレンマですね。

アイキャッチ画像は公平性のイメージをchatGPT先生に伝えて作って貰ったプロンプトを私が修正してカスタムStable Diffusion先生に作って貰ったイラスト。実は写実系の綺麗なイラストよりこういったイラストの方が難度高く、なかなかこういった効果は表現するのが難しいのでやっぱりchatGPT先生は凄いなと思います。

グローバル化したテクノロジーは、大規模な社会的インパクトを生み出す可能性があります。従来の国際的な人権・市民権基準に根ざした根拠のある研究アプローチを持つことは、責任ある倫理的なAI開発・展開を保証するために重要な要素です。

GoogleのResponsible AI Teamの一部であるImpact Labチームは、技術開発の潜在的な影響について批判的で豊かな分析を行うために、様々な学際的方法論を採用しています。このチームの使命は、AIが社会経済や人権に与える影響を調査し、基礎的な研究を発表し、機械学習(ML:Machine Learning)の実践者がグローバルな公平性を高めることができるように、新しい緩和策を育てることです。私たちは、データ分析、人権、参加型のフレームワークを用いて、スケーラブルで厳密、かつ証拠に基づく解決策を研究・開発しています。

Impact Labの目標の独自性は、学際的なアプローチと、応用研究と学術研究の両方を含む経験の多様性です。

私たちの目標は、歴史的に疎外されたコミュニティの声を中心に据えるために、レスポンシブルAIの認識論的レンズを拡大することです。そして、研究に基づいたアプローチを提供することで、インパクトに関して根拠のない分析を行う慣習を克服し、異なる視点や経験が技術開発にどのような影響を与えるべきかを理解することです。

私たちの活動

MLが加速度的に複雑化し、大規模MLと人間との結合が進む中、私たちのチームは、技術が社会に与える影響について従来の前提を批判的に検討し、この相互作用についての理解を深めています。

私たちは、社会科学や技術哲学の分野の学者と協力し、MLがどのように役立ち、有用であるかに焦点を当てた基礎的な研究を発表しています。また、1,000言語イニシアチブ、言語と生成モデルのテストと評価における継続的な作業など、私たちの組織の最も困難な取り組みのいくつかに研究サポートを提供しています。私たちの仕事は、GoogleのAI原則に重きを置いています。

そのために、私たちは以下のことを行っています:

・規模拡大可能な社会技術的解決策(socio-technical solutions)の創造を目標に、基礎的・探索的研究を行う

・MLシステムを評価するためのデータセットと研究に基づくフレームワークを作成

・AIの社会的な悪影響を定義(define)、特定(identify)、評価(assess)する

・大規模なモデル構築に使用されるデータ収集の責任ある解決策を作成

・安全性(safety)、公平性(fairness)、堅牢性(robustness)、ユーザーへの説明責任(user accountability)を確保するために、MLモデルやシステムの責任ある展開をサポートする新しい方法論とアプローチを開発

・外部コミュニティや専門家のフィードバックを経験的な洞察に変換し、ユーザーのニーズや影響をより良く理解

・公平な協力体制を探し、互恵的なパートナーシップを目指す

私たちは、野心的な研究課題に答えるために、AIの悪影響を評価するための既存の枠組みを再構築するだけでなく、この仕事の重要性をアピールすることにも努めています。

現在の研究の取り組み

社会問題の把握

厳密な分析ツールとアプローチを提供する動機は、社会技術的な影響と公平性を文化的・歴史的なニュアンスとの関連で十分に理解できるようにするためです。

これは、最も大きな負担を経験するコミュニティをよりよく理解する意欲と能力を養い、厳密で集中した分析の価値を実証する上で、非常に重要なことです。

私たちの目標は、この問題領域における外部のオピニオンリーダーと積極的に提携し、潜在的な害や影響を評価する際に既存のメンタルモデルを再構築し、ML技術において根拠のない仮定やステレオタイプに依存することを避けることです。

私たちは、スタンフォード大学、カリフォルニア大学バークレー校、エディンバラ大学、Mozilla Foundation、ミシガン大学、海軍大学院、Data & Society、EPFL、オーストラリア国立大学、マギル大学の研究者と共同研究しています。


システム的な社会問題を検証し、責任あるAI開発のために有用な成果物を生成

代表的な声ではないものを中心に考える

また、Equitable AI Research Roundtable(EARR)を発展させました。EARRは、教育、法律、社会正義、AI倫理、経済発展の分野で公平性の専門家である外部の非営利団体や研究機関のリーダーとの継続的なパートナーシップを確立するために、コミュニティベースの新しい研究連合です。

これらのパートナーシップは、他領域からの教訓を生かし、公平性をどのように中心にして理解するかという複雑な研究課題に、多分野の専門家と関わる機会を提供します。

パートナーには、PolicyLink; The Education Trust – West; Notley; Partnership on AI; Othering and Belonging Institute at UC Berkeley; The Michelson Institute for Intellectual Property, HBCU IP Futures Collaborative at Emory University; Center for Information Technology Research in the Interest of Society (CITRIS) at the Banatao Institute; and the Charles A. Dana Center at the University of Texas, Austinが含まれます。

EARRプログラムの目的は、以下の通りです。

(1)歴史的に疎外された、または代表的でないグループの経験に関する知識の中心に、
(2)テクノロジーにおける社会的危害とその類似性を研究するための潜在的アプローチを質的に理解し、特定し、
(3)AI開発への責任と安全のアプローチに関する私たちの仕事に関連して、専門知識と関連知識のレンズを拡大する。

3.The Impact Lab:Googleの責任あるAI(1/2)関連リンク

1)ai.googleblog.com
Responsible AI at Google Research: The Impact Lab

2)arxiv.org
The Equitable AI Research Roundtable (EARR): Towards Community-Based Decision Making in Responsible AI Development

タイトルとURLをコピーしました