AI開発に関するGoogleの原則

  • 2018.06.14
  • AI
AI開発に関するGoogleの原則

1. AI開発に関するGoogleの原則まとめ

・GoogleのCEOのサンダー・ピチャイ氏が今後GoogleがどのようにAIに取り組むか7原則を発表
・先日、Googleがアメリカ軍に密かに協力していると報道があり社内に動揺が発生していた
・人々を直接的に傷つける技術は開発しないが政府や軍との協力関係は続けるとの事

2.AI at Google: our principles

AIの本質は、AIは学び適応するコンピュータープログラミングであると言う事です。AIは全ての問題を解決する事はできませんが、私達の人生を改善するポテンシャルは計り知れません。GoogleはAIを使用して、電子メールからスパムを排除し簡単に返信できるようにしました。更に、自然に会話できるでデジタルアシスタントや写真をより楽しくシェアしやすくする、より便利な製品をつくっています。

Googleの製品を超えて、人々は緊急の問題に取り組むためにAIを使用しています。一組の生徒が山火事の危険性を予測するためのAI搭載センサーを構築しています。酪農家は牛の健康状態を監視するためにAIを使用しています。医師は、癌の診断と失明の予防にAIを使用し始めています。これらの明確なメリットは、GoogleがAI研究開発に多額の投資をして、ツールやソースコードを公開する事を通じてAI技術を他の人々が広く利用できるようにしている理由です。

Googleは、このような強力な技術がどのように使われるのか強力な疑念を抱かせることを認識しています。AIがどのように開発され使用されるかは、今後数年間社会に大きな影響を与えます。AI技術のリーダーとして、Googleはこの世界を変える権利を得る事に深い責任を感じています。そこで、本日、私たちは、私たちの仕事を進歩させるにあたって7つの原則を発表します。これらは理論的な概念ではありません。当社の研究開発および製品開発を積極的に支配し、当社の事業判断に影響を与える具体的な基準です。

私たちは、この分野はダイナミックかつ進化していると認識しています。私たちの7原則を謙虚に、社内的にも社外的にも約束とし、時間をかけて学びながら適応に取り組んでいきます

AIアプリケーションの目的

Googleは以下の7つの目的を考慮してAIアプリケーションを評価します。

1.Be socially beneficial.
(社会的に有益であるか?)

新しい技術はますます社会全体に影響するようになっています。AIの進歩は、ヘルスケア、セキュリティ、エネルギー、輸送、製造、エンターテイメントなど、幅広い分野で変革をもたらすでしょう。潜在的なAI技術の開発と使用を検討する際には、幅広い社会的・経済的要因を考慮し、予測可能なリスクや欠点を大幅に上回る可能性があると判断した場合は進めます。

AIはまた、私達の物事を認識する能力を段階的に強化します。私たちは、私たちが事業を行っている国の文化的、社会的、法的規範を尊重しながら、AIを使用して高品質かつ正確な情報を容易に入手できるよう努めます。そして私たちは、私たちの技術をいつ非商業ベースで利用できるようにするかを慎重に評価していきます。

2. Avoid creating or reinforcing unfair bias.
(不公平なバイアスを作成したり強化しない)

AIアルゴリズムとデータセットは、不公平な偏見を反映、強化、または低減することができます。Googleは、公平と偏見の区別が必ずしも単純ではなく、文化や社会によって異なることを認識しています。人、特に人種、民族、性別、国籍、所得、性的指向、能力、政治的または宗教的信念などの敏感な特性に関連する人々への不当な影響を避けるよう努めます。

3.Be built and tested for safety.
(安全第一で作成し、試験する)

我々は、人を害する意図しない結果を避けるために、安全とセキュリティ対策を第一の慣行としてAI開発を継続します。GoogleはAIシステムを適切に慎重に設計し、AIを安全に研究する最適な手法に従ってAIを開発します。必要に応じて制約された環境でAI製品をテストし、開発後の動作を監視します。

4.Be accountable to people.
(人々に説明責任を持つこと)

Googleは、Googleが開発したAIがフィードバック、説明、および訴求のための適切な機会を提供するようにAIシステムを設計します。私たちのAI技術は、人間による方向性の決定と制御を適切に受けます。

5. Incorporate privacy design principles.
(プライバシーの設計原則を組み込む)

GoogleはAI技術の開発と使用にGoogleのプライバシー原則を取り入れます。Googleは、ユーザに通知と同意を求め、プライバシーの保護手段を備えた設計を奨励し、データの使用について適切な透明性とコントロールを提供します。

6. Uphold high standards of scientific excellence.
(科学的に卓越した高い基準を保持する)

技術革新は、科学的方法、オープンな調査、知的厳密性、完全性、およびコラボレーション等に関するコミットメントに根ざしています。

人工知能ツールは、生物学、化学、医学、環境科学などの重要な分野における科学的研究と知識の新しい領域を開拓する可能性を秘めています。私たちはAI開発を進めていく中で、科学的卓越性の高い基準を保持する事を目指しています。

Googleは、科学的に厳格で多様なアプローチを用いて、この分野での思慮深いリーダーシップを促進するために様々な関係者と協力します。また、より多くの人々が有用なAIアプリケーションを開発できるようにする教材、実例、研究を出版することにより、AI関連知識を責任ある形で共有します。

7. Be made available for uses that accord with these principles.
(これらの原則に合致する用途に利用できるようにする)

多くの技術は複数の用途を持っています。潜在的に有害なアプリケーションや濫用に繋がるアプリケーションを制限するよう努めます。 AIテクノロジを開発して展開する際には、以下の要素を考慮して、使用可能性を評価します。

主な目的と用途:
そのアプリケーションがもたらすソリューションが有害な使用にどれほど密接に関連しているか、それにどれくらい近いかを含む、テクノロジーとアプリケーションの主目的と可能性のある用途

自然と独自性:
ユニークでより一般的に利用可能な技術を提供しているかどうか

スケール:
この技術の使用が大きな影響を与えるかどうか

Googleの関与の本質:
汎用ツールの提供、顧客向けツールの統合、カスタムソリューションの開発

我々が追求しないAIアプリケーション
上記の目的に加えて、以下のアプリケーション分野ではAIを設計または展開しません。

全体的な害を引き起こす、または引き起こす可能性が高い技術。重大な有害リスクがある場合、Googleは利益が実質的にリスクを上回っていると考えられるところでのみ進め、適切な安全上の制約を組み込む。

人々を直接的に傷つける、または傷つけることを主目的とした武器またはその他の技術。

国際的に認められた規範に違反する監視情報を収集または使用する技術。

国際法と人権に関する広く受け入れられている原則に反する目的を持つ技術。

Googleは、武器使用のためのAIを開発していませんが、他の多くの分野において、政府と軍との協力を継続することを明確にしておきます。これには、サイバーセキュリティ、訓練、軍の募集、退役軍人の医療、捜索救助などが含まれます。これらのコラボレーションは重要であり、我々は積極的にこれらの組織の重要な作業を強化するためのより多くの方法を探し、従事者と市民を安全に保ちます。

長期視点でのAI

これがGoogleが選んだAI開発原則ですが、これには多くの議論の余地があることはわかっています。 AI技術が進歩するにつれて、我々は科学的に厳密で多様なアプローチを用いて、この分野での思慮深いリーダーシップを促進するために様々なステークホルダーと協力します。そして、AIの技術や実践を改善するためにGoogleが学んだことを引き続きコミュニティと共有します。

私たちは、これらの原則が当社の適切な基盤であり、将来のAIの発展であると考えています。このアプローチは、2004年に創設された創業者の手紙と一致しています。短期的なトレードオフを意味する場合でも、長期的な視点をとる意思を明確にしました。

我々はそれを言いました、そして今我々はそれを信じます。

3. AI開発に関するGoogleの原則感想

GoogleのCEO、サンダーピチャイ氏のAI開発に関するコミットメントです。Googleがアメリカ軍に密かに協力していたと報道され、社内が動揺しているのでそれを抑えるためでもあると思うのですが、先日ご紹介した総務省のAI開発ガイドラインと比べてもより具体的で実務的に感じます。

とは言っても、例えば空爆任務だったら人がやるよりAIが操作する無人機の方が誤爆を減らせるし人的被害も少ないし、おそらくはコストも安く済むでしょう。「アメリカ市民の安全のために必要だ!」と言われたらどうするか?そもそも「敵」や「テロリスト」とは何か等々、原則があっても守っていくのは大変とは思います。

まぁ、化学兵器や対人地雷のように「人工知能を使った兵器は非人道的なので使うはの止めましょう」と国際合意が形成されるのが良いのかもしれませんが、「我々の人工知能兵器は他国より優れている」と思っている国がある限り、それは困難でしょう。そう考えると現在Googleが推進しているとオープンな開発は「誰でも作れる」=「比較優位がない」=「やったらやり返される」なので長期的に見ると合意形成にも役立つのかもしれません。

4. AI開発に関するGoogleの原則関連リンク

1)blog.google
AI at Google: our principles