Explainable AI:説明可能なAI(2/3)

入門/解説

1.Explainable AI:説明可能なAI(2/3)まとめ

・説明可能なAIを実現するためにはデータとモデルとユーザを理解する事が必要になる
・「説明可能性に関する機能」は、主要部分の設計段階でAIモデル/システムに組み込む必要がある
・Google CloudはxAIをプロダクトに組み込んで他のクラウドサービスとの差別化を図っている

2.xAIとGCP

以下、towardsdatascience.comより「Google’s new ‘Explainable AI” (xAI) service」の意訳です。元記事の投稿は2019年11月25日、Tirthajyoti Sarkarさんによる投稿です。アイキャッチ画像のクレジットはPhoto by Rob Schreckhise on Unsplash

いくつかの手法が提案されています。

1)データをよりよく理解する
識別時に使われる特徴表現を人間が直感的に理解できるように視覚化する

2)モデルをよりよく理解する
ニューラルネットの各層がどのように活性化しているかを視覚化する

3)ユーザーの心理と行動をよりよく理解する
統計的学習(statistical learning)とともにシステムに行動モデルを組み込み、その過程で適切なデータに関する説明を生成し、統合する

DARPA(訳注:アメリカ国防高等研究計画局)でさえ、将来のAI/ML駆動の防衛システム向けにこれらのXAIの原則とアルゴリズムを構築および設計するための計画を開始しました。

目標とする「説明可能性に関する機能」は、主要部分の設計段階でAIモデル/システムに組み込む必要があります。本概念の徹底的な議論については、「Should AI explain itself? or should we design Explainable AI so that it doesn’t have to」をお読みください。

Google CloudはxAIをリードしたいと考えています。GoogleはAIとMLに関して才能を持つ人々を惹きつけるリーダーであり、現在の世界のITテクノロジーベース経済においては議論の余地のない巨人です。ただし、クラウドサービスの売上規模ではAmazonやMicrosoftのクラウドサービスに比べて3分の1に留まっています。

ただし、従来の「サービスとしてインフラストラクチャを提供する戦い」は大勢が決定していますが、AIやMLなどの新しい技術は、挑戦すべき、新しいテーマ、戦略、手法を新たなフィールドとして提供します。

これらの考え方に基づいて、今週ロンドンで開催されたイベントで、Googleのクラウドコンピューティング部門は、MicrosoftとAmazonに対する優位性を提供できる新しい追加機能を提案しました。

有名なAI研究者であるAndrew Moore教授が、ロンドンでこのサービスを紹介し、説明しています。

Google公式ブログより引用「説明可能なAIは、解釈可能な包括的な機械学習モデルを開発し、自信を持って展開するために役立つツールとフレームワークのセットです。これにより、AutoML TablesやAIプラットフォームの特徴や属性を理解し、What-If Toolを使用してモデルの動作を視覚的に調査する事ができます。」

当初の控えめな目標
当初の目標と到達点はかなり控えめに設定されています。このサービスは、顔検出モデルと物体検出モデルのパフォーマンスと潜在的な欠点に関する情報を提供します。ただし、GCPは、AIシステムの内部の動作を神秘的ではなく、誰にとっても信頼できるものにするために、時間とともに、より多くの洞察と視覚化を提供したいと考えています。

AIやMLなどの新しいテクノロジーは、クラウドサービスを提供するプレーヤーに新しいテーマ、戦略、およびアプローチを提供します。Andrew Moore教授は、Googleの最高の頭脳でさえAIシステムの説明可能性の問題で苦労していることを受け入れ、率直に述べました。

私達Googleを夢中にさせるものの1つは、非常に正確な機械学習モデルを構築することです。しかし、「機械学習がこれを行ったのは何故なのか?」を理解する必要があります。

そのため、スマートフォン用、検索ランキングシステム用、または質問回答システム用に構築した大規模システムで、内部で何が起こなわれているのかを理解するために一生懸命働いてきました。

Googleはユーザーに機械学習の動作に関する説明をもっと詳しく提供したいと考えており、アイディアの1つは、いわゆるモデルカード(model card)と呼ばれているものを使用することです。

Googleは、シナリオ分析のための仮説分析ツールも提供しています。彼らは、このシナリオ分析フレームワークと新しい説明可能性ツールを組み合わせることをユーザーに奨励しています。「pairプロジェクトのWhat-If toolを組み合わせて、モデルの動作の全体像を把握できます」と、Google Cloudの戦略ディレクターであるTracy Frey氏は述べています。

そして、今のところ、これは無料で使える追加機能です。説明可能なAIツールは、AutoML tableまたはAI関連機能を利用しているプラットフォームのユーザーに追加料金なしで提供されます。

3.explainable AI:説明可能なAI(2/3)関連リンク

1)towardsdatascience.com
Google’s new ‘Explainable AI” (xAI) service
Should AI explain itself? or should we design Explainable AI so that it doesn’t have to

2)storage.googleapis.com
AI Explainability Whitepaper(PDF)

コメント

タイトルとURLをコピーしました