Explainable AI:説明可能なAI(1/3)

入門/解説

1.Explainable AI:説明可能なAI(1/3)まとめ

・グローバルなAI経済は2022年までに約1.2兆ドルから約3.9兆ドルに増加すると予想されている
・このように広く使われるようになったAIだが根拠を説明できないという問題を抱えている
・説明可能なAI(xAI)とは予測だけでなくその理由についての説明もモデルに出力して貰おうとする考え

2.xAIとは?

以下、towardsdatascience.comより「Google’s new ‘Explainable AI” (xAI) service」の意訳です。元記事の投稿は2019年11月25日、Tirthajyoti Sarkarさんによる投稿です。
AIは内部的にどういう原理で動いているのか良くわかっていない部分がまだあります。そのため、特に人間の意思決定を助けるような使われ方が想定される場面ではAIが判断を下した理由を説明出来る事が大切であり、例えば「AIが貴方が85%の可能性で盲腸だと言っていますので手術しましょう」と言われて、それだけの情報で手術に納得する人はおそらく少数派です。

そのため、AIがどんな事に着目してその結論を下したのかをわかるようにして行きましょう、というシンプルな話なので、特に反論が出るような事ではなさそうですが、実は必ずしも全ての人が諸手を上げて賛成しているわけではないと言う意外に深いお話です。

アイキャッチ画像のクレジットはPhoto by Rob Schreckhise on Unsplash

AIは根拠を説明できないという問題を抱えています

人工知能は、グローバルな生産性、労働パターン、ライフスタイルを変革し、莫大な富を生み出すと言われています。調査会社のガートナーは、グローバルなAI経済は2022年までに約1.2兆ドルから約3.9兆ドルに増加すると予想していますが、マッキンゼーは2030年までに約13兆ドル規模の世界的な経済活動となると予想しています。

AIテクノロジー、特にディープラーニングモデルは、画像分類、物体検出、物体追跡、ポーズ認識、ビデオ分析、合成画像の生成など、様々な使われ方で驚異的なパフォーマンスを達成し、ビジネス界とテクノロジー界に革命をもたらしています。

いくつか例を挙げてみましょう。ヘルスケア、ITサービス、金融、製造、自動運転、ビデオゲームプレイ、科学的発見、さらには刑事司法制度まです。

ただし、これらは古典的な機械学習(ML)アルゴリズム/手法とは異なります。ディープラーニングモデルは数百万のパラメーターを使用し、与えられた画像またはデータセットから、非常に高度で複雑な非線形な内部表現を作成し、この内部表現を使って作業を実行します。

それゆえ、ディープラーニングモデルは完全ブラックボックス機械学習テクニック(perfect black-box ML techniques)と呼ばれることがよくあります。大きなデータセットでトレーニングした後、ディープラーニングモデルは非常に正確な予測を行う事ができますが、特定の画像を分類するためにモデルが使用した内部表現を人間が理解する望みはほとんどありません。

Googleはこの問題に取り組むための新しいサービスを開始しました。疑いもなく、Google(またはその親会社Alphabet)は、ビジネスアナリストやエコノミストが予測するように、巨大なAI経済が適切に発展するか否かに大きな影響を受けます。

Googleは、2017年に公式の戦略ポリシーを「AI-first」に設定した事でも有名です。業界を先導していくプレッシャーを感じているかもしれません。Googleは、「説明可能なAI(xAI:eXplainable AI)」をサービスとして提供する事で、得体の知れない技術と思われがちなAIの神秘性を低下させ、一般人がAIをより馴染みやすく感じられるようにしようとしています。

説明可能なAI(xAI)とは何でしょう?

概念は、名前が示すように単純です。 予測だけでなく、予測がそのようになった理由についての説明もモデルに出力してもらいたいのです。

しかし、なぜそれが必要なのでしょうか?

この記事では、いくつかの重要なポイントについて説明します。

AIシステムが説明可能性を提供する主な理由は次のとおりです。

・人間がAIの出力を解釈可能になるように改善する
・機械が行った決定の正当性を判断する
・説明出来る決定を支援するため。これは優れた施策決定に繋がります。
・差別を避ける
・社会的偏見を減らす

まだ多くの議論がありますが、機械が予測を出力した後に後付けで正当化する事は正しいアプローチではないという合意が形成されつつあります。説明可能性の目標は、コア設計段階でAIモデル/システムに組み込まれ、オマケではなくシステムが満たすべき要件としての不可欠な部分である必要があります。

3.explainable AI:説明可能なAI(1/3)関連リンク

1)towardsdatascience.com
Google’s new ‘Explainable AI” (xAI) service

 

 

 

 

コメント

タイトルとURLをコピーしました