LIT:自然言語モデルを対話的に調査して理解を深める解釈性ツール(1/2)

AI

1.LIT:自然言語モデルを対話的に調査して理解を深める解釈性ツール(1/2)まとめ

・自然言語処理モデルが様々な場面で使われるようになりその動作を理解する重要性が増加
・以前のWhat-Ifツールは分類と回帰モデル用で自然言語処理に特化したツールではない
・NLPモデルを理解するためのツールとしてLITを開発し、オープンソースとして公開

2.LITとは?

以下、ai.googleblog.comより「The Language Interpretability Tool (LIT): Interactive Exploration and Analysis of NLP Models」の意訳です。元記事の投稿は2020年11月20日、James WexlerさんとIan Tenneyさんによる投稿です。

Litはlightの過去形/過去分詞なので、点灯の意味から連想したアイキャッチ画像のクレジットはPhoto by Fernando @cferdo on Unsplash

自然言語処理(NLP:natural language processing)モデルがより強力になり、より現実的な場面で展開されるようになるにつれて、それらの動作を理解することがますます重要になっています。

モデリングの進歩により、多くのNLPタスクで前例のないパフォーマンスがもたらされましたが、ドメインシフトや敵対的な設定でのこれらのモデルの動作だけでなく、社会的偏見や浅い経験則(訳注:shallow heuristics、IT業界で言えば「困ったら再起動」等の状況や場面を変えて応用が出来るほど理解が深まっていない知識。shallow heuristicに付与したラベルを使って学習させると一般化に悪影響を及ぼすとの研究がある)に従って動作する傾向についても、多くの研究課題が残っています。

どのような新しいモデルでも、モデルのパフォーマンスが低い場合、モデルが特定の予測を行う理由、またはテキストの形式や代名詞の性別の変更など、様々な入力条件の下でモデルが一貫して動作するかどうかを知りたい場合があります。

しかし、モデルの理解と評価に関する最近の研究の急増にもかかわらず、分析のための「特効薬」はありません。多くの場合、機械学習の実践者は、モデルの動作をよりよく理解するために、局所的な解釈(local explanations)、測定基準、および入力の反事実的バリエーション(counterfactual variations)を調べて、多くの手法を試す必要があります。これらの手法にはそれぞれ、独自のソフトウェアパッケージまたは特注のツールが必要です。

以前にリリースされたWhat-Ifツールは、分類モデルと回帰モデルのブラックボックス内の探査を可能にする事でこの課題に対処するように構築されました。

研究者は相互作用と視覚化を通じてパフォーマンスをより簡単にデバッグし、機械学習モデルの公平性を分析できます。しかし、NLPモデルに固有の課題に対処するツールキットは依然として必要です。

これがあれば、研究者は、対話的に視覚化を通じて、パフォーマンスをより簡単にデバッグし、機械学習モデルの公平性を分析できます。

これらの課題を念頭に置いて、NLPモデルを理解するためのインタラクティブなプラットフォームであるLanguage Interpretability Tool(LIT)を構築し、オープンソース化しました。 LITは、What-Ifツールから学んだ教訓に基づいて構築されており、大幅に拡張された機能を備えています。

シーケンス生成、スパンラベリング(訳注:単語単位でなく一定範囲(span)の文章にラベルを付与する事)、分類、回帰などの幅広いNLPタスクに加えて、カスタマイズ可能で拡張可能な視覚化とモデル分析をカバーします。

LITは局所的な解釈をサポートしています。顕著性マップ(salience maps)、Attention、およびモデル予測の豊富な視覚化を含みます。また、測定基準、embedding空間、柔軟な分割などの集計分析も含まれます。

これにより、ユーザーは視覚化を簡単に切り替えて、局所的な仮説をテストし、データセット上で検証することができます。

LITは、反事実的生成のサポートも提供します。新しいデータポイントをその場で追加し、モデルへの影響を即座に視覚化できます。並べて比較する事により、2つのモデルまたは2つの個別のデータポイントを同時に視覚化できます。

LITの詳細については、EMNLP2020で発表された論文「The Language Interpretability Tool: Extensible, Interactive Visualizations and Analysis for NLP Models」を参照してください。


LITを使用した感情分類器の調査

カスタマイズ性
私達は、様々な関心や優先順位を持つ幅広いユーザーがLITを使用して適切に対応出来る事を望んでいます。

当初より、簡単にカスタマイズおよび拡張できるツールとして構築しました。特定のNLPモデルとデータセットでLITを使用するには、Pythonコードを少し書くだけで済みます。

タスク固有の測定基準計算や反事実ジェネレーターなどのカスタムコンポーネントは、Pythonで記述し、提供されているAPIを介してLITに追加して実行できます。

また、UIに直接統合される新しいモジュールを使用して、フロントエンド自体をカスタマイズできます。ツールの拡張の詳細については、GitHubのドキュメントをご覧ください。

3.LIT:自然言語モデルを対話的に調査して理解を深める解釈性ツール(1/2)関連リンク

1)ai.googleblog.com
The Language Interpretability Tool (LIT): Interactive Exploration and Analysis of NLP Models

2)github.com
PAIR-code / lit

3)pair-code.github.io
Language Interpretability Tool

4)arxiv.org
The Language Interpretability Tool: Extensible, Interactive Visualizations and Analysis for NLP Models

コメント

タイトルとURLをコピーしました