GPT-2:より良い言語モデルとそれが暗示する事(3/3)

  • 2019.02.22
  • AI
GPT-2:より良い言語モデルとそれが暗示する事(3/3)

1.GPT-2:より良い言語モデルとそれが暗示する事(3/3)まとめ

・GPT-2のような大規模な言語モデルは良い事に使う事もできるが悪用する事も出来る
・画像や音声、動画も簡単に偽造出来る現在では予想外の悪用方法があるかもしれない
・従来のようにオープンに研究成果を発表する伝統は変わっていく事になるかもしれない

2.GPT-2のような大規模言語モデルが世の中に与えるインパクト

以下、blog.openai.comより「Better Language Models and Their Implications」の意訳です。元記事は2019年2月14日、ALEC RADFORDさん、JEFF WUさん、DARIO AMODEIさん、DANIELA AMODEIさん、JACK CLARKさん、MILES BRUNDAGEさんとILYA SUTSKEVERさんによる投稿です。数日前からAI関連ニュースとしてかなり話題になっているGPT-2を開発元であるOpenAIが紹介した記事です。中編はこちら

GPT-2が世の中に与える影響
大規模で一般的な言語モデルは、大きな社会的影響を与える可能性があり、また多くの短絡的なアプリケーションの開発に繋がる可能性があります。GPT-2のようなシステムを使用すると以下のようなシステムを作成できることが予想されます。

・AIによる執筆アシスタント
・チャットボットなどのより有能な対話型エージェント
・言語間の翻訳を教師なし学習で実現
・より優れた音声認識システム

以下のような(もしくは、私たちがまだ予想できないような)腹黒い目的のためのこれらのモデルを使用する事も想像できます。

・誤解を招くようなニュース記事を作成する
・他人になりすます
・ソーシャルメディアに投稿するために不正なもしくは偽造したコンテンツの制作を自動化する
・スパム/フィッシング詐欺用のコンテンツの制作を自動化する

これらの所見は、合成画像、合成音声、および合成ビデオに関する昨今の結果と相まって、偽造コンテンツの生成や偽造情報の拡散に関するコストがテクノロジによって大きく削減されていることを示唆しています。

一般の人々は、ビデオのコラージュを簡単に作る事ができる「deep fakes」がビデオに関してより懐疑的な態度を取る事を要求したのと同様に、インターネットで見つけた文章にもっと懐疑的になる必要があるでしょう。

今日では、悪意ある人や団体(その一部は政治的なものです)はすでにオンラインの共有コミュニティを標的にし始めています。自動化ツール、偽アカウント、工作専任チームが、人を憎むように仕向けたり意見を表明する人を激しく非難をする事によって発言を躊躇わせたり、話を聞く事や信じる事を困難にさせるために使用されているのです。

私達は、画像、ビデオ、オーディオ、テキストを意のままに生成する技術に関する研究が、これらを組み合わせてまだ予期されていない新しい悪用に繋がる可能性を熟考し、より良い技術的および非技術的な対抗策を生み出すよう努めるべきです。更に、これらのシステムの実現に繋がった技術革新は、人工知能研究の中核をなす技術であるため、AI全体の進歩を遅らせることなしにこれらの生成技術の研究を制御することは不可能です。

リリース戦略
GPT-2のような大規模な言語モデルが詐欺や、偏見の冗長、または不正利用を目的とした文章を大量生成する事に使われる懸念のために、私達はサンプルコードと共にGPT-2の規模を縮小したバージョンをリリースするだけに留めます。私達は、学習に使ったデータセット、トレーニング用コード、または学習済みGPT-2モデルは公開していません。

約1年前、私たちはOpenAI憲章で次のように宣言しました。「セキュリティ、および安全性に関する懸念が、近い将来、私達が伝統的に行ってきたな研究結果のオープンな発表を減らすことになる一方で、安全性、ポリシー、および規格に関する研究を共有することの重要性が増すと私たちは予想します。」そして私達は、この今回の研究結果がこのような潜在的懸念を表面化させたと考えています。

この決定は、それに関する私たちの議論と同様に実験です。私たちは、これが正しい決定であるかどうか今日時点ではわかりませんが、AIコミュニティが、最終的に特定の研究分野において、研究結果をどのように発表すべきかの出版規範の問題に慎重に取り組む必要があると信じています。

バイオテクノロジーやサイバーセキュリティのような他の分野では、明らかに誤用の可能性があるケースでの責任ある研究発表方法について活発な議論がありました。そして私たちの実験がAIコミュニティにおいて、モデルとコードのリリース方法に関するより微妙なケーススタディとして役立つことを願っています。

私達の研究結果を再現しオープンソース化する技術的能力を持っている研究者もいます。私たちのリリース戦略は、それを行うことを選択するかもしれない最初の組織に制限をかけ、そのようなシステムの影響について議論するためのより多くの時間をAIコミュニティに与えると私たちは信じています。

また、各国の政府は、AI技術の普及と社会的影響をより体系的に監視し、そのようなシステムの機能の進歩を測定するための主導権を発揮、もしくは増強することを検討する必要があるとも思います。

もし、主導権を発揮するのであれば、その努力は、AI研究所や政府に、研究成果の発表やAIの方針に関するより良い基盤をもたらすかもしれません。この戦略について、6か月以内に更に詳しく公表する予定です。大規模な言語モデルとその影響について議論したい場合は、次のアドレスに電子メールを送ってください。languagequestions@openai.com。そして、最先端の言語モデルの研究開発に取り組むこと(そしてそれらが政策に与える影響を通して考えること)に興奮しているなら、私たちは採用活動をしていますので下部リンクをご覧ください。

この投稿文作成に協力してくれたBen Barry, Ashley Pilipiszyn, and Justin Wangに感謝します。また、David LuanとRewon ChildのGPT-2に関する研究に感謝します。この記事の草稿について感想をくれたGreg Brockman, Kai-Fu Lee, Tasha McCauley, Jeffrey Ding, Brian Tse, Allan Dafoe, Rebecca Crootof, Sam Bowman, Ryan Calo, Nick Cammarata and John Schulman.の各氏にも感謝します。

(GPT-2:より良い言語モデルとそれが暗示する事(2/3)からの続きです)

3.GPT-2:より良い言語モデルとそれが暗示する事(3/3)関連リンク

1)blog.openai.com
Better Language Models and Their Implications

2)openai.com
Join OpenAI