AIを悪用した偽情報の拡散にどのように備えるか?(2/2)

AI関連その他

1.AIを悪用した偽情報の拡散にどのように備えるか?(2/2)まとめ

・言語モデルを使って影響力行使に至るまでのパイプラインには主要な段階が4段階が存在している
・各段階で誤用の影響を緩和する策を講じる事ができるが軽減策そのものにもリスクが存在する場合がある
・現時点で考案されている枠組みは検討を開始する際のベースとなるもので最終的な結論を出すには程遠い

2.リスクが軽減できるタイミング

以下、openai.comより「Forecasting Potential Misuses of Language Models for Disinformation Campaigns—and How to Reduce Risk」の意訳です。元記事の投稿は2023年1月11日、Josh A. Goldsteinさん、Girish Sastryさん、Micah Musserさん、Renée DiRestaさん、Matthew Gentzelさん、Katerina Sedovaさんによる投稿です。

アイキャッチ画像はstable diffusionの生成

軽減策を考案する際の枠組み

本報告書では、言語モデルから影響力行使に至るパイプラインの主要な段階を示しました。
各段階はそれぞれ、緩和策の可能性を示すポイントになります。

言語モデルを利用した影響力行使を成功させるために、宣伝者は次のこと必要とします。
(1)モデルが存在すること
(2)モデルに確実にアクセスできること
(3)モデルからコンテンツを発信できること
(4)エンドユーザーが影響を受けること

多くの可能な緩和策は、以下に示すように、この 4 つのステップに沿ったものです。

パイプラインの段階 1. モデルの構築 2. モデルへのアクセス 3. コンテンツの普及 4. 価値観形成
軽減策 AI開発者がより事実に忠実なモデルを構築する AIプロバイダーが言語モデルの使用制限を厳しくする プラットフォームとAIプロバイダーが連携し、AIコンテンツを特定する 教育機関がメディアリテラシーキャンペーンを実施する
開発者が放射性データを拡散し、生成モデルを検出できるようにする AIプロバイダーがモデルの公開に関する新しい規範を開発する。 プラットフォームが投稿するために「人間である事の証明」を必要にする 開発者は消費者向けのAIツールを提供する
政府がデータ収集に制限を課す AIプロバイダーがセキュリティの脆弱性を解消する 公衆からの入力に依存する事業者は、誤解を招くようなAIのコンテンツにさらされることを減らすための措置を講じる
政府がAIハードウェアにアクセス制御を課す デジタル来歴標準を広く採用する

緩和策が存在する場合、それは望ましいでしょうか?

AIを利用した影響力行使の脅威を軽減できる緩和策があるからといって、それを導入すべきとは限りません。緩和策の中には、それ自体がマイナス面のリスクを伴うものもあります。また、実現不可能なものもあります。私たちは、緩和策を明確に支持または評価するわけではありませんが、政策立案者およびその他の人々が検討するための一連の指針的質問を提供するものです。

・技術的実現可能性(Technical Feasibility)
提案されている緩和策は技術的に実現可能でしょうか?技術的なインフラに大きな変更を加える必要があるでしょうか?

・社会的実現可能性(Social Feasibility)
政治的、法的、制度的な観点から、その緩和策は実現可能でしょうか?コストのかかる調整が必要でしょうか?主要な関係者がそれを実施する動機付けがあるでしょうか?既存の法律、規制、業界標準の下で実行可能でしょうか?

・ダウンサイドリスク(Downside Risk)
緩和策がもたらす潜在的な負の影響は何でしょうか?またその影響はどの程度大きいでしょうか?

・影響(Impact)
提案された緩和策が脅威を減らすのにどの程度効果的でしょうか?

この枠組みが他の緩和策のアイデアを呼び起こし、関連機関が様々な緩和策を講じる価値があるかどうかを検討する際の指針になればと願っています。

本報告書は、AIと影響力行使の将来について最終的な結論を出すには程遠いものです。私達の目的は、現在の環境を定義し、将来の研究のためのアジェンダを設定するのに役立つことです。関連するプロジェクトの協力や議論に関心のある方は、ぜひ私たちと連絡を取ってください。詳しくはレポート全文をご覧ください。

3.AIを悪用した偽情報の拡散にどのように備えるか?(2/2)関連リンク

1)openai.com
Forecasting Potential Misuses of Language Models for Disinformation Campaigns—and How to Reduce Risk

2)arxiv.org
Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations

タイトルとURLをコピーしました