1.Googleを辞めたヒントン先生の想いまとめ
・ディープラーニングの父とも言われるヒントン先生が5/1にGoogleを退社していた事が報道される
・AI開発競争が制御不能になっていく危険性について自由に発言するために退社されたとの事
・AIを制御できるか理解できるようになるまでこれ以上研究を進めるべきではないと思っているとの事
2.AI開発競争が制御不能になっていく危険性
以下、www.nytimes.comより「‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead」の意訳です。元記事は2023年5月1日、Cade Metzさんによる投稿です。
ちなみに当初、本文章はGPT 4.0に要約して貰おうかと考えていましたが、出てきた文章をチェックして、やっぱり今のお前じゃまだヒントン先生のお気持ちを全く伝えきれてないから、すっこんでろと思って私が翻訳しなおしました。
5年以上前からAIに興味を持っていた人は、Andrew Ng教授かGeoffrey Hinton先生のオンライン講座でAIを学んだ人が多いと思います。当時の私の記憶だと、Hinton先生の講義は難しいという評判も見かけたのですが、イギリス英語を学びたいと言う気持ちもあって私はGeoffrey Hinton先生の講座で学びました。
ヒントン先生は、誇大宣伝の反動でAIと名がつくだけで叩かれたAI受難の時代もAI研究を諦めなかった信念の人であって、色々と逸話もある、そして、アイキャッチ画像見てもわかる通り俳優さんとも見まがうレベルの絵になる人です。(個人的にはイギリス紳士であるヒントン先生の「人工知能はアメリカ人より先に皮肉を理解できるようになるだろう」発言が好きでしたが、GPT-4でその予言が正しかった事が証明された感があります)
そして、昨日、そのヒントン先生がAI開発の危険性に対して自由に発言するためにGoogleを退社し、ご自身のお仕事の一部を悔いているとの事で、私にとってはかなりショッキングなニュースがありました。
元文章を読むとヒントン先生のご懸念は理解できて、現状、
「まだAIは完全な技術ではありませんが、より倫理的で責任ある方法でXXすることを目指しています。私達も問題を認識しており、具体的な改善策を検討し、実践していく必要があると認識しています」
と答えておけばグレーゾーンは許される風潮になっているように感じます。この回答で許されるのであれば幾らでも先送りできてしまいますし、他社が追い付けないくらい差を広げてから規制や自重を言い出す事も可能です。あの会社だってやっているのだから、私達もやろうと、歯止めは効かなくなって、どんどんグレーが濃くなっていく懸念があります。
わたしも含めてですが、どの会社も必ずしも強欲ではなく、目指す理想の世界や、やらなければ潰れるという恐怖心もあるでしょうからやったもん勝ちの風潮のままは本当にマズイとは思います。
少なくとも各社、本当に倫理的で責任ある開発を目指しているのであれば、
「何の問題を認識しており、いつまでに、どのような見直しをし、改善する計画です」
を発表する必要があるのではないかと思います。
半世紀にわたって、ジェフリー・ヒントンは、ChatGPTのようなAIチャットボットの中核となる技術を育んできました。しかし、今ではそれが深刻な危害をもたらすことを懸念しています。
ジェフリー・ヒントンは人工知能の先駆者でした。2012年に、ヒントン博士とトロント大学の大学院生2人が、技術業界の大手企業が将来の鍵だと考えるAIシステムの知的基盤となる技術を開発しました。
しかし月曜日に、彼はChatGPTのような人気のあるチャットボットを動かす生成AIを基盤とした製品を積極的に作ろうとする会社は危険な方向に向かって走っている、と高まっている批判の動きに公式に加わりました。
ヒントン博士は、10年以上にわたってGoogleで働き、その分野で最も尊敬される声の1つとなっていましたが、AIのリスクについて自由に語れるようにGoogleを辞めたと述べました。彼は、今となっては、自分のライフワークを後悔している部分もあると言います。
「私はお決まりの言い訳で自分を慰めています。私がやらなければ、誰か他の人がやっただろうと」ヒントン博士は、トロントの自宅のダイニングルームで先週行われた長時間のインタビューで語りました。彼と彼の学生たちが画期的な成果を上げた場所からほんの数分の所です。
ヒントン博士がAIの先駆者からAI終末論者へと変わったその旅は、技術業界が何十年もの間で最も重要な分岐点にあることを示しています。業界のリーダーたちは、新しいAIシステムが1990年代初頭のウェブブラウザの導入と同じくらい重要であり、薬物研究から教育までの分野での画期的な発見につながる可能性があると信じています。
しかし、多くのAI業界関係者は彼らが何か危険なものを野に解き放っているのではないかという不安を抱いています。
生成AIはすでに誤情報を拡散する道具となっています。もうすぐ、それは失業リスクにもなるでしょう。最大の懸念事項は、どこかの時点で、AIが人類に対するリスクになる可能性です。
「悪意を持つ者がAIを悪用しないようにするのは難しいと思います」とヒントン博士は言いました。
サンフランシスコのスタートアップ、OpenAIが3月にChatGPTの新バージョンをリリースした後、1000人以上の技術リーダーと研究者が、AI技術が「社会と人類に深刻なリスクをもたらす」として、新システムの開発に対する6か月間の一時停止を求める公開書簡に署名しました。
数日後、40年の歴史を持つ学術団体である人工知能の進歩協会(Association for the Advancement of Artificial Intelligence)の現職および元指導者19人が、AIのリスクを警告する独自の書簡を発表しました。そのグループには、マイクロソフトの最高科学責任者であり、OpenAIの技術をBing検索エンジンを含む幅広い製品に展開しているEric Horvitzが含まれていました。
「AIのゴットファザー」とも呼ばれるヒントン博士は、どちらの手紙にも署名せず、彼が仕事を辞めるまで、Googleや他の企業を公然と批判することはやりたくないと述べました。
彼は先月、辞職することを会社に通知し、木曜日には、Googleの親会社Alphabetの最高経営責任者であるSundar Pichaiと電話で話しました。彼はPichaiとの会話の詳細については公に語ることを避けました。
Googleの最高科学責任者であるJeff Deanは声明で「私たちはAIに対する責任あるアプローチに引き続き取り組んでいます。新たに浮上するリスクを理解しながら、大胆にイノベーションを追求します」と述べています。
75歳のイギリス人であるヒントン博士は、生涯現役の研究者であり、AIの開発と使用に関する彼自身の信念に基づいてキャリアを進めてきました。
1972年にエディンバラ大学の大学院生だったヒントン博士は、ニューラルネットワークと呼ばれるアイデアを採用しました。ニューラルネットワークは、データを分析してスキルを学ぶ数学的システムです。当時、このアイデアを信じる研究者はほとんどいませんでしたが、それが彼の人生の仕事になりました。
1980年代、ヒントン博士はカーネギーメロン大学のコンピュータサイエンスの教授でしたが、アメリカ国防総省の資金援助を受けるのが嫌だったという理由で大学を離れ、カナダへ渡りました。
当時、米国におけるAI研究のほとんどは、国防総省の資金援助を受けていました。ヒントン博士は、戦場での人工知能の活用、つまり彼が言うところの「ロボット兵(robot soldiers)」に深く反対しています。
2012年、ヒントン博士とトロントの2人の学生、Ilya SutskeverとAlex Krishevskyは、数千枚の写真を分析し、花、犬、車などの一般的な物体を識別することを教えることができるニューラルネットワークを構築しました。
Googleは4400万ドルを投じて、ヒントン博士とその2人の学生が立ち上げた会社を買収しました。
そして彼らのシステムは、ChatGPTやGoogle Bardのような新しいチャットボットなど、ますます強力なテクノロジーの誕生につながったのです。
Sutskeverはその後、OpenAIのチーフサイエンティストとなりました。2018年、ヒントン博士と他の2人の長年の共同研究者は、ニューラルネットワークに関する彼らの業績に対して、「コンピューティングのノーベル賞」とも呼ばれるチューリング賞を受賞しました。
その頃、Google、OpenAI、および他の企業は、膨大な量のデジタルテキストから学習するニューラルネットワークの構築を開始しました。ヒントン博士は、これが機械が言語を理解し生成する強力な方法であると考えましたが、それは人間が言語を扱う方法に劣っていました。
しかし、昨年、GoogleとOpenAIがはるかに大量のデータを使用してシステムを構築すると、彼の見方が変わりました。彼はまだ、システムがいくつかの点で人間の脳に劣ると考えていましたが、他の点では人間の知性を凌駕していると思いました。彼は言います。「これらのシステムで起こっていることは、実際には、脳で起こっていることよりもずっと優れているかもしれません」
彼は、企業がAIシステムを改良するにつれて、それらはますます危険になると考えています。「5年前の状況と現在の状況を比べて見てください」と彼はAI技術について語りました。「この進歩をそのまま進めていくのは恐ろしいことです」
彼は昨年まで、Googleが技術に対する「適切な管理者」として行動し、損害をもたらす可能性があるものをリリースしないように注意を払っていたと述べています。
しかし、今やMicrosoftがBing検索エンジンをチャットボットで強化し、Googleの主力事業に挑戦しているため、Googleは同じ種類の技術を急いで展開しています。ヒントン博士によれば、巨大IT企業達は、止めることが不可能かもしれない競争に巻き込まれています。
彼の直接的な懸念は、インターネットが偽の写真、動画、テキストであふれ、一般の人々が「もう何が本当のことか分からなくなる」ということです。
また、彼はAI技術がやがて労働市場を一変させることを懸念しています。現在、ChatGPTのようなチャットボットは、人間の労働者を補完する傾向にありますが、彼らはルーチンワークをこなす法律事務所スタッフ、個人アシスタント、翻訳者などを置き換える可能性があります。「AIは定型的な仕事を奪うでしょう」彼は続けます。「それ以上のものも奪うかもしれません」
この先、彼は、未来のAI技術が人類に脅威を与えることを心配しています。というのも、AIシステムは膨大な量のデータを解析することで、予期せぬ行動を学習してしまう事が多いからです。
「これは、個人や企業がAIシステムに独自のコンピューターコードを生成させるだけでなく、実際にそのコードを実行させるようになると問題になります」と彼は言います。そして、真に自律的な兵器、つまり殺人ロボット(killer robots)が現実のものとなる日を恐れているのです。
「少数の人だけがこのようなものが実際に人間より賢くなると思っていました。」と彼は言います。
「しかし、ほとんどの人は、それが大きな見当違いだと考えていました。私もそう思っていました。30年から50年、あるいはそれ以上先の話だと思っていました。明らかに、私はもうそう思っていません。」
多くの他の専門家、彼の学生や同僚を含む多くの人たちは、この脅威は仮想的なものだと言っています。しかし、ヒントン博士は、GoogleとMicrosoft、およびその他の企業間の競争が、何らかの形での世界的な規制がなければ止まらないグローバルな競争にエスカレートすると考えています。
しかし、止める事は不可能かもしれないと彼は言います。
彼が言うには、核兵器とは異なり、企業や国が技術を秘密裏に開発しているかどうかを知る方法はありません。最善の希望は、世界の主要な科学者たちが技術を制御する方法を共同で検討することです。
「それを制御できるか理解できるようになるまで、これ以上研究を進めるべきではないと思います」と彼は言いました。
ヒントン博士は、以前、人々が彼に潜在的に危険な技術に取り組む方法を尋ねると、米国の原子爆弾開発を率いたRobert Oppenheimer博士の言葉を引用して答えていました。
「技術的に素晴らしいものを見つけたら、率先して先にやってしまえ(When you see something that is technically sweet, you go ahead and do it.)」
彼はもうそんなことは言いません。
3.Googleを辞めたヒントン先生の想い関連リンク
1)www.nytimes.com
‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead