ニュースレター登録

Loading

オールドメディアが伝えない海外のニュース

「GPT-4」よりさらに強力なAI開発は一時停止すべき=イーロン・マスク氏らテック業界のリーダーたちが公開書簡に署名——「十分な安全性を確保する方法がまだわかっていない」とOpenAI社アルトマンCEO

Photo via Flickr

イーロン・マスク氏、スティーブ・ウォズニアック氏、AI先駆者のヨシュア・ベンジオ氏などが、「GPT-4」より強力な新しいAIツールの開発を6ヶ月間休止するよう求める公開書簡に署名したと、ウォールストリート・ジャーナル(WSJ)が3月29日に報じた。「GPT-4」は、マイクロソフトが支援するスタートアップ企業OpenAIが今月初めに発表した対話型AIソフトChatGPTの最新版。

 

モントリオール大学モントリオール学習アルゴリズム研究所のヨシュア・ベンジオ所長は次のように語っている:

これらの(AI)システムは、社会にとって危険な方法で使用できるほど賢くなっている、そういう段階にまで私たちは到達してしまった。しかし私たちはまだ理解していない。

彼らの懸念は、「巨大なAI実験を一時停止しよう(Pause Giant AI Experiments」と題された書簡に記されている。 この公開書簡は、マスク氏が顧問を務める非営利団体「生命未来研究所(Future of Life Institute)」が中心となって作成した。

 

米生命未来研究所のウェブサイトに掲載されたこの公開書簡は、次のように記している(太字強調はBonaFidr)

現代のAIシステムは、一般的なタスクにおいて人間並みの競争力を持ちつつあり、我々は次のことを自問自答しなければならない:

 

私たちは、私たちの情報チャネルにプロパガンダや真実でないものを機械によって溢れさせるべきだろうか?

 

満足感をもたらす充実した仕事も含めて、私たちはすべての仕事を自動化すべきだろうか?

 

私たちは、やがて私たちよりも数が多く、賢く、私たちを時代遅れのものにし、私たちに取って代わるかもしれない非人間的なマインド(心、精神)を開発すべきだろうか?

 

私たちは、私たちの文明のコントロールを失ってしまうリスクを冒すべきだろうか?

 

このような決定を、選挙で選ばれたわけでもない技術指導者に委ねてはならない。強力なAIシステムは、その効果がポジティブなものであり、そのリスクは管理可能であると確信できる場合にのみ開発されるべきだ

WSJは次のように記している:

この書簡は、すべてのAI開発を停止するよう求めてはいないが、マイクロソフト社が支援する新興企業OpenAIが今月発表した技術GPT-4よりも強力なシステムの訓練を一時的に停止するよう各企業に促している。これには、OpenAIの次世代技術であるGPT-5も含まれる。

 

OpenAIの関係者によると、GPT-5のトレーニングはまだ始めていないという。OpenAI社のCEOであるサム・アルトマン氏は、インタビューで、同社は以前から開発において安全性を優先しており、発売前にGPT-4の安全性テストを6ヶ月以上かけて行ってきたと述べている。

さらにアルトマン氏は次のように語っている:

ある意味、これはすでに同意している人を説得しようとするもの(釈迦に説法)です。私たちは、こうした問題について、最も大きな声で、最も力強く、最も長い間、議論し続けてきたと思います。

一方、ゴールドマンサックスは、最大で3億件の仕事がAIに置き換わる可能性があると予想しており、「3分の2の職業がAIによって部分的に自動化される可能性がある」と分析している。

 

いわゆる「ジェネレーティブAI」と呼ばれる技術は、人間によるプロンプトをもとにオリジナルのコンテンツを作成するもので、すでにマイクロソフトの検索エンジンBingなどに実装されている。その発表直後、グーグルはBardというライバル製品を投入している。その他、AdobeSalesforceZoomなど、各社とも高度なAIツールを導入している。

 

マイクロソフト社のサティア・ナデラCEOは先月のコメントで、「今日からレースが始まる。我々は動き出す。そして早く動くつもりだ」と語っている

 

しかし今回の公開書簡を取りまとめた人物の一人で、米生命未来研究所のトップを務めるマックス・テグマーク氏(マサチューセッツ工科大学の物理学教授)は、これを「自殺レース」と呼んでいる。テグマーク教授はさらに次のように語っている:

これを軍拡競争のフレームにはめないといけないのは不幸なことです。これは自殺レースといったほうがいい。誰が先にそこ(より発展したステージ)に到達するかは問題ではありません。ただ、人類全体が自らの運命をコントロールできなくなる可能性があるということです。

WSJはさらに次のように記している(太字強調はBonaFidr):

生命未来研究所は先週からこの書簡の作成に取りかかり、当初は本人確認なしで誰でも署名できるようにしていた。一旦はアルトマン氏(OpenAI社のCEO)の名前が書簡に加えられたが、後に削除された。アルトマン氏は、自分はこの書簡に署名していないと述べている。アルトマン氏は、同社は他のAI企業と安全基準について頻繁に調整しており、より幅広い懸念事項について議論していると述べている。

 

十分な安全性を確保する方法がまだわかっていないと私たちは考えているため、私たちがやらない作業もあります。だから、そうですね、多軸で減速できる方法はあると思うし、それは重要なことです。そして、それは我々の戦略の一部でもあります」と彼は語っている。

イーロン・マスク氏(OpenAIの初期の創設者であり資金提供者)とウォズニアック氏は、以前からAIの危険性について歯に衣を着せない積極的な発言をしてきた。

 

先週も、「深刻なAIリスクの問題がある」とマスク氏はツイートしている。

【訳】競争はそれとは全く関係ない。深刻なAIリスクの問題がある。

Meta社のチーフAIサイエンティストであるヤン・ルカン氏は、その前提に同意できないとして、公開書簡に署名しなかった(ルカン氏はその理由を詳しく説明していない)。

 

疑り深い人たちの間では、もちろん、この公開書簡に署名した人たちには別の意図があるのではないかという憶測も出ている。

【訳】私はこれ(この公開書簡)をこのように読んでいる:「6ヶ月以上のモラトリアムがあれば、私には似たようなものをコピーしたり作ったりする時間ができ、競争から取り残されることはない」と。

BonaFidrをフォロー

執筆者

error: コンテンツは保護されています。