Google DeepMindやAnthropic、OpenAIをはじめとするAI研究団体のCEOやAI研究者ら350人以上が、「AIによる人類滅亡リスクの軽減は核戦争やパンデミックと同等の世界的な優先事項である」という内容の書簡に署名し、政策立案者に対してAIによるリスクを訴えています。

Statement on AI Risk | CAIS

https://www.safe.ai/statement-on-ai-risk



AI Extinction Statement Press Release | CAIS

https://www.safe.ai/press-release



Top AI researchers and CEOs warn against ‘risk of extinction’ in 22-word statement - The Verge

https://www.theverge.com/2023/5/30/23742005/ai-risk-warning-22-word-statement-google-deepmind-openai

OpenAI execs warn of “risk of extinction” from artificial intelligence in new open letter | Ars Technica

https://arstechnica.com/information-technology/2023/05/openai-execs-warn-of-risk-of-extinction-from-artificial-intelligence-in-new-open-letter/

AIの責任ある倫理的開発を推進する非営利団体であるCenter for AI Safety(CAIS)は2023年5月30日に、「AIによる絶滅リスクを軽減することは、パンデミックや核戦争といった社会的規模の大きいリスクと並ぶ世界的な優先事項であると認識すべき」との声明を発表しました。

この声明に対して、OpenAIのサム・アルトマンCEOやGoogle DeepMindのデミス・ハサビスCEO、Anthropicのダリオ・アモデイ氏のほか、ヨシュア・ベンジオ氏やスチュアート・ラッセル氏など、350人以上のAI研究企業のCEOや研究者が賛同する署名を行っています。

CAISのダン・ヘンドリックス所長は「新型コロナウイルスの流行前、『パンデミック』という概念は一般の人々の考えにはありませんでした。同様の問題がAIでも起きないように、AIリスクに関する制度や規制を構築することに『時期尚早だ』という考えはありません」と主張しています。



また「AIに関する問題に取り組みながら、AI業界や世界中の政府が将来のAIが人間の存在に対して脅威を与える可能性があるというリスクに真剣に立ち向かう必要があります」とヘンドリックス氏は述べています。

さらに「AIによる絶滅リスクを軽減するには、グローバルな行動が必要です。これまで世界は核戦争が起こるリスクを軽減するためにうまく協力してきました。未来のAIシステムがもたらす危険に対処するためには、核戦争リスクの軽減と同じレベルの努力が求められます」と主張しています。ヘンドリックス氏はまた「今回発表した声明は非常に簡潔で、AIがもたらす脅威を軽減するための方法を示していませんでしたが、私たちの目的は、AI研究者や企業のCEOとの意見の不一致を回避することです」と語っています。

一方で作家のダニエル・ジェフリーズ氏は「将来的なAIによる絶滅リスクは架空の問題であり、架空のものを修正することはできません。それよりも現実世界の問題に対する実践的なAIソリューションに労力を費やしてほしいと願っています」と書簡について批判しています。また「架空の将来的な問題を解決しようとすることは時間の無駄です。現在の問題を解決すれば、おのずと将来的な問題も解決されることでしょう」と述べています。





また、Metaのヤン・ルカン氏は「人間の知性を超えるAIはまだ存在しないので、AIによる絶滅リスクをパンデミックや核戦争と同列に位置づけるのは時期尚早だと考えています。せめて犬レベルの知性を持ったAIが登場してから、AIを安全に開発する方法について議論するべきです」と批判しています。





2023年3月には「社会や人類への深刻なリスク」があるとして、次世代大規模言語モデルであるGPT-4を超えるAIに対して6カ月間にわたる即時開発停止を求める書簡がFuture of Life Instituteによって公開され、イーロン・マスク氏やAppleの共同創設者であるスティーブ・ウォズニアック氏らがこの書簡に署名しています。

「コントロールの喪失」の恐れがあるとしてGPT-4を超えるAIの即時開発停止を全技術者に対して6カ月間求める公開書簡、イーロン・マスクやスティーブ・ウォズニアックなど1300人以上が署名 - GIGAZINE