
人工知能技術への対策を求め多数の著名学者らが書簡を公表 44
どんな内容の危機を想定しているのだろう 部門より
朝日新聞の記事によると、米非営利団体「センター・フォー・AIセーフティー」が、最新の人工知能(AI)技術が「人類絶滅のリスク」につながる可能性があるとして対策を求める書簡を公表したそうだ。
書簡では、AI技術が疫病や核戦争と並ぶリスクがあるもので対策するべきであるとして、多数の著名学者やChatGPT開発元のOpenAI社CEO等が署名したそうだ。
タレコミにあるようにCenter for AI Safety(CAIS)は5月30日、声明を発表した(CAISの声明)。声明にはOpenAIのサム・アルトマン最高経営責任者(CEO)や、AIの「ゴッドファーザー」と呼ばれるジェフリー・ヒントン氏、Google傘下のAI企業幹部や研究者など350人以上が署名している(CNN、ロイター)。
声明の内容は
Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.
AIによる人類滅亡のリスク軽減は、パンデミックや核戦争といった他の社会的規模のリスクと並ぶ世界的な優先課題であるべきだ。
という一文だけの内容となっている。しかしそれには理由があるという。この問題は重要かつ緊急的なリスクではあるものの、懸念を表明することが難しい部分も多い。このため今回の簡潔な声明文は、とにかく議論を開始することを目的としているのだという(JBpress)。