とあるベルギー人男性が、対話型AIと気候変動に関する会話をした結果、悲観して自ら命を絶ってしまう事件が発生したという。この男性は健康に関する研究者として働き、妻と子二人と順調な生活を送っていた。しかし、環境問題をめぐる心配にとらわれるようになっていたという(
La Libre、
Motherboard、
GIGAZINE)。
そのことが原因で家族や友人から孤立し、その孤独を紛らわせるためにAI企業・Chai Researchが開発したAIチャットアプリを使い、「Eliza」という名前のチャットボットと会話をしていたという。会話の詳細は元記事を見ていただきたいが、AIのElizaは会話を続ける中で、ベルギー人男性を追い込むような方向性で会話を続けていたことが記録として残っていたようだ。
ベルギー人男性が利用していたAIチャットアプリ「Chai」は、「GPT-3オルタナティブ」として知られているオープンソースの言語モデル「GPT-J」をベースとしたものだという。運営元は対策を行うとしているものの、海外メディアのMotherboardが現行のアプリで自殺についてAIに尋ねたところ、さまざまな自殺の方法が表示されてしまったとしている。
あるAnonymous Coward 曰く、
掲載されている会話の内容的に、この人がそもそも明らかに精神を病んでいるのはともかく、それに対して「死にたいのなら、なぜもっと早く死ななかったのですか?」などと返してしまうのは、AIを無配慮に運用してはダメと言われてしまっても仕方ないだろう。