MicrosoftのAIチャットボット「Tay」、ユーザーのいたずらで不適切な学習
タレコミ by headless
headless 曰く、
MicrosoftがAIチャットボット「Tay」を公開したところ、1日経たずに人種差別や全体主義、ドナルド・トランプなどを学習して不適切な返信をし始めたため、修正のためオフラインになっている(The Guardianの記事、 Neowinの記事、 The Vergeの記事、 Business Insiderの記事)。
Tayは米国の18歳から24歳をターゲットにしたAIチャットボットで、Twitterなどで友だちとして登録すればユーザーのプロフィールに合わせた会話が楽しめるというもの。会話の内容から学習し、成長していくのだが、特にフィルターなどはされていなかったらしい。そのため、ユーザーのいたずらを学習してしまったものとみられる。また、「Repeat after me」機能を使用することで、どのような内容でもTayに発言させることができたようだ。
不適切な返信は既に削除されているが、リンク先記事にスクリーンショットがいくつか掲載されている。MicrosoftはBusiness Insiderに対し、学習の結果により不適切な返信がみられるようになったので、調整を行うと説明している。