マイクロソフト、人工知能の偏見を見つけ出すためのツールを開発中
タレコミ by Anonymous Coward
あるAnonymous Coward 曰く、
機械学習を経て構築された人工知能(AI)が入力された情報の偏りにより、人種や性別などの差別を起こしてしまう「アルゴリズム・バイアス」問題が指摘されている。将来犯罪を起こす確率を予測させたとき、白人よりも黒人のほうが高くなるといった具合にだ。そこでマイクロソフトでは、リスクを冒すことなくAIを使用できるようAIアルゴリズムのバイアスを検出できるツールを開発中だという。
企業の利用するAIがアルゴリズム・バイアスにより差別などを引き起こせば、AIの導入が大きな損失になる可能性もある。ディープラーニングサミットでは、ロードアイランド大学のGabriele Fariello教授は、AI分野での「重大な問題」として倫理と偏見があるとしている。
こうした研究はマイクロソフト以外でも行われている。Facebookは5月2日、Fairness Flowと呼ばれるバイアスを検出する独自のツールを発表した。このツールは、人種、性別、年齢を元にアルゴリズムが不公平な判断を下しているを自動的に警告するものだとしている(VentureBeat、MIT Technology Review、Slashdot)。
マイクロソフト、人工知能の偏見を見つけ出すためのツールを開発中 More ログイン