パスワードを忘れた? アカウント作成
13609274 submission

マイクロソフト、人工知能の偏見を見つけ出すためのツールを開発中

タレコミ by Anonymous Coward
あるAnonymous Coward 曰く、
機械学習を経て構築された人工知能(AI)が入力された情報の偏りにより、人種や性別などの差別を起こしてしまう「アルゴリズム・バイアス」問題が指摘されている。将来犯罪を起こす確率を予測させたとき、白人よりも黒人のほうが高くなるといった具合にだ。そこでマイクロソフトでは、リスクを冒すことなくAIを使用できるようAIアルゴリズムのバイアスを検出できるツールを開発中だという。

企業の利用するAIがアルゴリズム・バイアスにより差別などを引き起こせば、AIの導入が大きな損失になる可能性もある。ディープラーニングサミットでは、ロードアイランド大学のGabriele Fariello教授は、AI分野での「重大な問題」として倫理と偏見があるとしている。

こうした研究はマイクロソフト以外でも行われている。Facebookは5月2日、Fairness Flowと呼ばれるバイアスを検出する独自のツールを発表した。このツールは、人種、性別、年齢を元にアルゴリズムが不公平な判断を下しているを自動的に警告するものだとしている(VentureBeatMIT Technology ReviewSlashdot)。
この議論は、 ログインユーザだけとして作成されたが、今となっては 新たにコメントを付けることはできません。
typodupeerror

私は悩みをリストアップし始めたが、そのあまりの長さにいやけがさし、何も考えないことにした。-- Robert C. Pike

読み込み中...