アカウント名:
パスワード:
「AIは差別を追認する」
AI自体にはなんの意図もないんだが、人種や年齢や学歴なんかの属性で判断させるとじつに差別的な判定をしてしまうというヤツだねこれ。
Amazonのエンジニア応募の履歴書をAIで判断させたら女性に低い点をつけた(現状のAmazonのエンジニアのほとんどは男だから)とかクレジットカード限度枠審査で収入を同じくする夫婦の妻の方だけ限度枠が低くなる(現状の女性の多くは男性より限度枠が低いから)とか
ビッグデータ食わせちゃうとどうしてもそうなる、ってハナシだ。
所詮は予測でしかないのに、それを判断基準化するとやっても居ない事のペナルティを他者に押し付けると言う事に。誰だってやっていない事項についてペナルティを受ける筋合いなんかない訳で。近代法も何もあったもんじゃない位の連帯責任論だわな。
リスク計算なんかに使い自社内で保険を掛けるのには使えるのだろうけど、それを対外的に使ってしまえば、そりゃ問題にもなるわな。
「判断基準」ではなく、あくまで「危険度」の予測であって、最終的には人間が判断するらしいが、それの何がアカンの?
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
「毎々お世話になっております。仕様書を頂きたく。」「拝承」 -- ある会社の日常
「AIは差別を追認する」 (スコア:3)
「AIは差別を追認する」
AI自体にはなんの意図もないんだが、人種や年齢や学歴なんかの属性で判断させるとじつに差別的な判定をしてしまうというヤツだねこれ。
Amazonのエンジニア応募の履歴書をAIで判断させたら女性に低い点をつけた(現状のAmazonのエンジニアのほとんどは男だから)とか
クレジットカード限度枠審査で収入を同じくする夫婦の妻の方だけ限度枠が低くなる(現状の女性の多くは男性より限度枠が低いから)とか
ビッグデータ食わせちゃうとどうしてもそうなる、ってハナシだ。
予測に使うと差別の先鋭化だろう (スコア:0)
所詮は予測でしかないのに、それを判断基準化するとやっても居ない事のペナルティを他者に押し付けると言う事に。
誰だってやっていない事項についてペナルティを受ける筋合いなんかない訳で。
近代法も何もあったもんじゃない位の連帯責任論だわな。
リスク計算なんかに使い自社内で保険を掛けるのには使えるのだろうけど、
それを対外的に使ってしまえば、そりゃ問題にもなるわな。
Re:予測に使うと差別の先鋭化だろう (スコア:2)
「判断基準」ではなく、あくまで「危険度」の予測であって、最終的には人間が判断するらしいが、それの何がアカンの?