パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

英ダーラム警察、容疑者を拘束するかどうかを判定するAIシステムを導入予定」記事へのコメント

  • >2013年から2年間にわたって実施されたテストでは、「容疑者が低リスクである」というという予測は98%の確率で正確だった。一方、高リスク予測に関しては88%の正確度だった。

    高リスク予測での精度が低リスクに比べて1割程低くなってのはサンプル数が充分じゃなかったってことかな。

    • リンク先から

      In a thorough investigation from ProPublica published last year, these risk-assessment tools were found to be deeply flawed, with inherent human bias built in that made them twice as likely to flag black defendants as future criminals and far more likely to treat white defendants as low-risk, standalone offenders. Many algorithmic systems today, including those employed by Facebook, Google, and other tech companies, are similarly at risk of injecting bias into a system, as the judgement of human beings was used to craft the software in the first place.

      人が作るソフトだから(先入観?)か、黒人の方が白人より二倍のバイアスが掛かってるという深刻な欠陥があるのかな。
      #英語読みきれない・・・

      親コメント
      • by Anonymous Coward

        黒人のリスクを2で割れば解決じゃね。

      • by Anonymous Coward

        AIに過去の判断例を学習させたんだろうから、人間が判断する際と同じ欠陥を継承しているんでしょう。

アレゲは一日にしてならず -- アレゲ見習い

処理中...