In a thorough investigation from ProPublica published last year, these risk-assessment tools were found to be deeply flawed, with inherent human bias built in that made them twice as likely to flag black defendants as future criminals and far more likely to treat white defendants as low-risk, standalone offenders. Many algorithmic systems today, including those employed by Facebook, Google, and other tech companies, are similarly at risk of injecting bias into a system, as the judgement of human beings was used to craft the software in the first place.
Harm Assessment Risk Tool (スコア:1)
>2013年から2年間にわたって実施されたテストでは、「容疑者が低リスクである」というという予測は98%の確率で正確だった。一方、高リスク予測に関しては88%の正確度だった。
高リスク予測での精度が低リスクに比べて1割程低くなってのはサンプル数が充分じゃなかったってことかな。
Re:Harm Assessment Risk Tool (スコア:2)
高リスク予測に関しての正解度、ってどうやって計算してんだ
「こいつは再犯する」とマークした人間のうち88%が再犯したって事?
平均の再犯率はどんだけなんだ
人間が判断した時はどうなんだ
あたりがわからんと実用度としては何ともかんとも
Re:Harm Assessment Risk Tool (スコア:1)
12%は再販しなかったか低リスク犯罪を行っていたのか。
どっちにせよ、まだまだ実用レベルにはならず参考程度になるくらいすかね。
Re: (スコア:0)
質はともかく衣食住完備となれば
再犯インセンティブが高いとなる層もいるんじゃないかな
その手の層はAI導入歓迎なんじゃないだろうか
# AI導入・維持分費用が増しております
Re: (スコア:0)
親コメから勘違いしている。再犯の可能性のある容疑者や受刑者を、社会に出さないためのプログラムじゃない。逮捕されてから裁判が確定するまでの間、容疑者を拘束するかどうかの判断の支援だよ。
将来は有罪なら自動的にこのプログラムが低リスクと判断してくれるまでの無期刑という時代が来るかも知れないが。
ガーベージインガーベージアウト (スコア:0)
有罪率だったり
Re: (スコア:0)
他所のシステムは判らないが、これは保釈を許可するか否かの判断の支援だと思われる。保釈すべきでない(高リスク)と判断された容疑者を敢えて保釈したら、88%の容疑者が問題を起した(逃亡したとか証拠隠滅を謀ったとか保釈中に新たな犯罪を起したとか)12%の容疑者は問題を起さなかった。本来ならそういう数字のはずだが、人間の判事が判断した場合の正解率について全く触れられていない処をみると、コンピュータの判断と人間の判事の判断の一致率という数字のように感じられる。
Re:Harm Assessment Risk Tool (スコア:2)
人間の判事が100%正解とみなし、それとの齟齬、と言うのであれば数字が出しやすそうですね
さすがに88%が問題行動を起こすとか考えにくいですもんねぇ
Re: (スコア:0)
そもそも逮捕ってのが「逃亡」もしくは「証拠隠滅」のおそれがないとできないはずなんだが…少なくとも日本では。
「保釈中に新たな犯罪を起した」ってのを判断基準にするの?
つまりそれって予防拘禁?おかしくね?
#英国の警察はそれでいいという法体系なのか?>ダーラム警察
Re:Harm Assessment Risk Tool (スコア:1)
リンク先から
人が作るソフトだから(先入観?)か、黒人の方が白人より二倍のバイアスが掛かってるという深刻な欠陥があるのかな。
#英語読みきれない・・・
Re: (スコア:0)
黒人のリスクを2で割れば解決じゃね。
Re: (スコア:0)
んなアホな
Re: (スコア:0)
AIに過去の判断例を学習させたんだろうから、人間が判断する際と同じ欠陥を継承しているんでしょう。