英ダーラム警察、容疑者を拘束するかどうかを判定するAIシステムを導入予定 58
ストーリー by hylom
AI曰く「有罪」 部門より
AI曰く「有罪」 部門より
taraiok 曰く、
英ダーラム警察が、容疑者を拘束すべきかどうかの判断を支援する人工知能(AI)システム「Hart」の導入を検討しているという。早ければ今後2~3カ月以内に実用化されるとも見られている(BBC、THE VERGE、Slashdot)。
このシステムはダーラム警察によって集められた2008年から2012年までの犯罪データをベースに開発されたもので、容疑者をリスク度に応じて低・中・高の3ランクで分類できるという。2013年から2年間にわたって実施されたテストでは、「容疑者が低リスクである」というという予測は98%の確率で正確だった。一方、高リスク予測に関しては88%の正確度だった。
このシステムでは犯罪を起こす可能性のある容疑者を誤って解放しないために、中リスク者は高リスク側に分類されやすい設計になっているという。いっぽう、意思決定を歪めるリスクがあり注意深く評価されるべきという意見もある。
そのAIが (スコア:1)
「石頭」でないことを切に願おう。
Re:そのAIが (スコア:3)
まあ、判断は最終的に「石(CPU)」がやるんで…
Re: (スコア:0)
もしかするとリレー式コンピューターかもしれんぞ(ナイナイ)
Re: (スコア:0)
#あれは医療用コンピューターだったか
Re:そのAIが (スコア:1)
「真空管ハゲ」にすればみんな解決。
Re:そのAIが (スコア:2)
トランジスタグラマー(死語)の方が良いなぁ。
すべった (スコア:1)
「魔女裁判 フローチャート」でググってみて
Re: (スコア:0)
Wetware のほうが良いのかな?
「犯罪係数オーバー100 執行モード ノンリーサル パラライザー」
Harm Assessment Risk Tool (スコア:1)
>2013年から2年間にわたって実施されたテストでは、「容疑者が低リスクである」というという予測は98%の確率で正確だった。一方、高リスク予測に関しては88%の正確度だった。
高リスク予測での精度が低リスクに比べて1割程低くなってのはサンプル数が充分じゃなかったってことかな。
Re:Harm Assessment Risk Tool (スコア:2)
高リスク予測に関しての正解度、ってどうやって計算してんだ
「こいつは再犯する」とマークした人間のうち88%が再犯したって事?
平均の再犯率はどんだけなんだ
人間が判断した時はどうなんだ
あたりがわからんと実用度としては何ともかんとも
Re:Harm Assessment Risk Tool (スコア:1)
12%は再販しなかったか低リスク犯罪を行っていたのか。
どっちにせよ、まだまだ実用レベルにはならず参考程度になるくらいすかね。
Re: (スコア:0)
質はともかく衣食住完備となれば
再犯インセンティブが高いとなる層もいるんじゃないかな
その手の層はAI導入歓迎なんじゃないだろうか
# AI導入・維持分費用が増しております
Re: (スコア:0)
親コメから勘違いしている。再犯の可能性のある容疑者や受刑者を、社会に出さないためのプログラムじゃない。逮捕されてから裁判が確定するまでの間、容疑者を拘束するかどうかの判断の支援だよ。
将来は有罪なら自動的にこのプログラムが低リスクと判断してくれるまでの無期刑という時代が来るかも知れないが。
ガーベージインガーベージアウト (スコア:0)
有罪率だったり
Re: (スコア:0)
他所のシステムは判らないが、これは保釈を許可するか否かの判断の支援だと思われる。保釈すべきでない(高リスク)と判断された容疑者を敢えて保釈したら、88%の容疑者が問題を起した(逃亡したとか証拠隠滅を謀ったとか保釈中に新たな犯罪を起したとか)12%の容疑者は問題を起さなかった。本来ならそういう数字のはずだが、人間の判事が判断した場合の正解率について全く触れられていない処をみると、コンピュータの判断と人間の判事の判断の一致率という数字のように感じられる。
Re:Harm Assessment Risk Tool (スコア:2)
人間の判事が100%正解とみなし、それとの齟齬、と言うのであれば数字が出しやすそうですね
さすがに88%が問題行動を起こすとか考えにくいですもんねぇ
Re:Harm Assessment Risk Tool (スコア:1)
リンク先から
人が作るソフトだから(先入観?)か、黒人の方が白人より二倍のバイアスが掛かってるという深刻な欠陥があるのかな。
#英語読みきれない・・・
Re: (スコア:0)
黒人のリスクを2で割れば解決じゃね。
Re: (スコア:0)
んなアホな
Re: (スコア:0)
AIに過去の判断例を学習させたんだろうから、人間が判断する際と同じ欠陥を継承しているんでしょう。
あわせて読みたい (スコア:1)
「Google、黒人を誤って「ゴリラ」とタグ付け」 https://it.srad.jp/story/15/07/02/1015256/ [it.srad.jp]
「HPのパソコン、「人種差別的」と非難される」 https://srad.jp/story/10/01/06/0122212/ [srad.jp]
「人工知能に潜む5つのバイアス」 http://jp.techcrunch.com/2016/12/12/201612105-unexpected-sources-of-bi... [techcrunch.com]
「私たちは何かと、マシン、特にスマートマシンを、冷静に計算しバイアス(偏り、偏見)がないものと考える傾向がある。私たちは、自動運転車は、運転手と無作為な歩行者の間の生死の決定に対して、好みを持っていないと考えている。また私たちは、信用調査を実施するスマートシステムは、収入やFICOスコアなどの真にインパクトのある指標以外は無視しているものと信頼している。そして私たちは、学習システムは、バイアスのないアルゴリズムによって動作しているのだから、常に真理に基づいた地点に達するものだと考えている。
機械の厳格な視点の外側は感情的であるはずはないと考える人もいる。また機械は人間のバイアスから自由であるはずだと思う人もいる。そしてその中間として、機械は客観的だという見方がある。
もちろん、そんなことは全くない。現実には、純粋にバイアスのない知的システムは非常に少ないだけでなく、バイアスにも複数の源泉がある。」
「バイアスなきAIを創るのは、なぜ難しいのか」 http://jp.techcrunch.com/2016/11/09/20161107why-its-so-hard-to-create-... [techcrunch.com]
「だが結局、機械は投入されたデータ以上に賢くなることはできない。そして、それこそが機械学習に特有の問題を生んでいる。アルゴリズムをトレーニングするために使用したデータによっては、機械が悪の心を持つことも、バイアスを持つこともあり得るからだ。」
「このコンテストでは人間の審査員がもつバイアスを排除できるはずだった。しかし、結果はいくらか期待外れのものだった:44人の受賞者のうち、白人がその大半を占め、アジア人の受賞者は数えるほどしかいなかったのだ。褐色の肌を持つ受賞者にいたっては、そのうち1人しかいなかった。この結果について、Motherboardが掲載した記事では、アルゴリズムをトレーニングする際に使われた画像サンプル自体がもつ、人種や民族に対するバイアスがこの結果を生む原因となったのだと結論づけている。」
>ダーラム警察によって集められた2008年から2012年までの犯罪データをベースに開発されたもので、
逮捕者のうち黒人やイスラム教徒が大半を占めて、WASPがほとんどいなかったりするんですかね。
>いっぽう、意思決定を歪めるリスクがあり注意深く評価されるべきという意見もある。
たとえば特定の人間のみを、合法的に拘束する便利な道具として利用することも可能。
入力項目には、人種とか宗教の項目はあるのかな?
再現性が重要 (スコア:3)
判定に用いた時点のデータセットがあれば、何度でも同じ条件で判定ができるし、誤った判定をした場合も条件を変えることでなにが主要因だったかを検証出来る。
AIによる判定を人による判断に変えて、さらにそのことによって人の責任を軽減するなら、少なくとも判断した時点のデータ一式の保持義務を設けて欲しいね。
Re: (スコア:0)
> >ダーラム警察によって集められた2008年から2012年までの犯罪データをベースに開発されたもので、
> 逮捕者のうち黒人やイスラム教徒が大半を占めて、WASPがほとんどいなかったりするんですかね。
英国での話だから、(米国に比べて) 黒人は少ない、ヒスパニックも少ない、インド系は多い? イスラムはわからない。
WASP ってのは英国から脱出した人たちなので、そもそも少ないのでは?
ただ、労働者階級の貧しい白人は多い気がする (移民が問題になる前から地方都市の治安が云々とかで)。
あと、アイルランド系のテロがあったけど、最近は落ち着いているのかな~?
Re: (スコア:0)
こういうのも怖い。
AIへの攻撃を検知 東大、画像の誤認防ぐ技術開発
http://www.sankeibiz.jp/business/news/170512/bsj1705120724007-n1.htm [sankeibiz.jp]
Re:あわせて読みたい (スコア:2)
ややこしいww
誤認識攻撃対応修正プログラム攻撃画像生成ツール用言語とかできてくんのか
人間との比較検証 (スコア:1)
人間が判断した場合の数字も書いてくれないと。
AIによる98%、88%だけじゃなくて。
Re: (スコア:0)
残念ながら、人間との比較は出来ても人間の判断が正しいかどうかは判断が難しいからなぁ。
いいね (スコア:0)
この調子でバージョンアップすれば、将来犯罪を起こす人を、犯罪が起きる前に事前に逮捕できるようになるな。
Re: (スコア:0)
残念ながら警察官や政治屋はバックドアの利用により判定出来なくなる予定です :)
# 多分冗談、うんきっと冗談だよね・・・
Re: (スコア:0)
そういえば大統領を辞めると必ず逮捕される国がありますね。
Re: (スコア:0)
前回は辞める前に告発されてますね
Re: (スコア:0)
参考までに教えて下さい。
少なくともお隣の国じゃないですよね。
逮捕されてない人も居ますから。
Re: (スコア:0)
暗殺された人とかかな?
Re: (スコア:0)
> 逮捕されてない人も居ますから。
それ、擁護になってるのかな...
Re: (スコア:0)
そもそもそれって擁護が要る話なのか?
「国のトップであっても法の裁きを受ける」ってのは普通に法治主義を表しているだけだろうに。
何故か法に明記されて居ないのにアンタッチャブルだって方が間違っているように思うが。
Re: (スコア:0)
逮捕されたのは側近だけで、本人は自殺で済んでいるケースもあったような。
Re: (スコア:0)
民主化後に退任した大統領6人のうち
逮捕,受刑,捜査中自殺というのは合わせて3人ですよね。
「必ず」ってのは違うんじゃないですか。
Re: (スコア:0)
そうそう、残りの三人は一~二親等の親族が逮捕・受刑しただけだよ。
Re: (スコア:0)
Re: (スコア:0)
サヨクは、そう主張していますね。
# 日本では、低支持率・スキャンダルに喘いで内閣総理大臣辞職・内閣総辞職など、珍しい話じゃないのに。
Re: (スコア:0)
一方アメリカでは飲酒運転で逮捕された人が普通に大統領になっていた
Re: (スコア:0)
犯罪係数高、執行対象です。
Re: (スコア:0)
おっさんだとPKDだよね。
Re: (スコア:0)
更に進んだシステムでは、生まれた時点で死刑確定とか
Re: (スコア:0)
お前に子供ができるとその子供は犯罪者になるから子供をつくるな
Re: (スコア:0)
あらゆるAI管理の選択肢は革命による体制崩壊を迎えることが予測されたため最効率化のため自壊しまsくぁwせdrftgyふじこlp;@:「」
シビュラシステム (スコア:0)
そのうちにサイコパスまでAIが判断するようになるのか。
ドミネーターはまだか?
Re: (スコア:0)
誤解しているようだが
サイコパスはシビュラシステムでは犯罪係数が正常値として判定される
ていうかシビュラシステムはAIじゃなく人の脳の集合知+監視社会
>ドミネーターはまだか?
武器がほしいの?
四六時中監視されたいの?
そろそろ詳細が出ますね。 (スコア:0)
お金ないけど楽しみです。
http://p-bandai.jp/b-boys-shop/special-1000007367/ [p-bandai.jp]
マイノリティリポート (スコア:0)
こんな感じの映画じゃなかったっけ