アカウント名:
パスワード:
「Google、黒人を誤って「ゴリラ」とタグ付け」 https://it.srad.jp/story/15/07/02/1015256/ [it.srad.jp]「HPのパソコン、「人種差別的」と非難される」 https://srad.jp/story/10/01/06/0122212/ [srad.jp]
「人工知能に潜む5つのバイアス」 http://jp.techcrunch.com/2016/12/12/201612105-unexpected-sources-of-bi... [techcrunch.com]「私たちは何かと、マシン、特にスマートマシンを、冷静に計算しバイアス(偏り、偏見)がないものと考える傾向がある。私たちは、自動運転車は、運転手と無作為な歩行者の間の生死の決定に対して、好みを持っていないと考えている。また私たちは、信用調査を実施するスマートシステムは、収入やFICOスコアなどの真にインパクトのある指標以外は無視しているものと信頼している。そして私たちは、学習システムは、バイアスのないアルゴリズムによって動作しているのだから、常に真理に基づいた地点に達するものだと考えている。機械の厳格な視点の外側は感情的であるはずはないと考える人もいる。また機械は人間のバイアスから自由であるはずだと思う人もいる。そしてその中間として、機械は客観的だという見方がある。もちろん、そんなことは全くない。現実には、純粋にバイアスのない知的システムは非常に少ないだけでなく、バイアスにも複数の源泉がある。」
「バイアスなきAIを創るのは、なぜ難しいのか」 http://jp.techcrunch.com/2016/11/09/20161107why-its-so-hard-to-create-... [techcrunch.com]「だが結局、機械は投入されたデータ以上に賢くなることはできない。そして、それこそが機械学習に特有の問題を生んでいる。アルゴリズムをトレーニングするために使用したデータによっては、機械が悪の心を持つことも、バイアスを持つこともあり得るからだ。」「このコンテストでは人間の審査員がもつバイアスを排除できるはずだった。しかし、結果はいくらか期待外れのものだった:44人の受賞者のうち、白人がその大半を占め、アジア人の受賞者は数えるほどしかいなかったのだ。褐色の肌を持つ受賞者にいたっては、そのうち1人しかいなかった。この結果について、Motherboardが掲載した記事では、アルゴリズムをトレーニングする際に使われた画像サンプル自体がもつ、人種や民族に対するバイアスがこの結果を生む原因となったのだと結論づけている。」
>ダーラム警察によって集められた2008年から2012年までの犯罪データをベースに開発されたもので、逮捕者のうち黒人やイスラム教徒が大半を占めて、WASPがほとんどいなかったりするんですかね。
>いっぽう、意思決定を歪めるリスクがあり注意深く評価されるべきという意見もある。たとえば特定の人間のみを、合法的に拘束する便利な道具として利用することも可能。入力項目には、人種とか宗教の項目はあるのかな?
> >ダーラム警察によって集められた2008年から2012年までの犯罪データをベースに開発されたもので、> 逮捕者のうち黒人やイスラム教徒が大半を占めて、WASPがほとんどいなかったりするんですかね。
英国での話だから、(米国に比べて) 黒人は少ない、ヒスパニックも少ない、インド系は多い? イスラムはわからない。WASP ってのは英国から脱出した人たちなので、そもそも少ないのでは?ただ、労働者階級の貧しい白人は多い気がする (移民が問題になる前から地方都市の治安が云々とかで)。あと、アイルランド系のテロがあったけど、最近は落ち着いているのかな~?
こういうのも怖い。
AIへの攻撃を検知 東大、画像の誤認防ぐ技術開発http://www.sankeibiz.jp/business/news/170512/bsj1705120724007-n1.htm [sankeibiz.jp]
ややこしいww誤認識攻撃対応修正プログラム攻撃画像生成ツール用言語とかできてくんのか
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
海軍に入るくらいなら海賊になった方がいい -- Steven Paul Jobs
あわせて読みたい (スコア:1)
「Google、黒人を誤って「ゴリラ」とタグ付け」 https://it.srad.jp/story/15/07/02/1015256/ [it.srad.jp]
「HPのパソコン、「人種差別的」と非難される」 https://srad.jp/story/10/01/06/0122212/ [srad.jp]
「人工知能に潜む5つのバイアス」 http://jp.techcrunch.com/2016/12/12/201612105-unexpected-sources-of-bi... [techcrunch.com]
「私たちは何かと、マシン、特にスマートマシンを、冷静に計算しバイアス(偏り、偏見)がないものと考える傾向がある。私たちは、自動運転車は、運転手と無作為な歩行者の間の生死の決定に対して、好みを持っていないと考えている。また私たちは、信用調査を実施するスマートシステムは、収入やFICOスコアなどの真にインパクトのある指標以外は無視しているものと信頼している。そして私たちは、学習システムは、バイアスのないアルゴリズムによって動作しているのだから、常に真理に基づいた地点に達するものだと考えている。
機械の厳格な視点の外側は感情的であるはずはないと考える人もいる。また機械は人間のバイアスから自由であるはずだと思う人もいる。そしてその中間として、機械は客観的だという見方がある。
もちろん、そんなことは全くない。現実には、純粋にバイアスのない知的システムは非常に少ないだけでなく、バイアスにも複数の源泉がある。」
「バイアスなきAIを創るのは、なぜ難しいのか」 http://jp.techcrunch.com/2016/11/09/20161107why-its-so-hard-to-create-... [techcrunch.com]
「だが結局、機械は投入されたデータ以上に賢くなることはできない。そして、それこそが機械学習に特有の問題を生んでいる。アルゴリズムをトレーニングするために使用したデータによっては、機械が悪の心を持つことも、バイアスを持つこともあり得るからだ。」
「このコンテストでは人間の審査員がもつバイアスを排除できるはずだった。しかし、結果はいくらか期待外れのものだった:44人の受賞者のうち、白人がその大半を占め、アジア人の受賞者は数えるほどしかいなかったのだ。褐色の肌を持つ受賞者にいたっては、そのうち1人しかいなかった。この結果について、Motherboardが掲載した記事では、アルゴリズムをトレーニングする際に使われた画像サンプル自体がもつ、人種や民族に対するバイアスがこの結果を生む原因となったのだと結論づけている。」
>ダーラム警察によって集められた2008年から2012年までの犯罪データをベースに開発されたもので、
逮捕者のうち黒人やイスラム教徒が大半を占めて、WASPがほとんどいなかったりするんですかね。
>いっぽう、意思決定を歪めるリスクがあり注意深く評価されるべきという意見もある。
たとえば特定の人間のみを、合法的に拘束する便利な道具として利用することも可能。
入力項目には、人種とか宗教の項目はあるのかな?
再現性が重要 (スコア:3)
判定に用いた時点のデータセットがあれば、何度でも同じ条件で判定ができるし、誤った判定をした場合も条件を変えることでなにが主要因だったかを検証出来る。
AIによる判定を人による判断に変えて、さらにそのことによって人の責任を軽減するなら、少なくとも判断した時点のデータ一式の保持義務を設けて欲しいね。
Re: (スコア:0)
> >ダーラム警察によって集められた2008年から2012年までの犯罪データをベースに開発されたもので、
> 逮捕者のうち黒人やイスラム教徒が大半を占めて、WASPがほとんどいなかったりするんですかね。
英国での話だから、(米国に比べて) 黒人は少ない、ヒスパニックも少ない、インド系は多い? イスラムはわからない。
WASP ってのは英国から脱出した人たちなので、そもそも少ないのでは?
ただ、労働者階級の貧しい白人は多い気がする (移民が問題になる前から地方都市の治安が云々とかで)。
あと、アイルランド系のテロがあったけど、最近は落ち着いているのかな~?
Re: (スコア:0)
こういうのも怖い。
AIへの攻撃を検知 東大、画像の誤認防ぐ技術開発
http://www.sankeibiz.jp/business/news/170512/bsj1705120724007-n1.htm [sankeibiz.jp]
Re:あわせて読みたい (スコア:2)
ややこしいww
誤認識攻撃対応修正プログラム攻撃画像生成ツール用言語とかできてくんのか