アカウント名:
パスワード:
「Google、黒人を誤って「ゴリラ」とタグ付け」 https://it.srad.jp/story/15/07/02/1015256/ [it.srad.jp] 「HPのパソコン、「人種差別的」と非難される」 https://srad.jp/story/10/01/06/0122212/ [srad.jp]
「人工知能に潜む5つのバイアス」 http://jp.techcrunch.com/2016/12/12/201612105-unexpected-sources-of-bi... [techcrunch.com] 「私たちは何かと、マシン、特にスマートマシンを、冷静に計算しバイアス(偏り、偏見)がないものと考える傾向がある。私たちは、自動運転車は、運転手と無作為な歩行者の間の生死の決定に対して、好みを持っていないと考えている。また私たちは、信用調査を
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
アレゲはアレゲ以上のなにものでもなさげ -- アレゲ研究家
あわせて読みたい (スコア:1)
「Google、黒人を誤って「ゴリラ」とタグ付け」 https://it.srad.jp/story/15/07/02/1015256/ [it.srad.jp]
「HPのパソコン、「人種差別的」と非難される」 https://srad.jp/story/10/01/06/0122212/ [srad.jp]
「人工知能に潜む5つのバイアス」 http://jp.techcrunch.com/2016/12/12/201612105-unexpected-sources-of-bi... [techcrunch.com]
「私たちは何かと、マシン、特にスマートマシンを、冷静に計算しバイアス(偏り、偏見)がないものと考える傾向がある。私たちは、自動運転車は、運転手と無作為な歩行者の間の生死の決定に対して、好みを持っていないと考えている。また私たちは、信用調査を
再現性が重要 (スコア:3)
判定に用いた時点のデータセットがあれば、何度でも同じ条件で判定ができるし、誤った判定をした場合も条件を変えることでなにが主要因だったかを検証出来る。
AIによる判定を人による判断に変えて、さらにそのことによって人の責任を軽減するなら、少なくとも判断した時点のデータ一式の保持義務を設けて欲しいね。