アカウント名:
パスワード:
これ、どう見てもディストピアなんですが唯一ユートピアにつながる可能性もあって、この「犯罪の可能性」ってのが属人的なものでなく「環境要因」のみで決定されるなら、そのわずかな可能性が見えてくるんですよ。
つまり「犯罪者の息子」「怒りっぽい」でなく「犯罪の多い地域に住んでいる」「友人にギャングがいる」などの環境スコアを計算して出すってことです。それなら、そういった環境スコアを減らす対策を当局が取ることで全体的な犯罪率を下げることができるでしょう。
こういった環境要因の分析はたとえば銃犯罪の統計などで研究がなされており、たとえば「自宅に銃がある」と銃を用いた犯
「割れ窓」って奴ですね?
今まで経験則的にやってたのをシステム化する感じなのかな。このシステムの結果を単なるリファレンスの一つとするなら良いけど、このスコアを絶対とされたらという不安。
仮にAIが非常に優秀で正確だったとしても、人間が運用する時点でリファレンスとして扱うのも危険だと思う。算出する過程を第三者が客観的に検証できない限り、「AIの出したスコア」なんて運用段階でいくらでもでっち上げ可能だろうし。
> 算出する過程を第三者が客観的に検証
仮にモデルがmulti-layer neural networkであったとして、何をどう検証するのですか?
> 仮にモデルがmulti-layer neural networkであったとして、何をどう検証するのですか?
この場合、技術レイヤではなくて論理的な面の話。最終的なスコアがどんな要素をどう判断した結果算出されたのか、の妥当性を外部から検証できないと、スコアなんていじり放題だと思うんだけど違いますかね?
スコア算出の論理がmulti-layer neural networkだったらどうするのか?という話です。入力されたデータからスコアの算出するのが学習済みモデルなので、そのモデルを見ずにしてどのように論理を判断できるのでしょう?
ここでいうAIがただの線形モデルだったら、そのモデルの論理を理解するのも、パラメータ調整してチートするのも可能でしょう。しかし複雑なモデルを採用している場合、どうやってそのスコアの計算論理(計算自体は普通簡単ですが)を理解してその妥当性を判断するのか、少なくとも私にはわかりません。
> どうやってそのスコアの計算論理(計算自体は普通簡単ですが)を理解してその妥当性を判断するのか、少なくとも私にはわかりません。
いや、だから「妥当性の検証ができない方法で算出されたスコアを基準に判断するのは危険じゃないですか?」という話に対して「どうやって妥当性を判断するんですか」と返されても。判らないならなおさら「使えない」と判断するしかないんですが。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
長期的な見通しやビジョンはあえて持たないようにしてる -- Linus Torvalds
ディストピアかユートピアか (スコア:5, 興味深い)
これ、どう見てもディストピアなんですが
唯一ユートピアにつながる可能性もあって、
この「犯罪の可能性」ってのが属人的なものでなく「環境要因」のみで
決定されるなら、そのわずかな可能性が見えてくるんですよ。
つまり「犯罪者の息子」「怒りっぽい」でなく
「犯罪の多い地域に住んでいる」「友人にギャングがいる」
などの環境スコアを計算して出すってことです。
それなら、そういった環境スコアを減らす対策を当局が取ることで
全体的な犯罪率を下げることができるでしょう。
こういった環境要因の分析はたとえば銃犯罪の統計などで
研究がなされており、たとえば「自宅に銃がある」と銃を用いた犯
Re: (スコア:0)
「割れ窓」って奴ですね?
Re: (スコア:1)
今まで経験則的にやってたのをシステム化する感じなのかな。
このシステムの結果を単なるリファレンスの一つとするなら良いけど、このスコアを絶対とされたらという不安。
Re: (スコア:0)
仮にAIが非常に優秀で正確だったとしても、人間が運用する時点でリファレンスとして扱うのも危険だと思う。
算出する過程を第三者が客観的に検証できない限り、「AIの出したスコア」なんて運用段階でいくらでもでっち上げ可能だろうし。
Re:ディストピアかユートピアか (スコア:0)
> 算出する過程を第三者が客観的に検証
仮にモデルがmulti-layer neural networkであったとして、何をどう検証するのですか?
Re: (スコア:0)
> 仮にモデルがmulti-layer neural networkであったとして、何をどう検証するのですか?
この場合、技術レイヤではなくて論理的な面の話。最終的なスコアがどんな要素をどう判断した結果算出されたのか、の妥当性を外部から検証できないと、スコアなんていじり放題だと思うんだけど違いますかね?
Re: (スコア:0)
スコア算出の論理がmulti-layer neural networkだったらどうするのか?という話です。入力されたデータからスコアの算出するのが学習済みモデルなので、そのモデルを見ずにしてどのように論理を判断できるのでしょう?
ここでいうAIがただの線形モデルだったら、そのモデルの論理を理解するのも、パラメータ調整してチートするのも可能でしょう。しかし複雑なモデルを採用している場合、どうやってそのスコアの計算論理(計算自体は普通簡単ですが)を理解してその妥当性を判断するのか、少なくとも私にはわかりません。
Re: (スコア:0)
> どうやってそのスコアの計算論理(計算自体は普通簡単ですが)を理解してその妥当性を判断するのか、少なくとも私にはわかりません。
いや、だから「妥当性の検証ができない方法で算出されたスコアを基準に判断するのは危険じゃないですか?」という話に対して「どうやって妥当性を判断するんですか」と返されても。判らないならなおさら「使えない」と判断するしかないんですが。