アカウント名:
パスワード:
この原則を作った人は、SFに出てくるような人工知能を想定してるのかもしれんが、現実のAIはそれらにはるかに及ばない
機械学習と、SFに出てくるAIはまったく別なのに、ただの機械学習をSFの人工知能とごっちゃにしてるのでは?
全然そうは思わない。現実問題として、人種差別発言を繰り返すようになったMicrosoftのチャットボットとか、男性有利等のステレオタイプ的な採用選考を助長する懸念があるため採用選考でのAI利用を断念した話とかあるわけでしょ。現実的な話ですよ。
AI利用する人は、それによって他人の基本的人権を損なうことがないようすべきだし、そういう事態が発生したときに「なにぶんAIがやったことなので」という言い訳は許されない、そういうふうに制度設計をしていこう、というのは正しい方向性だと思います。
どちらも基本的人権を侵してないのでは?さらに特に後者なんかは学習データのせいで、もともとそういう採用をしていたからそうなったのであってAIが原因ではない。
SFに出てくるAIであればこういう原則合ったほうがいいようなという気がする。でも機械学習では人がそう作っているからそうなるのであって、AIが悪いわけじゃない。基本的人権を損なうことがないようにすべきというのは同意するけど、それはわざわざAIに限定する必要もない問題。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
普通のやつらの下を行け -- バッドノウハウ専門家
SFと現実のAIの区別がつかない人 (スコア:0)
この原則を作った人は、SFに出てくるような人工知能を想定してるのかもしれんが、
現実のAIはそれらにはるかに及ばない
機械学習と、SFに出てくるAIはまったく別なのに、
ただの機械学習をSFの人工知能とごっちゃにしてるのでは?
Re: (スコア:0)
全然そうは思わない。
現実問題として、人種差別発言を繰り返すようになったMicrosoftのチャットボットとか、
男性有利等のステレオタイプ的な採用選考を助長する懸念があるため採用選考でのAI利用を断念した話とかあるわけでしょ。
現実的な話ですよ。
AI利用する人は、それによって他人の基本的人権を損なうことがないようすべきだし、
そういう事態が発生したときに「なにぶんAIがやったことなので」という言い訳は許されない、
そういうふうに制度設計をしていこう、というのは正しい方向性だと思います。
Re: (スコア:0)
どちらも基本的人権を侵してないのでは?
さらに特に後者なんかは学習データのせいで、もともとそういう採用をしていたからそうなったのであってAIが原因ではない。
SFに出てくるAIであればこういう原則合ったほうがいいようなという気がする。
でも機械学習では人がそう作っているからそうなるのであって、AIが悪いわけじゃない。基本的人権を損なうことがないようにすべきというのは同意するけど、それはわざわざAIに限定する必要もない問題。