アカウント名:
パスワード:
どちらかを優先しようとしてる時点で完全に自立してると思うけどね。俺がコンピューターだったら責任逃れのために運転してる人間に聞くかな。
自動運転中なのに、いまにも人に衝突しそうでどうするかって時に、「どうしますか「右」「直進」「左」?」なんてモーダルダイアログボックスが出る車なんか乗りたくないw
どうしますか「右 歩行者のダメージ70%」「直進 ドライバーのダメージ60%」「左 歩行者ドライバー双方のダメージ50%」とか出るだろうね。究極の選択過ぎる…。
そこは、ぽちっとなと自縛ボタンで、自分もろともダメージ100%をだな…
現状の法律に則るとすれば、ドライバーに100%の過失があることになるでしょうから、ドライバーが死ぬのが一番合理的でしょうね。責任も取らなくて良いし。そのリスクを許容できないなら、車に乗らなければ良い。
そこは、"I'm feeling lucky"ボタンを押してGoogleに任せる場面ですね。
よく読もうよ「倫理的にコーディング出来ない。」って言ってるんだよ?車じゃなくって車にそうプログラムする人のほうの話でしょ
>どちらかを優先しようとしてる時点で完全に自立してると思うけどね。コーディングしてるのは人間だから(以下略)
>俺がコンピューターだったら責任逃れのために運転してる人間に聞くかな。満足なインターフェースやロジックのないコンピューターはそもそも採用されないから問題外
#そもそも責任逃れするような”コンピューターの責任”って何だよ?
いや、どちらかを優先しようとするルーチン(?)に処理を移行させようとしてる時点で自立してると思うけどね、という意味だったけど。そこから先はコーディング出来ないなら、人間に聞けばいいじゃんっていうノリの冗談のつもりだったんだけど…。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
あつくて寝られない時はhackしろ! 386BSD(98)はそうやってつくられましたよ? -- あるハッカー
完全自立型自動運転は絶対に無理 (スコア:1)
歩行者かドライバーか、どちらかを選択するとどちらかが危険に合う場合にどちらを優先するかというのが倫理的にコーディング出来ない。
車を運転しない人達は歩行者優先を望むだろうし、毎日のように車に乗る人はドライバー優先を望むだろう。
Re:完全自立型自動運転は絶対に無理 (スコア:2)
どちらかを優先しようとしてる時点で完全に自立してると思うけどね。
俺がコンピューターだったら責任逃れのために運転してる人間に聞くかな。
Re:完全自立型自動運転は絶対に無理 (スコア:1)
自動運転中なのに、
いまにも人に衝突しそうでどうするかって時に、
「どうしますか「右」「直進」「左」?」
なんてモーダルダイアログボックスが出る車なんか乗りたくないw
Re:完全自立型自動運転は絶対に無理 (スコア:2)
どうしますか「右 歩行者のダメージ70%」「直進 ドライバーのダメージ60%」「左 歩行者ドライバー双方のダメージ50%」
とか出るだろうね。
究極の選択過ぎる…。
Re: (スコア:0)
そこは、ぽちっとなと自縛ボタンで、自分もろともダメージ100%をだな…
Re: (スコア:0)
現状の法律に則るとすれば、ドライバーに100%の過失があることになるでしょうから、
ドライバーが死ぬのが一番合理的でしょうね。
責任も取らなくて良いし。
そのリスクを許容できないなら、車に乗らなければ良い。
Re:完全自立型自動運転は絶対に無理 (スコア:1)
そこは、"I'm feeling lucky"ボタンを押してGoogleに任せる場面ですね。
Re: (スコア:0)
よく読もうよ
「倫理的にコーディング出来ない。」って言ってるんだよ?
車じゃなくって車にそうプログラムする人のほうの話でしょ
>どちらかを優先しようとしてる時点で完全に自立してると思うけどね。
コーディングしてるのは人間だから(以下略)
>俺がコンピューターだったら責任逃れのために運転してる人間に聞くかな。
満足なインターフェースやロジックのないコンピューターはそもそも採用されないから問題外
#そもそも責任逃れするような”コンピューターの責任”って何だよ?
Re:完全自立型自動運転は絶対に無理 (スコア:2)
いや、どちらかを優先しようとするルーチン(?)に処理を移行させようとしてる時点で自立してると思うけどね、
という意味だったけど。
そこから先はコーディング出来ないなら、人間に聞けばいいじゃんっていうノリの冗談のつもりだったんだけど…。