アカウント名:
パスワード:
>アルゴリズムやハードウェアにおける万が一のエラー~
アルゴリズムやハードウェアのエラーは、直せば改善していきますが人が起こすエラーは、なかなか改善されませんよね。 *sigh*
すべての車が一斉に自動化されればまだいいですが、過渡期には「自動車」と「手動車」が共存するわけで…両者が事故を起こした場合、過失割合がどうなるのか、気になりますね。
# 「今月のパッチを当てていない自動車は過失割合 9割」とか
運転席に座ってるのがマルチだったら過失9割で、セリオだったら1割、みたいな?
人は誰に殺されたいのか、と。自分でミスって壁に突っ込むか、自動運転装置の最善の努力を超えた事故で不幸にも死ぬか。目があった他人が死ぬのを手出しできずに見守るか、自らの制御下で殺したいか、とか。
# 厨二臭くなってきたのでID
自動運転というメソッドを選択したことがある意味「運転」であり、自分の責任に帰すものではないでしょうか。したがって、自動運転に殺されるのと自分で操縦失敗して死ぬこととは何ら変わりないと思います。
おう、責任の解釈はもっともなんだ「受け入れられるか」っていう点はまた別だな。
事故るヤツは、誰も自分が事故するなんて思ってないもので事故が起こってからその覚悟と向き合うハメになる
ええと。このテの話をするときは、当然改善についても触れなきゃならんと思うのですが?人だろうが物だろうが改善・改良されていくのは当然のことです。もちろん重大事故の結果、人に関しては改善する未来が絶たれる可能性もありますが。
そういう比較の話ではなくリスクだけで見れば「俺、この道知らないからお前ヨロシク」と同じことです。要するに、自分に起因する事故の確率とのバランスでしかありません。問題になるとすれば、アルゴリズムの責任まで触れるとバグや欠陥じゃなくても最適化されなかった為に問題を引き起こす可能性があるってことです。あるいは何か問題が生じた時。それが最適であったと証明できるかという問いでも構いません。あとは、何かしらのアップデートが生じたとき、どこまで使用者の責になるかとか。少なくとも。そーいうところが定められていない現状では、誰も納得なんてしないでしょうね。
タクシーで事故にあったら、タクシーの運転手または会社等の責任だろう。プロが運転していた方が事故にあう可能性が少なかったとしても、チャラにするわけが無い。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
Stableって古いって意味だっけ? -- Debian初級
比較できることなんでしょうか? (スコア:3, すばらしい洞察)
>アルゴリズムやハードウェアにおける万が一のエラー~
アルゴリズムやハードウェアのエラーは、直せば改善していきますが
人が起こすエラーは、なかなか改善されませんよね。 *sigh*
==========================================
投稿処理前プレビュー確認後書込処理検証処理前反映可否確認処理後……
Re:比較できることなんでしょうか? (スコア:1, おもしろおかしい)
すべての車が一斉に自動化されればまだいいですが、過渡期には「自動車」と「手動車」が共存するわけで…
両者が事故を起こした場合、過失割合がどうなるのか、気になりますね。
# 「今月のパッチを当てていない自動車は過失割合 9割」とか
Re:比較できることなんでしょうか? (スコア:1)
運転席に座ってるのがマルチだったら過失9割で、セリオだったら1割、みたいな?
Re: (スコア:0)
たぶん全周を見るセンサや航法系の時系列情報を記録し続けるのはデフォでしょう。
事故へ至った過程を調べるには有用そうです。
#自動運転よりドライブレコーダー装備を急がせろとも思いますが。
Re: (スコア:0)
Re: (スコア:0)
月8円で済むって触れ込みで買ったのにあんまりじゃないですか!!
なんて悲劇が繰り返されないといいのですが
Re: (スコア:0)
Re: (スコア:0)
クソゲーで即死したときみたいな話か、と。
Re:比較できることなんでしょうか? (スコア:2)
人は誰に殺されたいのか、と。自分でミスって壁に突っ込むか、自動運転装置の最善の努力を超えた事故で不幸にも死ぬか。
目があった他人が死ぬのを手出しできずに見守るか、自らの制御下で殺したいか、とか。
# 厨二臭くなってきたのでID
Re:比較できることなんでしょうか? (スコア:2)
自動運転というメソッドを選択したことがある意味「運転」であり、自分の責任に帰すものではないでしょうか。
したがって、自動運転に殺されるのと自分で操縦失敗して死ぬこととは何ら変わりないと思います。
一人以外は全員敗者
それでもあきらめるより熱くなれ
プレデターには殺されたくない (スコア:2, 参考になる)
これの延長線上という事ですね。
しかし、私はプレデターの様な無人機に殺されるよりは、断然有人の攻撃機に殺されたいなぁ。
Re:プレデターには殺されたくない (スコア:1)
リモコン操縦のプレデターにやられる方がマシな気がする。
これは殺す側にも心の痛みがあるだろうという、淡い期待だろうか?
Re: (スコア:0)
「自分たちを殺すため危険を冒してわざわざやってきたパイロット」と、
「どっか遠くで発進ボタンを押しただけの奴」では、
後者のほうがずっとムカつく、という問題のように感じられます。
人は危険より責任に敏感かもしれない (スコア:0)
「同乗者」とみなされ責任を問われないなら、大きな問題が発生しない限りは乗る。
Re: (スコア:0)
おう、責任の解釈はもっともなんだ
「受け入れられるか」っていう点はまた別だな。
事故るヤツは、誰も自分が事故するなんて思ってないもので
事故が起こってからその覚悟と向き合うハメになる
Re:比較できることなんでしょうか? (スコア:1)
ええと。このテの話をするときは、当然改善についても触れなきゃならんと思うのですが?
人だろうが物だろうが改善・改良されていくのは当然のことです。
もちろん重大事故の結果、人に関しては改善する未来が絶たれる可能性もありますが。
そういう比較の話ではなくリスクだけで見れば「俺、この道知らないからお前ヨロシク」と同じことです。
要するに、自分に起因する事故の確率とのバランスでしかありません。
問題になるとすれば、アルゴリズムの責任まで触れると
バグや欠陥じゃなくても最適化されなかった為に問題を引き起こす可能性があるってことです。
あるいは何か問題が生じた時。それが最適であったと証明できるかという問いでも構いません。
あとは、何かしらのアップデートが生じたとき、どこまで使用者の責になるかとか。
少なくとも。そーいうところが定められていない現状では、誰も納得なんてしないでしょうね。
==========================================
投稿処理前プレビュー確認後書込処理検証処理前反映可否確認処理後……
Re:比較できることなんでしょうか? (スコア:1)
例えば、次の例で受容のしやすさを問われているとすれば、社会的には過去事例があるだけ(a)より(b)が受け入れられやすいと想像する。
(a)自動運転の自動車に乗車中の事故
(b)自動運転の電車に乗車中の事故 …つ ニュートラム, ゆりかもめ etc
ここで、近い将来を例示してみる。あくまで例であるが。
(a') Google car?
(b') 軌道を廃したITS隊列自動運転 …ただし、新東名で予定されている代物は、いまのところ貨物専用だ。
どうお感じになるだろう?
(b')は列車・路面電車の事故にあったと想像すれば、比較的に実情に近いであろうというアドバイスも可能だ。頻度は格段に低いが、事故に至ったときの被害は大きい。
少し突っ込んで、より定量的に今時っぽく捉えたいのであれば、ハザード分析/リスクアセスメントの考え方がある程度、有効だと言える。Severity/Exposure/Controllabilityの3パラメータで語られる、業界関係者にはおなじみのアレ(機能安全: IEC61508)だ。
事故の起きやすさ・深刻さは道具によって様々なのは当然だが、最終的な事故に至るまでの様々なハザードが許容できる水準まで押さえられており、かつ本質的に除去できない程度の事故であれば社会的には受容される。
また、鉄道も自動車も人力車であっても、乗客を乗せて移動する道具で同一プロパティの機器だと言える。個人的な主観だが、同じ「乗り物」と呼べる道具なら、昔、蒸気機関車が登場したり、自動車・バイクが登場した直後の社会的影響を演繹して考えれば充分じゃないかな。
Re: (スコア:0)
Re: (スコア:0)
まあ、自分でブレーキとアクセルを踏み間違えておいて、メーカーの責任を問うようなモンスタークレーマーなら、何でもメーカーの責任にしたがるでしょうけどね。
Re: (スコア:0)
タクシーで事故にあったら、タクシーの運転手または会社等の責任だろう。プロが運転していた方が事故にあう可能性が少なかったとしても、チャラにするわけが無い。
Re: (スコア:0)
劣化もするけど。