アカウント名:
パスワード:
逆に、この20%がなにを根拠に信頼できると考えているのかが謎だ。
まだ自分で使ったこともない、いまだ研究中でどう仕上がって出てくるかも不明な新しい技術に、自分の命を預けるということになぜ不安が無いんだろう。
根拠はデータかな。人間の事故率は平均で50万kmに1件ほどだというけど、Googleの自動運転車は200万km走ってこの間1件過失事故を起こしたというレベルだ。データ上はもはや人間と大差ない。交差点で停車中に追突された事故まで自動運転車のせいにする訳のわからん奴もいるけど、それを含めても20万kmに一件だ。
不安がっている人のほうこそ、なぜそんなに自分の運転に自信たっぷりなのさ。人間は疲れたり眠かったりするだけですぐ注意力が落ちる。あまりに不安定だ。そんな状態でも運転しなきゃならないときはあるし、俺は自分の命が大切だから、そういうときこそ自動運転に任せたい。そんなに自動運転が怖いなら、航空機が自動操縦で飛んでいることを知ったら心臓が止まってしまうかもね
そら航空機の自動パイロットと自動車の自動運転では実績が違うからな。
航空機の実績は自動運転車より高いという人は、200万kmに事故一件は人間の事故率より低い、という実績をどうして無視するんだろうか。結局自分の都合のいいデータは「実績」として受け入れるが、恐怖を感じていることに関してはデータを実績として受け入れないというだけじゃん
> Googleの自動運転車は200万km走ってこの間1件過失事故を起こしたというレベルだ。
それはシステムの弱点を知り尽くした開発者自身が乗り込んで、危ないと感じた時はすぐ手動に切り替えて運転するという運用方式での200万kmだから。一般人を乗せる場合にそのまま当てはめられるものではないだろう。
開発者が「ここはAIがうまく扱えないかもしれない」と判断する勘所を、一般人は持っていない。
> 何らかの理由でマニュアル運転に切り替えた回数は、2014年9月から累計で272回。その内69回は安全性に関連する操作だった。Googleはその69回をシミュレーションし、13回は切り替えなければ他の自動車や物体(その内2件は工事現場などにある円錐形のコーン)に接触していた可能性があると報告した。13回中10回は技術的な問題で、残りの3回は他のドライバーの運転が原因としている。
http://www.itmedia.co.jp/news/articles/1601/14/news079.html [itmedia.co.jp]
マニュアルに切り替えて事故を回
ソフトウェアの開発なんかでもそうだけど、開発者にバグ出しをやらせたってはかどらないんだよ。開発時に想定していた範囲内でのテストしか組まず、無意識にシステムの弱点を避けて通る。だからバグ出しは開発とは無関係の素人に操作させて行う。実際に使うのも素人だしね。
Googleの自動運転は、まだその段階まで行ってないだろう。
> なお、このテストドライバーの座を射止めるための近道は、「すでにテストドライバーになったことがある人と知り合いになること」だそうです。紹介ベースで人選が行われることもあるようですが、これに加えてGoogleでは頭脳明晰で社会的にきちんとしており、観察力の鋭い人物を求めているとのことです。
http://gigazine.net/news/20160115-behind-google-autonomous-car-testing... [gigazine.net]
テストドライバーは開発者自身じゃないようだけど。
最初は「何を根拠にしているのかわからない。信頼出来ない」という話だったのに、いざデータを示されると、次は「開発者がマニュアル
いやいや、よく記事を読みなさいよ。助手席にスタッフが常駐しているって書いてあるでしょ。
助手席のスタッフは常にこの画面と実際の道路の状況を比較する仕事を担当し、コンピューターが正しく状況を認識していないと判断した場合には、「Disengage」の指令を行うことになっています。
これが"開発者が「ここはAIがうまく扱えないかもしれない」と判断する"ってことですよ。
そして、そこでのテストは試験用に用意された場所で、一般道ではないでしょう。それが「開発時に想定していた範囲内でのテストしか組まれない」という話ですよ。
こういう状況下での200万kmの「実績」と「人間の事故率は平均で50万kmに1件」とを同列で比べることはできませんよ。
> これが"開発者が「ここはAIがうまく扱えないかもしれない」と判断する"ってことですよ。
そんなことは書いてないけど。もう一度よく読んでみようか。
> 助手席に座ったスタッフの前にはノートPCが置かれます。ノートPCには「x_view」と呼ばれるインターフェースが組み込まれており、その時に自動運転がどんな風に周囲の状況を「見ている」のかがリアルタイムで表示されています。画面には道路の状況はもちろん、周囲の建物や他の車両、バイクや歩行者などありとあらゆる道路状況、そして自車の走行ルートや予想進路などが表示されています。> 助手席のスタッフは常
トレーニングと公道テストの件は勘違いだった。すまん。
しかしDisengageの件は「『AIがうまく扱えないかもしれない』などと判断する」と「『AIが実際に状況をうまく扱えていない』と判断する」との違いで、やはり専門の知識を持った開発者が車の運行状況をみて自動運転の中止を判断しているというのは変わらないのではないか?
公道に乗り出すときもやはり助手席のスタッフは一緒なのだろう?
Disengageの方法は声によるコマンドだけでなく、ハードウェアボタンで強制的に手動運転に切り替えることも可能とのこと。運転席と助手席の間にあるセンターコンソールには、以下のような赤い大きなボタン「BRB(Big Red Button)が据え付けられており、万が一の事態にも確実に自動運転を解除できるようにもなっています。
> 公道に乗り出すときもやはり助手席のスタッフは一緒なのだろう?
そのスタッフをトレーニングしてるんだから、そのまま公道テストもそのスタッフがやるだろう
> 今回はGoogleの判断のもと、Levy氏は短時間のトレーニングで特別にプログラムに参加することが許可されたとのことです。
実際に素人であるLevy氏っていう記者が助手席に乗ってその作業をしてみたって書いてあるじゃん専門の知識が必要なら、記者が「短時間のトレーニング」でその日のうちに助手席スタッフなんかできないでしょ
ノートPCにコンピュータが周囲をどんなふうに認識してるか表示しているGIF画像があるじゃ
> 実際に素人であるLevy氏っていう記者が助手席に乗ってその作業をしてみたって書いてあるじゃん
ん?「Googleスタッフからの説明を受け、Levy氏は運転席に座って実際の走行に入ります。」って書いてあるけど?
運転席の周囲警戒担当と、助手席のコンピュータ監視の二人一組なんでしょ。操作できるのは緊急停止(自動操縦は完全にオフ)と再開だけ。それで200万キロ運転して事故に至る可能性があったのが10件そこら。
人間の介入なしで接触事故の恐れがあったケースが200万kmで13件ってのをいい加減に認めたら?何億kmを自動で運転したら「Googleの自動運転は、まだその段階まで行ってないだろう。」って逃げるのを止めるの?
> 「Googleスタッフからの説明を受け、Levy氏は運転席に座って実際の走行に入ります。」って書いてあるけど?
ああ、これは俺の誤読だ。訂正する。Levy氏は運転席側に乗っていた。正しくは、開発者でないスタッフが、紹介を受けてこのプログラムに参加し、この施設で訓練のあと、行動でテストに参加する。
無敵くんのコロコロ変わる主張のまとめ:
(1)「何を根拠にしているのかわからない。信頼出来ない」→200万kmで事故1件というデータが根拠になる(2) 「開発者がマニュアルに切り替えて回避しているから信頼出来ない」→
根拠レスに考えれば9割位は普通の道走ってるんじゃないの?と思う。平日昼間の電車運行が平均遅延率を下げるのと似たような。
例外的な環境をどの程度網羅できてるのか気になる。・そもそも地図データが間違ってる場合・突発的な災害や工事などで微妙な迂回や片側相互通行の場合・雪が積もってて、さらに降ってる場合・豪雨の場合・センサーが一部故障した場合・上記複合した場合
あと、自律運転だとコース指定しない場合は自動的にコースが決まるんだろうけどGoogle含めていまだに結構バカなルート選択がしばしばあるんで、そこからまず信用できないと言うところはある。
上空では飛び出してくる物が居ない。離着陸時の鳥くらいだから。
「航空機の自動運転のほうがはるかに簡単だから、自動車の自動運転は信頼出来ない」
この主張、理由と結論が結びついていないことに気づかないのだろうか。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
弘法筆を選ばず、アレゲはキーボードを選ぶ -- アレゲ研究家
「自律走行を信頼できると答えた人は全体の20%にとどまる。」 (スコア:0)
逆に、この20%がなにを根拠に信頼できると考えているのかが謎だ。
まだ自分で使ったこともない、いまだ研究中でどう仕上がって出てくるかも不明な新しい技術に、
自分の命を預けるということになぜ不安が無いんだろう。
Re:「自律走行を信頼できると答えた人は全体の20%にとどまる。」 (スコア:0)
根拠はデータかな。
人間の事故率は平均で50万kmに1件ほどだというけど、
Googleの自動運転車は200万km走ってこの間1件過失事故を起こしたというレベルだ。データ上はもはや人間と大差ない。
交差点で停車中に追突された事故まで自動運転車のせいにする訳のわからん奴もいるけど、それを含めても20万kmに一件だ。
不安がっている人のほうこそ、なぜそんなに自分の運転に自信たっぷりなのさ。
人間は疲れたり眠かったりするだけですぐ注意力が落ちる。あまりに不安定だ。
そんな状態でも運転しなきゃならないときはあるし、俺は自分の命が大切だから、そういうときこそ自動運転に任せたい。
そんなに自動運転が怖いなら、航空機が自動操縦で飛んでいることを知ったら心臓が止まってしまうかもね
Re:「自律走行を信頼できると答えた人は全体の20%にとどまる。」 (スコア:1)
そら航空機の自動パイロットと自動車の自動運転では実績が違うからな。
Re: (スコア:0)
航空機の実績は自動運転車より高いという人は、200万kmに事故一件は人間の事故率より低い、という実績をどうして無視するんだろうか。
結局自分の都合のいいデータは「実績」として受け入れるが、恐怖を感じていることに関してはデータを実績として受け入れないというだけじゃん
Re: (スコア:0)
> Googleの自動運転車は200万km走ってこの間1件過失事故を起こしたというレベルだ。
それはシステムの弱点を知り尽くした開発者自身が乗り込んで、
危ないと感じた時はすぐ手動に切り替えて運転するという運用方式での200万kmだから。
一般人を乗せる場合にそのまま当てはめられるものではないだろう。
開発者が「ここはAIがうまく扱えないかもしれない」と判断する勘所を、一般人は持っていない。
Re: (スコア:0)
> 何らかの理由でマニュアル運転に切り替えた回数は、2014年9月から累計で272回。その内69回は安全性に関連する操作だった。Googleはその69回をシミュレーションし、13回は切り替えなければ他の自動車や物体(その内2件は工事現場などにある円錐形のコーン)に接触していた可能性があると報告した。13回中10回は技術的な問題で、残りの3回は他のドライバーの運転が原因としている。
http://www.itmedia.co.jp/news/articles/1601/14/news079.html [itmedia.co.jp]
マニュアルに切り替えて事故を回
Re: (スコア:0)
ソフトウェアの開発なんかでもそうだけど、開発者にバグ出しをやらせたってはかどらないんだよ。
開発時に想定していた範囲内でのテストしか組まず、無意識にシステムの弱点を避けて通る。
だからバグ出しは開発とは無関係の素人に操作させて行う。
実際に使うのも素人だしね。
Googleの自動運転は、まだその段階まで行ってないだろう。
Re: (スコア:0)
> なお、このテストドライバーの座を射止めるための近道は、「すでにテストドライバーになったことがある人と知り合いになること」だそうです。紹介ベースで人選が行われることもあるようですが、これに加えてGoogleでは頭脳明晰で社会的にきちんとしており、観察力の鋭い人物を求めているとのことです。
http://gigazine.net/news/20160115-behind-google-autonomous-car-testing... [gigazine.net]
テストドライバーは開発者自身じゃないようだけど。
最初は「何を根拠にしているのかわからない。信頼出来ない」という話だったのに、いざデータを示されると、
次は「開発者がマニュアル
Re: (スコア:0)
いやいや、よく記事を読みなさいよ。助手席にスタッフが常駐しているって書いてあるでしょ。
助手席のスタッフは常にこの画面と実際の道路の状況を比較する仕事を担当し、
コンピューターが正しく状況を認識していないと判断した場合には、「Disengage」の指令を行うことになっています。
これが"開発者が「ここはAIがうまく扱えないかもしれない」と判断する"ってことですよ。
そして、そこでのテストは試験用に用意された場所で、一般道ではないでしょう。
それが「開発時に想定していた範囲内でのテストしか組まれない」という話ですよ。
こういう状況下での200万kmの「実績」と「人間の事故率は平均で50万kmに1件」とを
同列で比べることはできませんよ。
Re: (スコア:0)
> これが"開発者が「ここはAIがうまく扱えないかもしれない」と判断する"ってことですよ。
そんなことは書いてないけど。もう一度よく読んでみようか。
> 助手席に座ったスタッフの前にはノートPCが置かれます。ノートPCには「x_view」と呼ばれるインターフェースが組み込まれており、その時に自動運転がどんな風に周囲の状況を「見ている」のかがリアルタイムで表示されています。画面には道路の状況はもちろん、周囲の建物や他の車両、バイクや歩行者などありとあらゆる道路状況、そして自車の走行ルートや予想進路などが表示されています。
> 助手席のスタッフは常
Re: (スコア:0)
トレーニングと公道テストの件は勘違いだった。すまん。
しかしDisengageの件は
「『AIがうまく扱えないかもしれない』などと判断する」と「『AIが実際に状況をうまく扱えていない』と判断する」
との違いで、やはり専門の知識を持った開発者が車の運行状況をみて自動運転の中止を判断している
というのは変わらないのではないか?
公道に乗り出すときもやはり助手席のスタッフは一緒なのだろう?
Disengageの方法は声によるコマンドだけでなく、ハードウェアボタンで
強制的に手動運転に切り替えることも可能とのこと。
運転席と助手席の間にあるセンターコンソールには、以下のような赤い大きなボタン
「BRB(Big Red Button)が据え付けられており、万が一の事態にも確実に自動運転を解除できるようにもなっています。
Re: (スコア:0)
> 公道に乗り出すときもやはり助手席のスタッフは一緒なのだろう?
そのスタッフをトレーニングしてるんだから、そのまま公道テストもそのスタッフがやるだろう
> 今回はGoogleの判断のもと、Levy氏は短時間のトレーニングで特別にプログラムに参加することが許可されたとのことです。
実際に素人であるLevy氏っていう記者が助手席に乗ってその作業をしてみたって書いてあるじゃん
専門の知識が必要なら、記者が「短時間のトレーニング」でその日のうちに助手席スタッフなんかできないでしょ
ノートPCにコンピュータが周囲をどんなふうに認識してるか表示しているGIF画像があるじゃ
Re: (スコア:0)
> 実際に素人であるLevy氏っていう記者が助手席に乗ってその作業をしてみたって書いてあるじゃん
ん?
「Googleスタッフからの説明を受け、Levy氏は運転席に座って実際の走行に入ります。」
って書いてあるけど?
Re: (スコア:0)
運転席の周囲警戒担当と、助手席のコンピュータ監視の二人一組なんでしょ。
操作できるのは緊急停止(自動操縦は完全にオフ)と再開だけ。それで200万キロ運転して事故に至る可能性があったのが10件そこら。
Re: (スコア:0)
人間の介入なしで接触事故の恐れがあったケースが200万kmで13件ってのをいい加減に認めたら?
何億kmを自動で運転したら「Googleの自動運転は、まだその段階まで行ってないだろう。」って逃げるのを止めるの?
Re: (スコア:0)
> 「Googleスタッフからの説明を受け、Levy氏は運転席に座って実際の走行に入ります。」って書いてあるけど?
ああ、これは俺の誤読だ。訂正する。Levy氏は運転席側に乗っていた。
正しくは、開発者でないスタッフが、紹介を受けてこのプログラムに参加し、この施設で訓練のあと、行動でテストに参加する。
無敵くんのコロコロ変わる主張のまとめ:
(1)「何を根拠にしているのかわからない。信頼出来ない」→200万kmで事故1件というデータが根拠になる
(2) 「開発者がマニュアルに切り替えて回避しているから信頼出来ない」→
Re: (スコア:0)
根拠レスに考えれば9割位は普通の道走ってるんじゃないの?と思う。
平日昼間の電車運行が平均遅延率を下げるのと似たような。
例外的な環境をどの程度網羅できてるのか気になる。
・そもそも地図データが間違ってる場合
・突発的な災害や工事などで微妙な迂回や片側相互通行の場合
・雪が積もってて、さらに降ってる場合
・豪雨の場合
・センサーが一部故障した場合
・上記複合した場合
あと、自律運転だとコース指定しない場合は自動的にコースが決まるんだろうけど
Google含めていまだに結構バカなルート選択がしばしばあるんで、
そこからまず信用できないと言うところはある。
Re: (スコア:0)
上空では飛び出してくる物が居ない。
離着陸時の鳥くらいだから。
Re: (スコア:0)
Re: (スコア:0)
「航空機の自動運転のほうがはるかに簡単だから、自動車の自動運転は信頼出来ない」
この主張、理由と結論が結びついていないことに気づかないのだろうか。