アカウント名:
パスワード:
パイロット一人制より0人制の方が信用できそう。
ボーイング、完全自動運転のジェット機を開発へ──でも「ほぼ自動」は、すでに実現している [wired.jp]
まだ実現できてないけどね。
どういった根拠に基づいて0人が信用できるのか?
ヒューマンエラーのリスクもあるが、精神に異常をきたしたパイロットはたまに出現するのよ。
日本航空350便墜落事故 [wikipedia.org]
ジャーマンウイングス9525便墜落事故 [wikipedia.org]
ロイヤル・エア・モロッコ630便墜落事故 [wikipedia.org]
LAMモザンビーク航空470便墜落事故 [wikipedia.org]
精神に異常をきたしたAIが登場するのも時間の問題だけどな
もう居るでしょ。だったら禿げてないのに増毛の広告なんか表示されないはず。
AIが将来を予測してるだけでしょ。備えよ。
つまりAIは禿げている、と。
AIに神は不要
北海道の日本海側への旅行の計画があるとかじゃね?
精神を持ったAIなんて全く目処が立っていないはずだけれども。意識のハードプロブレムの解決は遠い。
イーロンにクビにされたツイッター社員が箱の中に入って人力AIやってくれるんじゃね
精神を持った人間の所作を十分に学習すれば、精神は持たずともAIは精神を持った存在と同等のアウトプットを行うようになるはず。哲学的ゾンビに魂がないと、誰が証明できるのか?
それはバグでしょ。
精神というオカルトに逃げる必要はない.
トランキライザを処方してやれ
このリストと同じ判断基準を使って、事故を未然に防いだものをリストアップしたら、桁違いに多くあると思うのだけど(データはない)。
精神に異常をきたしたプログラマが悪さするリスクは?
就航時に自動操縦の導入責任者と開発者を同乗させる。
信用できない奴の数がゼロなんだぜ?
人間ってシステムにとっては最も脆弱でパフォーマンスも不安定な厄介この上ない部品なので人間を必要とするシステムより、人間を全く必要としないシステムのほうが信頼性が高くなる。
実現できれば、という条件付きだけどね。
「技術的に可能になる」と「経済的にメリットが出る」と「社会的に受け入れられる」は全然、別だからねぇ。一番目だけクリアすれば良いってモノでもなさそう。
# 人間のクローンとか大出力レーザー兵器とかにも言える
科学者「技術的には可能(実現できるとは言っていない)」エンジニア「技術的には可能(バグの存在を容認できるなら)」
エンジニア「技術的には可能(バグの存在を容認できるなら)」
AIの学習データが不合理な操作をすることをバグと呼ぶべきか、は面白い議題かもしれない。
それはそれとして「失敗がない自動操縦」は難しいけど、「統計的に人間より失敗の少ない自動操縦」なら、実現それ自体は、さほど技術的なハードルは高くなさそう。安全性の立証をどうするか、はハードル高い話だろうけどね。
あー、1人に減らせるかどうか、と言ってる間に、0人を1人にする話に変わっちゃうのかもな。全てのパイロットは今日でクビです、というわけには行かないので、今居るパイロットの方々には定年まで自動操縦飛行機の操縦席に念のために座っているだけのお仕事を続けて貰いつつ、新規のパイロットの養成は止める。
フェイルセーフとして自動化(遠隔含む)に対応した飛行機であればパイロット一人でもいい、という中間段階あってもいいかもパイロットに何かあったらそっちが引き継ぐからOKって形で
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
計算機科学者とは、壊れていないものを修理する人々のことである
一人より0人 (スコア:4, 参考になる)
パイロット一人制より0人制の方が信用できそう。
ボーイング、完全自動運転のジェット機を開発へ──でも「ほぼ自動」は、すでに実現している [wired.jp]
まだ実現できてないけどね。
Re: (スコア:0)
どういった根拠に基づいて0人が信用できるのか?
Re:一人より0人 (スコア:4, 参考になる)
ヒューマンエラーのリスクもあるが、精神に異常をきたしたパイロットはたまに出現するのよ。
日本航空350便墜落事故 [wikipedia.org]
ジャーマンウイングス9525便墜落事故 [wikipedia.org]
ロイヤル・エア・モロッコ630便墜落事故 [wikipedia.org]
LAMモザンビーク航空470便墜落事故 [wikipedia.org]
Re:一人より0人 (スコア:2, おもしろおかしい)
精神に異常をきたしたAIが登場するのも時間の問題だけどな
Re:一人より0人 (スコア:1)
もう居るでしょ。だったら禿げてないのに増毛の広告なんか表示されないはず。
Re:一人より0人 (スコア:1)
AIが将来を予測してるだけでしょ。備えよ。
Re: (スコア:0)
つまりAIは禿げている、と。
Re: (スコア:0)
AIに神は不要
Re:一人より0人 (スコア:1)
北海道の日本海側への旅行の計画があるとかじゃね?
Re: (スコア:0)
精神を持ったAIなんて全く目処が立っていないはずだけれども。
意識のハードプロブレムの解決は遠い。
Re: (スコア:0)
イーロンにクビにされたツイッター社員が箱の中に入って人力AIやってくれるんじゃね
Re: (スコア:0)
精神を持った人間の所作を十分に学習すれば、精神は持たずともAIは精神を持った存在と同等のアウトプットを行うようになるはず。
哲学的ゾンビに魂がないと、誰が証明できるのか?
Re: (スコア:0)
それはバグでしょ。
精神というオカルトに逃げる必要はない.
Re: (スコア:0)
トランキライザを処方してやれ
Re: (スコア:0)
このリストと同じ判断基準を使って、事故を未然に防いだものをリストアップしたら、桁違いに多くあると思うのだけど(データはない)。
Re: (スコア:0)
精神に異常をきたしたプログラマが悪さするリスクは?
Re:一人より0人 (スコア:1)
就航時に自動操縦の導入責任者と開発者を同乗させる。
-- う~ん、バッドノウハウ?
Re: (スコア:0)
信用できない奴の数がゼロなんだぜ?
Re: (スコア:0)
人間ってシステムにとっては最も脆弱でパフォーマンスも不安定な厄介この上ない部品なので
人間を必要とするシステムより、人間を全く必要としないシステムのほうが信頼性が高くなる。
実現できれば、という条件付きだけどね。
Re: (スコア:0)
「技術的に可能になる」と「経済的にメリットが出る」と「社会的に受け入れられる」は全然、別だからねぇ。
一番目だけクリアすれば良いってモノでもなさそう。
# 人間のクローンとか大出力レーザー兵器とかにも言える
Re: (スコア:0)
科学者「技術的には可能(実現できるとは言っていない)」
エンジニア「技術的には可能(バグの存在を容認できるなら)」
Re: (スコア:0)
エンジニア「技術的には可能(バグの存在を容認できるなら)」
AIの学習データが不合理な操作をすることをバグと呼ぶべきか、は面白い議題かもしれない。
それはそれとして「失敗がない自動操縦」は難しいけど、「統計的に人間より失敗の少ない自動操縦」なら、実現それ自体は、さほど技術的なハードルは高くなさそう。
安全性の立証をどうするか、はハードル高い話だろうけどね。
Re: (スコア:0)
あー、1人に減らせるかどうか、と言ってる間に、0人を1人にする話に変わっちゃうのかもな。全てのパイロットは今日でクビです、というわけには行かないので、今居るパイロットの方々には定年まで自動操縦飛行機の操縦席に念のために座っているだけのお仕事を続けて貰いつつ、新規のパイロットの養成は止める。
Re:一人より0人 (スコア:2)
フェイルセーフとして自動化(遠隔含む)に対応した飛行機であればパイロット一人でもいい、という中間段階あってもいいかも
パイロットに何かあったらそっちが引き継ぐからOKって形で