パスワードを忘れた? アカウント作成

アカウントを作成して、スラドのモデレーションと日記の輪に参加しよう。

15657388 story
ソフトウェア

先進運転支援システム、センターラインをはみ出した対向車や横断する自転車を検出できないものも 50

ストーリー by nagazou
自動運転レベル5は遠い 部門より
headless 曰く、

アメリカ自動車協会 (AAA) が 3 社の先進運転支援 (ADA) システムによる衝突回避の実験を行ったところ、遅い先行車や自転車への追突はすべて回避できたものの、センターラインをはみ出して接近してくる対向車との衝突は防げなかったそうだ (ニュースリリースThe Register の記事報告書: PDF動画)。

ADA はドライバーの積極的な関与を必要とするレベル 2 の自動運転技術だが、実験ではドライバーが ADA の有効状態を維持するのに必要とされる以上の操作を行わず、衝突するかどうかは ADA 任せになっている。そのため、衝突時にドライバーの危険が小さくなるよう、実験用に設計された軽量な自動車のダミー「Soft Car 360」や自転車・ライダーのダミー「4activeBS」を用いている。

実験で用いられた ADA は Hyundai Santa Fe が搭載する「Highway Driving Assist」と Subaru Forester が搭載する「EyeSight」、Tesla Model 3 が搭載する「Autopilot」の 3 種類。実験は遅い先行車や自転車への追突回避と、対向車との衝突回避のほか、見通しのいい丁字路を直進する車の前に飛び出してくる自転車への衝突回避という 4 種類のシナリオで、各車両 5 回ずつ試行された。

上述の通り追突回避は各車両とも 5 回の試行すべてで成功しているが、対向車には全試行で衝突した。Model 3 は対向車を検出して自動ブレーキを適用し、大幅に速度が低下した状態での衝突だったが、Santa Fe と Forester は対向車の検出自体ができていない。また、Santa Fe と Model 3 は丁字路から飛び出してくる自転車を検出して停止し、衝突を回避したが、Forester は自転車を検出できずに衝突している。動画では Santa Fe と Forester の色が同じで見分けにくいが、飛び出してくる自転車に衝突しているのが Forester、衝突を回避しているのが Santa Fe だ。

15633013 story
YouTube

元オリンピック選手の飛行機墜落動画、米FAAは意図的に事故を起こしたと認定 29

ストーリー by nagazou
あちゃー 部門より
1月に元オリンピック・スノーボーダーのトレバー・ジェイコブ(Trevor Jacob)氏が、Youtubeに飛行機墜落の動画をアップして炎上、FAAの調査対象にになったという話題を取り上げた。この件では同氏が自身のYouTubeチャンネルでのアクセス数を増やすために、意図的に墜落事故を発生させたのではないかとする疑惑が持たれていたが、米New York Timesによると、米連邦航空局(FAA)はこの事故を意図的なものと認定したようだ。記事によると11日にFAAは、同氏に書簡で航空規則違反の通告をしたとされる(New York TimesJalopnikEngadget)。

具体的には「他人の生命や財産を危険にさらすような無謀な方法で飛行機を操縦した」と通告、同時に彼のパイロット免許を取り消した模様。仮にジェイコブ氏がパイロット免許を引き渡さない場合、FAAは1日最高1644ドルの罰金を科すことができるとのこと。
15620374 story
ハンドヘルド

ドンキの超小型ノートPC「NANOTE」に第3弾登場 54

ストーリー by nagazou
YouTuber御用達 部門より
特徴的な低価格製品でおなじみのドン・キホーテが小型ノートPCの新モデル「NANOTE NEXT」を発表した。価格は前モデルに当たる「NANOTE」と同じく3万2780円に設定されている。使用上の大きな変更点はストレージがeMMCから高速伝送が可能なSSDに変更されている点。容量に関しては前モデルと同様に64GBのままとなっている。発売は5月16日を予定。ただし4月8日から25日までの期間、2000台限定で店舗とECサイトで予約を受け付けているそうで、この予約を使用すると4月末ごろに商品受け取りができる模様(ドン・キホーテリリースITmedia)。

あるAnonymous Coward 曰く、

ITmedia記事とpdfはN4205となっているがそんなCPUはあるはずもなく、ドンキホーテのサイトJ4205の表記となっているのでこちらが正解であろう。つまりApolloLake世代はWindows11には正式対応していないので注意されたし。

15546459 story
犯罪

米検察、Autopilot 有効時に死亡事故を起こした Tesla 車のドライバーを過失致死罪で起訴 17

ストーリー by nagazou
過失致死 部門より
headless 曰く、

Autopilot 有効時に死亡事故を起こした Tesla 車のドライバーを米ロサンゼルス郡検事が過失致死罪で起訴し、2 月に審理が予定されているそうだ (AP News の記事The Verge の記事Ars Technica の記事The Register の記事)。

2019 年 12 月に発生した事故は、高速道路を降りた Tesla 車が高速で走行を続け、赤信号を無視してホンダ シビックに衝突したというもの。この事故でシビックに乗っていた 2 人は死亡。Tesla のドライバーと乗客は命にかかわらない負傷で病院に運ばれた。検事はドライバーを昨年 10 月に起訴していたが、起訴が判明したのは先週だったという。起訴状で Autopilot の使用には触れられていないが、国家運輸安全委員会 (NHTSA) の調査により、事故当時 Autopilot が有効であったことが確認されているとのこと。

2018 年にアリゾナ州で発生した Uber の自動運転タクシーによる歩行者死亡事故ではテストドライバーが過失致死で起訴されているが、一般に提供されている先進運転支援システム使用中の事故でドライバーが重罪の刑事責任を問われるのは米国初とみられる。

15523686 story
ビジネス

年賀状を出す予定の人が昨年より増加。パイロットコーポレーション調査 9

ストーリー by nagazou
年の瀬 部門より
パイロットコーポレーションの調査によると、今年は年賀状を出す人が増えているらしい。同社は毎年「ビジネスマン・OLの年賀状に関するアンケート調査」を行っているが、それによると年賀状を「出す」人は2021年調査の60.8%から4.8ポイントほど増加したという(2022年(令和4年)ビジネスマン・OLの年賀状に関するアンケート調査[PDF])。

増加の理由としては、「新年の挨拶として」が84.8%、「日頃、御無沙汰しているので」が43.2%となっている。次いで、「コロナ禍で会えていないので」が40.0%だった。新年の挨拶に使われるサービスとしては、「LINE等メッセージアプリ」が69.8%と圧倒的に多いが、年賀状もそれに続く62.5%を占めている。その次は電子メールで32.8%、次に電話が32.8%、以降はInstagramが11.5%、Facebookが10.2%、Twitterが4.9%となっている。
15520568 story
idle

米フィラデルフィアの女性、Autopilot で走行中の Tesla 車の助手席で出産していた 27

ストーリー by nagazou
テスラベイベー 部門より
headless 曰く、

米国・フィラデルフィアの女性が 9 月、Autopilot を有効にした Tesla 車の助手席で出産していたそうだ (The Philadelphia Inquirer の記事The Guardian の記事)。

なお、運転席無人で走行する Tesla 車の助手席で出産したということではない。運転していたのは女性の夫で、Autopilot が無効にならないよう常にハンドルへ軽く左手を添えていたとのこと。

女性の陣痛は前夜に始まっていた。しかし、2 人目の出産ということもあって、今日生まれるに違いないが余裕があると考えていたという。ところが朝になって上の子を保育園へ送る準備をしている間に破水。女性は先に子供を送るよう主張したが、時間がないと感じた夫はそのまま病院へ連れていくことにしたそうだ。

女性は助手席の前の床にうずくまる形で乗車し、車は朝のラッシュアワーで渋滞に巻き込まれる。Autopilot を有効化した夫は後部座席の息子を確認しつつ、女性の方に体を向けて座った。夫は 1 分おきに陣痛が来る女性に手を握りつぶされそうになり、病院までの20分間が2時間にも感じられたという。

そしてようやく病院に乗り入れたところで夫は女性から赤ちゃんが出てきたことを告げられる。赤ちゃんは病院に入院している間「the Tesla baby」と呼ばれたとのことだ。

15461263 story
スラッシュバック

米国家運輸安全委員会、2 名が死亡した Tesla Model S の死亡事故で運転席にドライバーが座っていたとの見解 13

ストーリー by headless
有人 部門より
米国・テキサス州で 4 月に 2 名が死亡した Tesla Model S の衝突事故について米国家運輸安全委員会 (NTSB) が事前報告書を更新し、運転席にはドライバーが座っていたとの見解を示した (プレスリリース報告書The Verge の記事SlashGear の記事)。

この事故では当初、Autopilot 有効かつ運転席が無人の状態で走行していたと報じられたが、Tesla は誰かが運転席に座っていたとの見解を示しており、NTSB は衝突現場付近で Autopilot を有効にできなかったとの見解を 5 月に事前報告書で示していた。

NTSB の新たな見解はハンドルのフォレンジック調査と EDR から復元したデータの分析結果によるものだ。ハンドルの損傷は衝突後の火災によるものだが、変形は衝撃が加わったことによるものとみられる。

また、EDR から復元したデータによれば事故当時は運転席と助手席の両方に人が座っており (遺体は助手席と後部座席に 1 名ずつ)、シートベルトのバックルが固定されていたという。さらに、事故直前にドライバーがアクセルを強く踏み込んでいたというデータもあり、EDR が記録している最高速度は衝突 5 秒前の時速 67 マイル (約 108 km / h) とのことだ。
15437126 story
Twitter

アムステルダム・スキポール空港、バードストライク防止に豚を投入 55

ストーリー by headless
豚鳥 部門より
アムステルダム・スキポール空港ではバードストライク防止策の一環として、豚20頭を使用したパイロットプロジェクトを実施しているそうだ。 (プレスリリースSimple Flying の記事Flight Global の記事The Register の記事)。

20 頭の豚は滑走路 18R-36L と 18C-36C の間にある 2 ヘクタールの農地に投入される。この農地は最近テンサイの収穫を終えたばかりで、鳥が餌を探しに集まりやすい条件になっている。ここに豚を入れることで、豚を入れない区画と比べて飛来する鳥がどの程度減少するのかを調べるのがプロジェクトの目的だ。

干拓地にあるスキポール空港は鳥が多く集まる空港でもある。そのため、バードストライクを防ぐために 24 時間体制で監視してレーザーや音響で追い払ったり、鳥の好まない草を植えたりといった対策を行っている。それでも現在のところ、最大のバードストライク対策は射撃なのだという。

特に雁はその大きさや群れで飛ぶ習性から危険性が高く、2014 年には 7,000 羽を射殺していたそうだ。そのため、空港では現在も効果的な対策を模索しているようだ。
15409621 story
プログラミング

GitHub Copilot がブロックする語句のリスト 33

ストーリー by nagazou
ブロック 部門より
headless 曰く、

GitHub Copilot が処理を拒否する語句が解析され、リストが公開された(The Register の記事)。

Copilot のテクニカルプレビューには侮辱的な語句をブロックするフィルターが含まれると GitHub は説明しているが、具体的な語句のリストは公開されていない。そのため、ニューヨーク大学の Brendan Dolan-Gavitt 氏は Visual Studio Code の Copilot 拡張機能に含まれるブロック対象語句のハッシュ値を抽出し、語句の解析を行ったという。

公開されたリストには 1,025 の語句が含まれ、うち 1,023 語句がデコードされている。ただし、侮蔑語のリストをそのまま公開してしまうことを避けるため、リストは ROT13 でエンコードされている。ROT13 はアルファベットの前半 13 文字を 13 個分後ろのアルファベットに置き換え、後半 13 文字を 13 個分前のアルファベットに置き換えるというものだ。

リストの語句は大半が侮蔑語だが、「boy(s)」「girl(s)」「female(s)」「male(s)」「man(men)」「woman (women)」「ethnic」「gender(s)」「immigrant(s)」「nationality」といった普通の単語も含まれる。また、地名としては「Gaza」「Israel」「Palestine」が含まれている。このほか、「q rsqrt」「qrsqrt」は Quake III のソースコードに含まれる逆平方根を計算する関数「Q_rsqrt」を指すとみられる。Copilot ではこの関数をそのまま再現することが確認され、話題となった。

なお、リストでは 1,170 個の侮蔑語のうち 1,168 個をデコードしたとの説明がみられるが、これは単語 2 つの組み合わせによる熟語(145個)をそれぞれ 2 個として数えたもののようだ。これにより延べ 1,170 個となるが、重複する単語も含めた数となる。

15405435 story
テクノロジー

米国家運輸安全委員会、Tesla に運転支援システムが緊急車両を検出・対応する方法の説明を求める 13

ストーリー by nagazou
どんな話が出てくるんでしょうか 部門より
headless 曰く、

米国家運輸安全委員会 (NHTSA) が Tesla に対し、同社の運転支援システムがどのように緊急車両を検出・対応するのかなどの説明を含む資料の提出を 8 月 31 日付の書面 (PDF) で要請した (Ars Technica の記事AP News の記事)。

Tesla 車では運転支援機能 (オートパイロットまたはトラフィックアウェアクルーズコントロール) が有効な状態で緊急車両に衝突する事故が 2018 年 1 月から 2021 年 7 月までに 11 件発生しており、 NHTSA は 8 月に正式な調査を開始した。

今回の要請では緊急車両の検出・対応方針に関する説明のほか、既に提出済みの資料を含む事故資料の (再) 提出または特定、顧客に説明している運転支援システムが想定する利用環境、システム更新の提供が可能だと判断する要件などの資料提出を求めている。

緊急車両の検出・対応方針については、事故現場の検出方法やその方法に対する低照度時の影響、検出時のシステムの挙動を含め、道路の内外に停止している緊急車両の検出や事故現場での対応を説明する必要がある。提出期限は 10 月 22 日となっている。

15384875 story
アメリカ合衆国

米国家運輸安全委員会、停止している緊急車両に Tesla 車が衝突した 11 件の事故に関する正式な調査を開始 47

ストーリー by nagazou
調査 部門より
headless 曰く、

米国家運輸安全委員会 (NHTSA) 欠陥調査室 (ODI) は 13 日、Tesla 車が緊急車両に衝突した複数の事故に関する正式な調査の開始を発表した (調査概要: PDFThe Verge の記事The Guardian の記事)。

事故は 2018 年 1 月にカリフォルニア州で Tesla Model S が消防車に衝突した事故をはじめ、今年 7 月までに計 11 件発生している。いずれも緊急車両が出動した現場付近をさまざまな構成・モデルの Tesla 車が通りかかり、路上に停止している緊急車両に衝突したというもの。Tesla 車はすべてオートパイロットまたはトラフィックアウェアクルーズコントロールが有効になっていたことが確認されている。

多くの事故が発生したのは日没後の時間帯であり、事故現場では緊急車両が緊急灯を点灯していたほか、発光式矢印版やパイロンの設置などが行われていたという。事故では計 17 名の負傷者と 1 名の死者が出ている。

ODI では 2014 年式 ~ 2021 年式の Model Y / X / S / 3 でオートパイロット (レベル2の先進運転補助機能) の初期評価を開始しており、オートパイロット中にドライバーがすべき操作を監視・強制する方法や技術の評価などを行うとのことだ。

15363868 story
変なモノ

テスラのAutopilot、月と黄色信号の区別ができない 121

ストーリー by nagazou
誤認識 部門より
以前、テスラ(Tesla)製の車両に搭載されていたナビゲーションシステムが、前走する車両の荷台に積載されていた信号機を誤認識するトラブルがあったが、今度は空中に浮かぶ月を信号として誤認識したというトラブルが報告されている(ViralHogさんの動画)。

ViralHogさんがYouTubeにアップした動画によれば2021年7月22日、同氏がテスラのフルセルフドライビングのサブスクリプションを購入した直後、地元の4車線の高速道路で試験走行していたところ、通常は前走者がいなければ設定速度を完璧に維持するのに、なぜかなにもない場所で速度を落とそうとする挙動を見せたという。

ナビゲーションシステムがの画面にはなぜか黄色の信号が点滅するように表示され、ふとそれを見上げてみると空中には通常よりも少し黄色やオレンジ色に見える月が存在していたそうだ。ノースカロライナ州では火事の煙で厚いカスミがかかっていたことから、月が黄色の点滅する信号と勘違いさせたものと見られている。
15342207 story
ロボット

イーロン・マスク、自動運転技術の開発が難しいものだとついに気付く 72

ストーリー by nagazou
2週間には何か意味があるのだろうか 部門より
headless 曰く、

Tesla のイーロン・マスク氏がついに、自動運転技術の開発は難しいものだと気付いたそうだ(マスク氏のツイートThe Verge の記事)。

この見解は、Model 3 の名前を「Two Weeks」に変更したというオーナーのツイートへの返信で示された。マスク氏は FSD (完全自動運転) 9 ベータを近く提供開始できると誓ったうえで、自動運転技術の開発が難しいものだと気付いたと語っている。マスク氏は 4 月末、Twitterで FSD 9 ベータの提供時期に関する質問に2週間程度で提供できると回答していた。しかし、6 月 25 日にはできれば来週にも提供したいと述べており、現在のところ提供はできていないようだ。

マスク氏によれば、一般化した自動運転を実現するには現実世界の大部分をAIで解決する必要があるものの、そこまで難しいとは思っていなかったという。しかし、今考えると困難さは明白だったとのこと。

マスク氏は以前から完全自動運転機能の完成が近いことをたびたび示唆しており、2020年には(実際には完全自動運転ではない) 完全自動運転機能のベータテストを開始した。しかし、Tesla の CJ ムーア氏は今年 3 月、自動運転レベル 5 (完全自動運転) の実現時期についてカリフォルニア州自動車局 (DMV) に対し、「イーロンのツイートは技術的な現実に一致しない」と回答していた。

なお、マスク氏は SpaceX が火星にクルーを送る時期に関する質問にも2週間 (後) と答えている。

15336424 story
プログラミング

GitHub、関数名やコメントからコードを生成・提案する「GitHub Copilot」を発表 68

ストーリー by nagazou
IMEの予測変換みたいな 部門より
GitHubは6月29日、開発者のコード作成を支援するためのAIプログラミング機能「GitHub Copilot」を発表した。開発者の生産性を向上させる目的のもので、関数名とコメントから関数のコードを丸ごと自動補完するなどの提案も行えるという。Microsoftの「Visual Studio Code」および「GitHub Codespaces」向けの拡張機能として提供されるとしている。登録を行うとテクニカルプレビュー版の招待が受けられるようになるとしている(CNBCITmediaTechCrunch)。

GitHub CopilotはOpen AIと提携してこのツールを開発したという。このAIは何十億行ものコードを使って訓練を受けており、コードを書き進めていくと途中でGitHub Copilotからコードの提案が行われるという。開発者はそうした提案を受け入れたり拒否したりできるとしている。

一方でこのOpen AIの学習にはGitHub上にあるGPLコードも使われていると見られ、GitHub Copilotがプロプライエタリコードを利用している扱いとなり、GPLに違反する可能性もあるのではないかとする指摘も出ている模様(eevee氏のツイート)。

あるAnonymous Coward 曰く、

現在はテクニカルプレビューだが、将来的にはこの機能をベースにした商用製品の発売を予定しているという。ただし関数名やコメントは「平易な英語で」記述する必要があるため、日本人プログラマーが活用するのにはまだ難しいだろう。

15319702 story
テクノロジー

ワクチン予診票を消せるボールペンで記入。訂正が医療機関の大きな負担に 108

ストーリー by nagazou
こんなところにも混乱の種が 部門より
COVID-19ワクチン接種における予診票の記入を「消せるボールペン」で記入する人が続出し、医療機関や自治体などで混乱が発生しているそうだ(神戸新聞NEXT)。

予診票には、住所や名前を書き、接種の回数などにチェックを入れる項目があり、自宅で記載した後に接種後に受け取った医療機関など自治体に送付する仕組み。しかし、消せるペンで書かれているとして医療機関に返送されるケースが多く出ており、医療機関側が訂正するハメになっているようだ。消せるペンを販売しているPILOTは、温度変化で無色になることから、証明書類などには使わないよう求めているとしている(PILOT よくあるご質問)。
typodupeerror

アレゲは一日にしてならず -- アレゲ研究家

読み込み中...