パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

ウィルス作成罪、今度こそ創設へ」記事へのコメント

  • 悪意を持って作成したりばら撒いたりするのを取り締まるのは賛成です。
    しかし見たところ配布も対象に入ってますが、感染して配布状態のようになっていた場合とかどうなるんでしょうかね。
    少し前の図書館の時みたいにネットワークに関しての知識があまりなさそうな部署が担当したりした場合は余計ややこしくなったりとか。

    #そうなると政府が無料でアンチウィルスソフトを配布したりしろとか色々と言ってくる人が出てきたりとか。
    #まぁ無償のソフトがあるんでそこまではないか・・・。

    • by Anonymous Coward

      しかし見たところ配布も対象に入ってますが、感染して配布状態のようになっていた場合とかどうなるんでしょうかね。

      過失は罰せられないの。刑法の基礎くらい学んでから発言しろよ。

      • Re: (スコア:1, すばらしい洞察)

        by Anonymous Coward

        これのどこが「参考になる」なんだ?
        librahack事件が、警察が過失の有無構わずに逮捕できるのは証明済みだろうに。

        • by Anonymous Coward

          あの事件で逮捕まで行ったのは、故意を疑わせるのに十分な行動があったからです。

          故意を否定する人が持ち出す根拠は、「アクセス頻度は一秒一回程度」とか、「サービスが落ちたのはサーバーにバグがあったから」というものですが、それは故意かどうかの判断に影響を与えません。仮にそれで故意が否定できるなら、サーバーのバグをついて落とすDoS攻撃を業務妨害罪に問えなくなります。実際にはそんなことはありません。

          故意かどうかの判断に影響を与えるのは、「サービスが落ちていることに気づいていたかどうか」という点です。ですから、やっている本人が「

          • Re: (スコア:3, すばらしい洞察)

            故意を否定する人が持ち出す根拠は、「アクセス頻度は一秒一回程度」とか、「サービスが落ちたのはサーバーにバグがあったから」というものですが、それは故意かどうかの判断に影響を与えません。

            いいえ影響があります。もし仮にサーバ側にバグがなくてもこういうことが起きるとすれば、それは、どこでも容易に起き得ることを意味しますので、その場合には、故意があったはずだとの推定を導きます――(A)。しかし今回、事実はそれと異なります。サーバ側にバグがなければ起きないことが起きたわけです。今回のような事例は前例がなく、今回初めて世間に明らかになったものです。従来、こういうことでサー

            • by Anonymous Coward

              故意を否定しているのではなく、故意を肯定する要素を否定しているのです。

              つまり、故意を肯定する要素の一つを否定しているだけで、それが決定的な根拠になることはないと合意していただけたようです。警察が故意を疑ったのは、アクセスを遮断されたら他からアクセスしたとか、他の要素も入っていて、サーバーのバグなんて話は、そういう要素の否定にはなってないわけです。

              やっている本人が「このアクセスでサービスが落ちるなんてことは考えられない」と思いこんでやっていた場合には、過失を主張できます。

              その通りです。実際その通りだったそうです。

              その通りだったそうです、ってのは、本人がそう言っているという話ですよね。それで、はいそう

              • Re: (スコア:3, すばらしい洞察)

                故意を否定しているのではなく、故意を肯定する要素を否定しているのです。

                つまり、故意を肯定する要素の一つを否定しているだけで、それが決定的な根拠になることはないと合意していただけたようです。

                警察は「落ちるはずのないサーバが落ちたのだから」という理由で、検察は「プロならわかるはず」という理由で、被疑者の故意を推定したわけで、それらを否定することは最も重要な要素です。故意を証明する「決定的な証拠」も存在しなかったのですから、サーバ側の欠陥は最も重要な証拠です。意味、わかりますか?

                警察が故意を疑ったのは、アクセスを遮断されたら他からアクセスしたとか、他の要素も入っていて、サーバーのバグなんて話は、そういう要素の否定にはなってないわけです。

              • by Anonymous Coward

                検察は「プロならわかるはず」という理由で、被疑者の故意を推定したわけで

                この「プロならわかるはず」という結論に至った理由の一つが、「サーバーにバグがあって落ちた」という主張だったことは想像に難くないです。実際にサーバーにバグがあることは、「プロならわかるはず」という推定を強化するものです。

                逮捕して調べたところ、そのような兆候を示す証拠は何も得られなかったというのが、今回の事件です。知りませんでしたか?

                検察にとって、「サーバーにバグがあって落ちた」という主張が出てきたことは、まさに「そのような兆候を示す証拠」を得たことになるものですよ、という話をしているわけですが。

                なぜなら、たとえばひ

              • by Anonymous Coward

                ここでjbeef氏が言う「故意の推定の否定」の理由は、正確には「サーバーにバグがある」じゃありません。本当の理由は、「落ちるなんて俺たちにはわからない」なわけです。しかし、「わからない」と明白に主張してしまうと、「それが本当かどうか」の議論になるから、「サーバーにバグがある」という書き方になるわけですね。

                「俺たちにはわからない」は本当ですか。

                jbeef氏は、「今回のようなアクセスで落ちるサービスはないと主張する人がいたら、ああ全くその通りと大賛成した」と言い、その理由として、「既に検索エンジンからのクローラアクセスを受けているはず」と書

              • by Anonymous Coward
                robots.txt を見ていなかったのは明らかに過失。
                でも過失であって故意を証明するものでは無い。

                過失から故意に昇格させるためには上記の説明では不十分。
                だいたい、取り調べにおいても被疑者が robots.txt を認識していたなんて事実は出ていない。
                無理ありすぎ。
              • by Anonymous Coward

                あなたが反論したつもりになっているコメントに書いてあるのは、『「落ちるなんて俺たちにはわからない」論は嘘。実際に robots.txt を見れば、クロールで迷惑をかけそうなサイトだということはわかる』という話であって『robos.txtを見なかったから故意』という話ではありません。したがって、「robos.txtを見なかったのは過失」という意見は反論になっていません。「robots.txtを見なかったのは明らかに過失」と認めたことにより、『「落ちるなんて俺たちにはわからない」論は嘘』という指摘を全面的に認めたことになっていることを最初に指摘しておきます。

              • by Anonymous Coward

                いやほんと全く技術を理解していない方ですね~。

                まず、robots.txt ですがこれの本来の目的は負荷に耐えられないというのを公表するものではありません。 Search engine に情報が登録されるのを防止するのが主目的です。ということで、robots.txt があるから容易に落ちる可能性があると認識するのは全くもって筋違い。というか、それすら理解していないの? はぁと。というのが正直な感想。

                Robots.txt には crawling するときに最低限この間隔で crawling してねということを示す Crawl-delay がありますけど、事件が発生した時にこれが無かったのは確認できています。現在は Crawl-delay: 1 が指定されて

              • by Anonymous Coward

                いやほんと全く技術を理解していない方ですね~。

                と、いうことにしたいのですね。クロールで迷惑を受けるサイトが現実に robots.txt をどう使っているかという話をしているのであって、「それが本来の使い方」なんて誰も言ってないのに、「robots.txt の本来の使い方」なんて話を持ち出したって反論になりませんよ。「主目的」とか、「本来の」とかいう断り書きをわざわざつけるということは、実際にはそれ以外の使われ方をしているのをあなた自身も認めているわけです。現実を無視して理念だけの話を語るのがあなたの「技術の理解」ですか。

                要するに「認識ある過失」。

              • by Anonymous Coward on 2010年12月28日 23時28分 (#1881247)

                ほんと馬鹿じゃね~の。法律、IT 技術に双方についてもまるでわかっていない。

                クロールで迷惑を受けるサイトが現実に robots.txt をどう使っているかという話をしているのであって、「それが本来の使い方」なんて誰も言ってないのに、「robots.txt の本来の使い方」なんて話を持ち出したって反論になりませんよ「主目的」とか、「本来の」とかいう断り書きをわざわざつけるということは、実際にはそれ以外の使われ方をしているのをあなた自身も認めているわけです。現実を無視して理念だけの話を語るのがあなたの「技術の理解」ですか。

                あのさ。わざわざ Crawl-delay の説明まで入れたのにわかんないわけ? その当時の robots.txt を見た場合、Crawl-delay なんて存在しないから、主目的である search engine に登録されたくないという意思表明と受け取るのがごく自然。故意か過失かの分かれ目は客観的にみて問題とされる結果の確度が高いかによって判断されるわけなので、これは確度が低いということを説明しているわけ。その程度のこともわからないの?

                取調べで、「サーバーにバグがある」を自分が有罪でない根拠として持ち出しているということなので、それは無理でしょう。

                なにその無茶苦茶な論理。自白のみで有罪がまかりとおるとでも言いたいわけ? しかも自白したわけでもないのに。勾留後本人は一貫して否認だよ。

                取り調べで、service が利用できない状態になっていたことを初めて聞き、その原因について聞かれたから想定しうる原因を答えたんだろうが。被疑者は法知識に疎かったので馬鹿正直に。

                認識ある過失は、「迷惑かけちゃいけないけど多分大丈夫」と思ってしくじってしまうことを意味します。その場合、迷惑をかけていたことに気づいたら、平謝りモードになります。そうではなくて、「サーバーにバグがある」を自分が有罪でない根拠として持ち出してしまったら、「迷惑がかかっても悪いのはバグがあるほう」という認識があったとみなされ、それは「迷惑かけちゃいけないけど多分大丈夫」という認識とは矛盾するため、「認識ある過失」は否定されます。

                どっからそんなのが出てくるの? 「平謝りモード」とかw

                刑法の教科書では「認識ある過失」についてこう書かれている。

                過失のうち、行為者が犯罪事実の認識を欠く場合を認識ある過失と呼び、結果発生の可能性はあるがその蓋然性の認識を欠く場合を認識ある過失という。

                必要なのは生じた結果に対してどの程度の確度が予想されるか。客観的にみて確度がそれなりに高い場合には「未必の故意」となり、確度が低ければ「認識ある過失」。

                「平謝りモード」は全く関係ない。平謝りモードが有効なのは軽い罪状で「起訴猶予」に持っていく場合。

                500が返るのが、「サービスが落ちている」ということです。

                もうほんとアホすぎ。Web application の基礎くらいまともに勉強したら?

                HTTP status code 500 は server 側の内部で error が発生したため、送出した要求に対して正常な応答を返せませんということ。その要求だけ正常に応答を返せないなんてごく普通に存在する。単発の HTTP 500 で service が落ちている? 誰も言わんよ。そんなこと。

                同時期に出された他の要求すべてで 500 が返っていたら service が落ちているって呼びますね。ただ、そんなものはちゃんと調査しないとわからない。

                そもそも、レスポンス500が返っていることに気づいていたなら、原因まではわからなくても、クロールが引き金になって落ちていることに、プロなら気づくものでしょう

                わかりませんね。Internet に公開しているんだから自分以外にも request があるなんて当然。自分が提供している service じゃないので、自分以外が出した request なんて把握できるわけがない。よって障害を認識したとしても、自分が送出した request が原因であるとは全くわからない。

                長期間 requet を投げて内容をちゃんと解析すれば、その可能性が高いと認識する場合はある。ただ、今回それは行っていなかった。それを行っていれば事件を回避できた可能性があるということで過失にはなるだろうが、それをもって故意を問うことはできない。なぜならば、普通の Web application であれば全く問題が無いから。

                レスポンス500が返っていることにうっかり気づいてなかった (エラーを記録しないプログラムになっていた)、という話だったはずですけど、それは嘘だと主張するのでしょうか?

                そんなこと一言も書いていない。故意か過失か判断されるのは客観的にみた行為に対する結果の確度なので、自分の認識を書いたまで。

                知識不足によるあまりにも的外れ指摘ばかりで疲れるので、一から勉強してから出直してこい。

                親コメント
              • by Anonymous Coward

                主目的である search engine に登録されたくないという意思表明と受け取る

                robots.txt の主目的は、「検索エンジンに情報が登録されるのを防止する」ではなく、「自動プログラムにクロールしてほしくない領域を指定する」が正解です。アクセスしなくなるだけなので、外部からそのページへのリンクが多数あった場合は、そのリンクから index が登録され、検索できます。検索エンジンに情報が登録されるのは防げないのですから、あなたの主張は誤りです。現実を無視した上に、持ち出した「主目的」も捏造では、どうしようもありませんね。

                同時期に出された他の要求すべてで 500 が返

私は悩みをリストアップし始めたが、そのあまりの長さにいやけがさし、何も考えないことにした。-- Robert C. Pike

処理中...