パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

ウィルス作成罪、今度こそ創設へ」記事へのコメント

  • 悪意を持って作成したりばら撒いたりするのを取り締まるのは賛成です。
    しかし見たところ配布も対象に入ってますが、感染して配布状態のようになっていた場合とかどうなるんでしょうかね。
    少し前の図書館の時みたいにネットワークに関しての知識があまりなさそうな部署が担当したりした場合は余計ややこしくなったりとか。

    #そうなると政府が無料でアンチウィルスソフトを配布したりしろとか色々と言ってくる人が出てきたりとか。
    #まぁ無償のソフトがあるんでそこまではないか・・・。

    • by Anonymous Coward

      しかし見たところ配布も対象に入ってますが、感染して配布状態のようになっていた場合とかどうなるんでしょうかね。

      過失は罰せられないの。刑法の基礎くらい学んでから発言しろよ。

      • Re: (スコア:1, すばらしい洞察)

        by Anonymous Coward

        これのどこが「参考になる」なんだ?
        librahack事件が、警察が過失の有無構わずに逮捕できるのは証明済みだろうに。

        • by Anonymous Coward

          あの事件で逮捕まで行ったのは、故意を疑わせるのに十分な行動があったからです。

          故意を否定する人が持ち出す根拠は、「アクセス頻度は一秒一回程度」とか、「サービスが落ちたのはサーバーにバグがあったから」というものですが、それは故意かどうかの判断に影響を与えません。仮にそれで故意が否定できるなら、サーバーのバグをついて落とすDoS攻撃を業務妨害罪に問えなくなります。実際にはそんなことはありません。

          故意かどうかの判断に影響を与えるのは、「サービスが落ちていることに気づいていたかどうか」という点です。ですから、やっている本人が「

          • Re: (スコア:3, すばらしい洞察)

            故意を否定する人が持ち出す根拠は、「アクセス頻度は一秒一回程度」とか、「サービスが落ちたのはサーバーにバグがあったから」というものですが、それは故意かどうかの判断に影響を与えません。

            いいえ影響があります。もし仮にサーバ側にバグがなくてもこういうことが起きるとすれば、それは、どこでも容易に起き得ることを意味しますので、その場合には、故意があったはずだとの推定を導きます――(A)。しかし今回、事実はそれと異なります。サーバ側にバグがなければ起きないことが起きたわけです。今回のような事例は前例がなく、今回初めて世間に明らかになったものです。従来、こういうことでサー

            • by Anonymous Coward

              故意を否定しているのではなく、故意を肯定する要素を否定しているのです。

              つまり、故意を肯定する要素の一つを否定しているだけで、それが決定的な根拠になることはないと合意していただけたようです。警察が故意を疑ったのは、アクセスを遮断されたら他からアクセスしたとか、他の要素も入っていて、サーバーのバグなんて話は、そういう要素の否定にはなってないわけです。

              やっている本人が「このアクセスでサービスが落ちるなんてことは考えられない」と思いこんでやっていた場合には、過失を主張できます。

              その通りです。実際その通りだったそうです。

              その通りだったそうです、ってのは、本人がそう言っているという話ですよね。それで、はいそう

              • by jbeef (1278) on 2010年12月25日 23時16分 (#1879749) 日記

                故意を否定しているのではなく、故意を肯定する要素を否定しているのです。

                つまり、故意を肯定する要素の一つを否定しているだけで、それが決定的な根拠になることはないと合意していただけたようです。

                警察は「落ちるはずのないサーバが落ちたのだから」という理由で、検察は「プロならわかるはず」という理由で、被疑者の故意を推定したわけで、それらを否定することは最も重要な要素です。故意を証明する「決定的な証拠」も存在しなかったのですから、サーバ側の欠陥は最も重要な証拠です。意味、わかりますか?

                警察が故意を疑ったのは、アクセスを遮断されたら他からアクセスしたとか、他の要素も入っていて、サーバーのバグなんて話は、そういう要素の否定にはなってないわけです。

                だからこそ警察や検察が批判されているのです。故意の推定に最も重要な要素「サーバのバグ」について捜査することを怠った。

                やっている本人が「このアクセスでサービスが落ちるなんてことは考えられない」と思いこんでやっていた場合には、過失を主張できます。

                その通りです。実際その通りだったそうです。

                その通りだったそうです、ってのは、本人がそう言っているという話ですよね。それで、はいそうですか、と警察や検察が納得したら、世の中に有罪になる事件なんて存在しなくなりますね。

                あなたは、自分が痴漢に間違えられて逮捕されるとき、その考えを貫きますか?

                仮に、「サービスが落ちてるけど、それはサーバーのバグのせいで自分は悪くない」などと開き直ってアクセスし、実際に何回もサービスを落とした人がいたら、それは故意の業務妨害で有罪です。

                その通りですがこの事件に関係ありません。

                関係ないかどうかは、調べないとわからないことです。警察や検察が勝手な判断でその可能性を排除して捜査しなかったら、そっちの方が問題です。そのパターンなのかどうか調べないわけにはいかないでしょう。

                逮捕して調べたところ、そのような兆候を示す証拠は何も得られなかったというのが、今回の事件です。知りませんでしたか?

                あなたはどうですか? あのような仕組みと性質のバグのことを知っていましたか?(事件が明るみになる前の時点で。)

                なんらかの条件を満たしたアクセスによってリソースを使い尽くしてしまう類のバグは DoS 攻撃では一般的に利用されてますよね。通常のアクセスでもリークを起こすようなタコなプログラムなんて、珍しくないでしょう。

                本物のDoS攻撃用のツールが起こすアクセスと、今回のアクセスの、技術的な違いを知らないのですか? 違いを考慮しないで十把一絡げに語ろうとするのは、あなたに何の能力が欠けているからでしょうか。

                「世の中のサーバーのリソース管理はまともなところばかりで、アクセスが一定量を超えたときにリソースを使い尽くして死ぬものはない」、なんて主張する人がいたら、そんなわけないだろと返事します。もちろん、事件が明るみになる前の時点の話ですよ。

                今回のアクセスの方法であれば、通常、落ちないはずと考えるものです。なぜなら、たとえばひとつには、既に検索エンジンからのクローラアクセスを受けているはずだからです。

                あなたはどうですか?事件が明るみになる前の時点で、「世の中のサーバーのリソース管理はまともなところばかりで、アクセスが一定量を超えたときに死ぬものはない」なんて主張する人がいたら、ああ全くその通りと大賛成したんでしょうか。そんなわけないでしょ。

                今回のアクセスの方法であれば、ああ全くその通りと大賛成したでしょうね。事件が明るみになる前の時点で。

                サーバ側の不具合の可能性を疑い始めたのは勾留された後、取調中にアクセスログを見せられてですよ?

                と、本人が現在言ってますという話ですね。

                何か不足が? それ以外の証拠、つまり、本人の故意を推定させる証拠は、何も見つからなかったことが明らかになっています。

                技術的にはそれに気づくだけのベースがあったことは間違いないわけです。

                根拠がありません。逮捕勾留という異例の事態に追いつめられ、アクセスログを見せられて、ようやくその可能性に思いが至ったと考えるのが普通でしょう。

                だったら、なんでその前に気づかないのかと。サービスが落ちているのに気づかなかったのは本当ですか、という疑問が生じるわけです。

                あなたも一度、痴漢冤罪で逮捕されてみてはいかがですか?

                親コメント
              • by Anonymous Coward

                検察は「プロならわかるはず」という理由で、被疑者の故意を推定したわけで

                この「プロならわかるはず」という結論に至った理由の一つが、「サーバーにバグがあって落ちた」という主張だったことは想像に難くないです。実際にサーバーにバグがあることは、「プロならわかるはず」という推定を強化するものです。

                逮捕して調べたところ、そのような兆候を示す証拠は何も得られなかったというのが、今回の事件です。知りませんでしたか?

                検察にとって、「サーバーにバグがあって落ちた」という主張が出てきたことは、まさに「そのような兆候を示す証拠」を得たことになるものですよ、という話をしているわけですが。

                なぜなら、たとえばひ

              • by Anonymous Coward

                ここでjbeef氏が言う「故意の推定の否定」の理由は、正確には「サーバーにバグがある」じゃありません。本当の理由は、「落ちるなんて俺たちにはわからない」なわけです。しかし、「わからない」と明白に主張してしまうと、「それが本当かどうか」の議論になるから、「サーバーにバグがある」という書き方になるわけですね。

                「俺たちにはわからない」は本当ですか。

                jbeef氏は、「今回のようなアクセスで落ちるサービスはないと主張する人がいたら、ああ全くその通りと大賛成した」と言い、その理由として、「既に検索エンジンからのクローラアクセスを受けているはず」と書

              • by Anonymous Coward
                robots.txt を見ていなかったのは明らかに過失。
                でも過失であって故意を証明するものでは無い。

                過失から故意に昇格させるためには上記の説明では不十分。
                だいたい、取り調べにおいても被疑者が robots.txt を認識していたなんて事実は出ていない。
                無理ありすぎ。
              • by Anonymous Coward
                > あなたは、どこかのサイトをクロールするときに、robots.txt を見てみようとは思わないのですか?

                思いませんね。見ないと逮捕されるのでは困ります。
              • by Anonymous Coward

                あなたが反論したつもりになっているコメントに書いてあるのは、『「落ちるなんて俺たちにはわからない」論は嘘。実際に robots.txt を見れば、クロールで迷惑をかけそうなサイトだということはわかる』という話であって『robos.txtを見なかったから故意』という話ではありません。したがって、「robos.txtを見なかったのは過失」という意見は反論になっていません。「robots.txtを見なかったのは明らかに過失」と認めたことにより、『「落ちるなんて俺たちにはわからない」論は嘘』という指摘を全面的に認めたことになっていることを最初に指摘しておきます。

              • by Anonymous Coward

                いやほんと全く技術を理解していない方ですね~。

                まず、robots.txt ですがこれの本来の目的は負荷に耐えられないというのを公表するものではありません。 Search engine に情報が登録されるのを防止するのが主目的です。ということで、robots.txt があるから容易に落ちる可能性があると認識するのは全くもって筋違い。というか、それすら理解していないの? はぁと。というのが正直な感想。

                Robots.txt には crawling するときに最低限この間隔で crawling してねということを示す Crawl-delay がありますけど、事件が発生した時にこれが無かったのは確認できています。現在は Crawl-delay: 1 が指定されて

              • by Anonymous Coward

                いやほんと全く技術を理解していない方ですね~。

                と、いうことにしたいのですね。クロールで迷惑を受けるサイトが現実に robots.txt をどう使っているかという話をしているのであって、「それが本来の使い方」なんて誰も言ってないのに、「robots.txt の本来の使い方」なんて話を持ち出したって反論になりませんよ。「主目的」とか、「本来の」とかいう断り書きをわざわざつけるということは、実際にはそれ以外の使われ方をしているのをあなた自身も認めているわけです。現実を無視して理念だけの話を語るのがあなたの「技術の理解」ですか。

                要するに「認識ある過失」。

              • by Anonymous Coward

                ほんと馬鹿じゃね~の。法律、IT 技術に双方についてもまるでわかっていない。

                クロールで迷惑を受けるサイトが現実に robots.txt をどう使っているかという話をしているのであって、「それが本来の使い方」なんて誰も言ってないのに、「robots.txt の本来の使い方」なんて話を持ち出したって反論になりませんよ「主目的」とか、「本来の」とかいう断り書きをわざわざつけるということは、実際にはそれ以外の使われ方をしているのをあなた自身も認めているわけです。現実を無視して理念だけの話を語るのがあなたの「技術の理解」ですか。

                あのさ。わざわざ Crawl-delay の説明ま

              • by Anonymous Coward

                主目的である search engine に登録されたくないという意思表明と受け取る

                robots.txt の主目的は、「検索エンジンに情報が登録されるのを防止する」ではなく、「自動プログラムにクロールしてほしくない領域を指定する」が正解です。アクセスしなくなるだけなので、外部からそのページへのリンクが多数あった場合は、そのリンクから index が登録され、検索できます。検索エンジンに情報が登録されるのは防げないのですから、あなたの主張は誤りです。現実を無視した上に、持ち出した「主目的」も捏造では、どうしようもありませんね。

                同時期に出された他の要求すべてで 500 が返

ハッカーとクラッカーの違い。大してないと思います -- あるアレゲ

処理中...