というか、図書館としては service が利用できない状況を避けられれば正直十分であるはずで、それをなぜか強引に刑事罰まで持っていこうとして、やらかしちゃったのが警察。いっぺん注意してそれでも続けば即故意で問題無いのに。あえて困難な道をとるとは馬鹿すぎる。任意の事情聴取で十分なのにいきなり逮捕とか、ほんとひどすぐる。
robots.txt の主目的は、「検索エンジンに情報が登録されるのを防止する」ではなく、「自動プログラムにクロールしてほしくない領域を指定する」が正解です。アクセスしなくなるだけなので、外部からそのページへのリンクが多数あった場合は、そのリンクから index が登録され、検索できます。検索エンジンに情報が登録されるのは防げないのですから、あなたの主張は誤りです。現実を無視した上に、持ち出した「主目的」も捏造では、どうしようもありませんね。
同時期に出された他の要求すべてで 500 が返
私はプログラマです。1040 formに私の職業としてそう書いています -- Ken Thompson
証明が難しいタイプがないのかな? (スコア:3, 興味深い)
悪意を持って作成したりばら撒いたりするのを取り締まるのは賛成です。
しかし見たところ配布も対象に入ってますが、感染して配布状態のようになっていた場合とかどうなるんでしょうかね。
少し前の図書館の時みたいにネットワークに関しての知識があまりなさそうな部署が担当したりした場合は余計ややこしくなったりとか。
#そうなると政府が無料でアンチウィルスソフトを配布したりしろとか色々と言ってくる人が出てきたりとか。
#まぁ無償のソフトがあるんでそこまではないか・・・。
だから、法律を理解しろよ (スコア:1, 参考になる)
過失は罰せられないの。刑法の基礎くらい学んでから発言しろよ。
Re: (スコア:1, すばらしい洞察)
これのどこが「参考になる」なんだ?
librahack事件が、警察が過失の有無構わずに逮捕できるのは証明済みだろうに。
Re: (スコア:0)
あの事件で逮捕まで行ったのは、故意を疑わせるのに十分な行動があったからです。
故意を否定する人が持ち出す根拠は、「アクセス頻度は一秒一回程度」とか、「サービスが落ちたのはサーバーにバグがあったから」というものですが、それは故意かどうかの判断に影響を与えません。仮にそれで故意が否定できるなら、サーバーのバグをついて落とすDoS攻撃を業務妨害罪に問えなくなります。実際にはそんなことはありません。
故意かどうかの判断に影響を与えるのは、「サービスが落ちていることに気づいていたかどうか」という点です。ですから、やっている本人が「
Re: (スコア:3, すばらしい洞察)
いいえ影響があります。もし仮にサーバ側にバグがなくてもこういうことが起きるとすれば、それは、どこでも容易に起き得ることを意味しますので、その場合には、故意があったはずだとの推定を導きます――(A)。しかし今回、事実はそれと異なります。サーバ側にバグがなければ起きないことが起きたわけです。今回のような事例は前例がなく、今回初めて世間に明らかになったものです。従来、こういうことでサー
Re: (スコア:0)
つまり、故意を肯定する要素の一つを否定しているだけで、それが決定的な根拠になることはないと合意していただけたようです。警察が故意を疑ったのは、アクセスを遮断されたら他からアクセスしたとか、他の要素も入っていて、サーバーのバグなんて話は、そういう要素の否定にはなってないわけです。
その通りだったそうです、ってのは、本人がそう言っているという話ですよね。それで、はいそう
Re: (スコア:3, すばらしい洞察)
警察は「落ちるはずのないサーバが落ちたのだから」という理由で、検察は「プロならわかるはず」という理由で、被疑者の故意を推定したわけで、それらを否定することは最も重要な要素です。故意を証明する「決定的な証拠」も存在しなかったのですから、サーバ側の欠陥は最も重要な証拠です。意味、わかりますか?
Re: (スコア:0)
この「プロならわかるはず」という結論に至った理由の一つが、「サーバーにバグがあって落ちた」という主張だったことは想像に難くないです。実際にサーバーにバグがあることは、「プロならわかるはず」という推定を強化するものです。
検察にとって、「サーバーにバグがあって落ちた」という主張が出てきたことは、まさに「そのような兆候を示す証拠」を得たことになるものですよ、という話をしているわけですが。
Re: (スコア:0)
ここでjbeef氏が言う「故意の推定の否定」の理由は、正確には「サーバーにバグがある」じゃありません。本当の理由は、「落ちるなんて俺たちにはわからない」なわけです。しかし、「わからない」と明白に主張してしまうと、「それが本当かどうか」の議論になるから、「サーバーにバグがある」という書き方になるわけですね。
「俺たちにはわからない」は本当ですか。
jbeef氏は、「今回のようなアクセスで落ちるサービスはないと主張する人がいたら、ああ全くその通りと大賛成した」と言い、その理由として、「既に検索エンジンからのクローラアクセスを受けているはず」と書
Re: (スコア:0)
でも過失であって故意を証明するものでは無い。
過失から故意に昇格させるためには上記の説明では不十分。
だいたい、取り調べにおいても被疑者が robots.txt を認識していたなんて事実は出ていない。
無理ありすぎ。
Re: (スコア:0)
あなたが反論したつもりになっているコメントに書いてあるのは、『「落ちるなんて俺たちにはわからない」論は嘘。実際に robots.txt を見れば、クロールで迷惑をかけそうなサイトだということはわかる』という話であって『robos.txtを見なかったから故意』という話ではありません。したがって、「robos.txtを見なかったのは過失」という意見は反論になっていません。「robots.txtを見なかったのは明らかに過失」と認めたことにより、『「落ちるなんて俺たちにはわからない」論は嘘』という指摘を全面的に認めたことになっていることを最初に指摘しておきます。
Re:だから、法律を理解しろよ (スコア:0)
いやほんと全く技術を理解していない方ですね~。
まず、robots.txt ですがこれの本来の目的は負荷に耐えられないというのを公表するものではありません。 Search engine に情報が登録されるのを防止するのが主目的です。ということで、robots.txt があるから容易に落ちる可能性があると認識するのは全くもって筋違い。というか、それすら理解していないの? はぁと。というのが正直な感想。
Robots.txt には crawling するときに最低限この間隔で crawling してねということを示す Crawl-delay がありますけど、事件が発生した時にこれが無かったのは確認できています。現在は Crawl-delay: 1 が指定されていますが、被疑者が行った crawling とほぼ一致する数値なので何も問題ないですね。
全く想定しないというのはおかしいのは当然。可能性は認識していたでしょうね。ただ、それは可能性はあるけどんなことで落ちるわけがないという認識です。要するに「認識ある過失」。「認識ある過失」と書きましたが、非常にごく軽微な過失です。
Service が落ちているとは断定できませんよ。返っていた response は 500 なので、それだけでは何が原因で落ちているかはわからない。真っ先に疑うのは負荷以外の application の bug を疑いますね。
遮断は firewall で行ったそうです。つまり response が全くない状態。んなもの network の不調を真っ先に疑いますね。
前述のものと同様の理由でわかるわけがない。拒否されたのだとしたら ISP を通じて苦情が来ると思うのがごく普通の感覚。
ということで、警察も検察もここら辺の知識が不足していたのでとんでもない解釈をした。Cybercrime をまともに扱わなきゃいけない状況になっているのに全くお寒い限りです。まともに取り締まれない可能性があるということを公表しちゃったのが今回の事件。
というか、図書館としては service が利用できない状況を避けられれば正直十分であるはずで、それをなぜか強引に刑事罰まで持っていこうとして、やらかしちゃったのが警察。いっぺん注意してそれでも続けば即故意で問題無いのに。あえて困難な道をとるとは馬鹿すぎる。任意の事情聴取で十分なのにいきなり逮捕とか、ほんとひどすぐる。
Re: (スコア:0)
と、いうことにしたいのですね。クロールで迷惑を受けるサイトが現実に robots.txt をどう使っているかという話をしているのであって、「それが本来の使い方」なんて誰も言ってないのに、「robots.txt の本来の使い方」なんて話を持ち出したって反論になりませんよ。「主目的」とか、「本来の」とかいう断り書きをわざわざつけるということは、実際にはそれ以外の使われ方をしているのをあなた自身も認めているわけです。現実を無視して理念だけの話を語るのがあなたの「技術の理解」ですか。
Re: (スコア:0)
ほんと馬鹿じゃね~の。法律、IT 技術に双方についてもまるでわかっていない。
あのさ。わざわざ Crawl-delay の説明ま
Re: (スコア:0)
robots.txt の主目的は、「検索エンジンに情報が登録されるのを防止する」ではなく、「自動プログラムにクロールしてほしくない領域を指定する」が正解です。アクセスしなくなるだけなので、外部からそのページへのリンクが多数あった場合は、そのリンクから index が登録され、検索できます。検索エンジンに情報が登録されるのは防げないのですから、あなたの主張は誤りです。現実を無視した上に、持ち出した「主目的」も捏造では、どうしようもありませんね。