アカウント名:
パスワード:
アクセス可能な情報量が増え、検索も簡単になったので、知識レベルは上がることはあっても下がることはありえないと思う。実際、ネットでの議論では、いろんな情報が集められ、よくこんなことを知っているなあと感心させられることも多い。
でも、それらの大量の情報をうまく消化できていない人が多いと感じることも多い。人間が消化できる情報量なんてそんなに急に向上するはずがないし。情報の洪水の中で、個々の情報に対していちいち考察を加えていたら間に合わないのかもしれないけど。
それはそれでいいのだけど、情報量というか知識量だけで議論が進んでいくことが多くて、情報をたくさん知っているほうが偉いのだという風潮になりつつあるような気がする。どんなに情報があろうともなかろうとも、それに対してどのような考察ができるか、どんな側面を発見できるかということもまた、重要だということが忘れられているように思う。
明らかに情報化に振り回されているな、と思うことは多々ありますね。
正直な話、現状は性能をよくしないままブロードバンド回線につないだパソコンみたいになっていると思います。扱える情報の量や帯域が大きく増えて、これで処理精度が良くなるはず、と期待して接続したのに、通信が高速広帯域過ぎて、メインのCPU時間まで割り振らないと送受信が追いつかなくなってしまっている。当然そんな事をすれば情報の解析は遅れます。情報の解析が遅れるので、不足分をさらに受信に頼らないといけなくなってしまう。受信に全CPU時間を割り振って、パケットロスを起こさないようにしないといけない。自分で解釈していない以上、パケットロスしたら致命的ですから。そうしていつか、解析を行うプロセスにCPU時間を割り振れなくなってしまう。そうしないといけなくなるし、自分でデータを産まなくとも、受信したデータで補えるなら、それで表面上は問題が起きなくなりますから。その状態で受信したデータがノイズやウィルスだったりすると、システムが破綻するわけですが。
送受信する情報量は明らかに増え、その速度も向上しているものの、送受信することがメインになって、受信した情報の解釈が全く進まない。そんなことをしていれば受信漏れを起こしかねないし、自分で解釈しなくとも受信すれば必要な情報が得られるとなったら、解釈を止めてしまう人間が増えるのは当然かと。
そして、自分で解釈する代わりに受信しているので、無意識に(あるいは意識して?)自説に都合のいい情報を選択するようになっている、という状況ではないでしょうか。
#最も、多少遅れても他に優先順位の高いプロセスが終わってからならプロセスを問題なく復帰できるパソコンと違って、人間の脳は使わないとどんどん衰えて行く、という、別な問題がある訳ですが。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
「科学者は100%安全だと保証できないものは動かしてはならない」、科学者「えっ」、プログラマ「えっ」
知識レベルは下がらない。けど (スコア:0)
アクセス可能な情報量が増え、検索も簡単になったので、知識レベルは上がることは
あっても下がることはありえないと思う。実際、ネットでの議論では、いろんな
情報が集められ、よくこんなことを知っているなあと感心させられることも多い。
でも、それらの大量の情報をうまく消化できていない人が多いと感じることも多い。
人間が消化できる情報量なんてそんなに急に向上するはずがないし。情報の洪水の中で、
個々の情報に対していちいち考察を加えていたら間に合わないのかもしれないけど。
それはそれでいいのだけど、情報量というか知識量だけで議論が進んでいくことが
多くて、情報をたくさん知っているほうが偉いのだという風潮になりつつあるような
気がする。どんなに情報があろうともなかろうとも、それに対してどのような考察が
できるか、どんな側面を発見できるかということもまた、重要だということが忘れられて
いるように思う。
解釈に回す「CPU時間」が減っている (スコア:2, すばらしい洞察)
明らかに情報化に振り回されているな、と思うことは多々ありますね。
正直な話、現状は性能をよくしないままブロードバンド回線につないだパソコンみたいになっていると思います。
扱える情報の量や帯域が大きく増えて、これで処理精度が良くなるはず、と期待して接続したのに、通信が高速広帯域過ぎて、メインのCPU時間まで割り振らないと送受信が追いつかなくなってしまっている。
当然そんな事をすれば情報の解析は遅れます。情報の解析が遅れるので、不足分をさらに受信に頼らないといけなくなってしまう。受信に全CPU時間を割り振って、パケットロスを起こさないようにしないといけない。自分で解釈していない以上、パケットロスしたら致命的ですから。そうしていつか、解析を行うプロセスにCPU時間を割り振れなくなってしまう。そうしないといけなくなるし、自分でデータを産まなくとも、受信したデータで補えるなら、それで表面上は問題が起きなくなりますから。
その状態で受信したデータがノイズやウィルスだったりすると、システムが破綻するわけですが。
送受信する情報量は明らかに増え、その速度も向上しているものの、送受信することがメインになって、受信した情報の解釈が全く進まない。そんなことをしていれば受信漏れを起こしかねないし、自分で解釈しなくとも受信すれば必要な情報が得られるとなったら、解釈を止めてしまう人間が増えるのは当然かと。
そして、自分で解釈する代わりに受信しているので、無意識に(あるいは意識して?)自説に都合のいい情報を選択するようになっている、という状況ではないでしょうか。
#最も、多少遅れても他に優先順位の高いプロセスが終わってからならプロセスを問題なく復帰できるパソコンと違って、人間の脳は使わないとどんどん衰えて行く、という、別な問題がある訳ですが。