パスワードを忘れた? アカウント作成
153584 story

ムーアの法則の限界、75~85年後には到達? 69

ストーリー by hylom
そのころには突破口が見つかっているような気もするが、 部門より

あるAnonymous Coward 曰く、

Inside Scienceが、ムーアの法則の本質的限界について取り上げている(論文要旨本家/.記事)。

ムーアの法則の技術的限界については過去に論じられているが、ボストン大学の物理学者らが行った研究によると、ムーアの法則にはいくらチップを小型化しようとも技術では超えられない、いわば光の速度のような本質的限界があるという。この限界は熱力学と量子力学及び情報理論に基づき分析されたものであり、現在の最速のチップよりも1016倍の速さであるとのこと。現在のペースのまま開発が続いた場合、75年から80年後にはこの限界に達すると予想されるとのことだ。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • by Anonymous Coward on 2009年10月16日 15時29分 (#1655071)
    75年から80年後に 1016倍の速さのチップが出荷されるかもしれないって!?

    どんな世界になるのだろう??
  • by s02222 (20350) on 2009年10月16日 15時45分 (#1655085)
    限界に達したら、時間の方を遅くしましょう。

    10^16倍になってれば人類全部ぐらいシミュレートできるでしょうから、肉体は捨てましょう。 でもって、シミュレート速度をいじって人類の主観の方を遅くすれば、いくらでも計算速度は増強できます。
  • 法則 (スコア:1, すばらしい洞察)

    by Anonymous Coward on 2009年10月16日 14時53分 (#1655042)
    ムーアの法則って法則って言うけど法則ではなくて 「ムーアさんのがんばりましょう宣言」なんですよね。 でもこの手の論議って技術革新とかがあって今までとはまったく違う方法が発見されて それを元に新たなチップが作られるという事に関しては考慮の内?
    • Re:法則 (スコア:2, すばらしい洞察)

      by Anonymous Coward on 2009年10月16日 14時57分 (#1655046)

      むしろ最近はこの法則を目標に技術者が頑張っているわけで。

      親コメント
    • by phenix (31258) on 2009年10月17日 19時17分 (#1655771)

      よくあることなんですが、言葉が輸入された時代によって訳が固定化してしまうと、こういうことになってしまうようです。

      英語圏の人はマーフィーの法則みたいなものまで~'s lawで表してしまうのに、
      法則なんて言葉を固定的に割り当ててしまっているので、物理法則みたいな印象を与えてしまいます。

      今の時代に新たに英語が入ってきたなら、ムーアズ・ローって呼ばれるんじゃないかなぁ。

      親コメント
      • Re:'s law (スコア:1, すばらしい洞察)

        by Anonymous Coward on 2009年10月17日 19時26分 (#1655777)

        > 英語圏の人はマーフィーの法則みたいなものまで~'s lawで表してしまうのに、
        > 法則なんて言葉を固定的に割り当ててしまっているので、物理法則みたいな印象を与えてしまいます。
        マーフィーの法則に関しては狙ってやってるんじゃないの? ジョークのようなものに物理法則みたいなおおげさな命名をするからこそ笑えるんじゃないの?

        親コメント
    • Re:法則 (スコア:1, 参考になる)

      by Anonymous Coward on 2009年10月17日 3時10分 (#1655477)

      そのムーアさんが作ったintelの企業としての目標であり、これを保持している限りはintelは世界No.1のCPUメーカーであり続けられるの法則でもあったりします。(法則が崩れたらそれこそ株価が暴落するとかいろいろ騒ぎに)

      ですから半導体トランジスタとは完全に違う方法になってしまったとして、その瞬間は集積率はガクンと下がると思いますが、その後もintelがその技術を追っかけて研究し続けている限りはその新たな技術にムーアの法則を適用してがんばっていくものと思われます。
      # ただしその「違う方法」の内容次第では「集積率」が必要なくなるかも。
      # その場合は性能向上のみの法則に化けることに。

      親コメント
  • 限界到達よりも先に (スコア:1, すばらしい洞察)

    by Anonymous Coward on 2009年10月16日 14時56分 (#1655044)

    トランジスタ以外の何かでコンピュータが作られるのが普通になってるかもね。80年もあったら。

  • by Anonymous Coward on 2009年10月16日 15時03分 (#1655054)
    ニーズとして、限界まで追求する必要性ってあるんですか?
    経済性を抜きにした研究としては必要性があるのかもしれませんが・・・
    限界よりも先に、ニーズや経済性の壁が立ちはだかるのでは?と思ってみたりするのですが・・・
    • HPC関係者の間にメールで回ってたらしい話題の記事:

      The End of Moore's Law in Five Years? (Michael Feldman、HPCwire)
      [http://www.hpcwire.com/blogs/The-End-of-Moores-Law-in-Five-Years-48287... [hpcwire.com]]

      以下に内容を要約すると:

      市場調査とコンサルティング会社iSuppli社による調査では:

      - Mooreの法則は5年のうちに成立しなくなるであろう
      - 理由は技術上の限界ではなく、ファウンドリ(半導体チップの製造を専門に行なう企業)が必要とする費用である。
      -- 研究開発、テスト、および半導体加工施設の建設に掛る費用は規模縮小に対して指数関数的に増加している
      -- 45nmファブ(工場設備)の値段はすでに10億ドル(1ドル100円として1千億円)を越えている。
      --- 例:AMDのファウンドリ・パートナーであるGlobalfoundries(AMDから分離した半導体製造部門)は、32nm ファブのために42億ドルを使った。
      --- 例:Intelも傘下のファウンドリを32nmに更新するために70億ドルを使った。
      -- リミットは20nm以下、たぶん18nmであろう。
      - 結果、研究開発の中心は微細化からチップやボードの設計、新アーキテクチャやソフトウェア開発に移るだろう
      -- Intel等のレガシーなアーキテクチャの優位がなくなるかもしれない
      -- 実際HPC分野では性能の要求の増加にムーアの法則では追いつけないことから、既に開発の重心が移っている
      ---結果、(マルチプロセッサの)相互接続技術が重要になっている
      - もっとも3D実装、ナノテク、スピントロニクスなど技術革新によってこの予想が覆される可能性はある

      親コメント
    • by Anonymous Coward on 2009年10月16日 15時18分 (#1655065)

      むしろ、上を目指すってのは、主に経済面の要請です。
      逆に限界に達した時に、この経済システムが維持できるのか心配。

      #もう限界に近いよねえ。

      親コメント
      • by Anonymous Coward

        限界に近いのは需要の方じゃないかという気がします。
        飛躍的な処理速度を必要とする(そしてそれだけの価値のある)ソフトの大需要も見えないし。

        # 僕が知らないだけですかねぇ

  • by saitoh (10803) on 2009年10月16日 17時03分 (#1655145)
    ムーアの法則って集積度向上の法則でしょ? それが速度向上に化けるのはなんで? 全く同じ回路設計のまま集積度が上がれば集積度のぶん配線遅延が短縮するから結局速度向上の法則でもあるって話だったっけ?

    そもそもスイッチング素子1つを原子何個で作れるかっていうほうが先に限界が来ませんかね? 今のトランジスタがゲート長で数10nmのサイズで、原子1個が0.1nmくらいだったと思った。ゲート長が1原子より小さいってことはありえないとして。 集積度が1.5年で2倍ってことは長さ次元では1.5年で√(1/2)倍? てことは60年とは言わず30年もしないうちに限界が来るのでは?(計算間違ってたらごめん)

    • by albireo (7374) on 2009年10月16日 17時50分 (#1655177) 日記

      集積度を上げていくと量子的な振る舞いに影響されて情報が正しく取り出せなくなるんでしょう。
      だから「原始何個で作れるか」には熱力学や量子力学とか情報理論なんかも考慮しなければいけなくなると。

      --
      うじゃうじゃ
      親コメント
      • by albireo (7374) on 2009年10月16日 23時33分 (#1655395) 日記

        これって、「量子コンピュータのように一つの素粒子に複数の状態を重ね合わせるようなことをしても、エントロピーうんぬんで『情報の物理密度』のような理論的限界が存在し、どんなにブレイクスルーを繰り返そうが絶対に越えられない壁がある」ってことなのかもしれません。

        もしも技術的なブレイクスルーで越えられるような壁なら

        いわば光の速度のような本質的限界がある

        って表現はかなり大げさですからね。

        専門的知識はないので不適当なたとえだと思うけど、「情報も密度を上げすぎるとブラックホール化してまったく情報を取り出せなくなる」みたいな話じゃないですかね。
        詳しい人のつっこみプリーズ。

        あと、ムーアの法則が関わっているのは

        現在のペースのまま開発が続いた場合、75年から80年後にはこの限界に達する

        の部分だけで、論文そのものの主題はムーアの法則と無関係なのでは。

        --
        うじゃうじゃ
        親コメント
        • by maruto! (18665) on 2009年10月17日 15時42分 (#1655686) 日記
          情報集積にも限界があるらしいです。たとえ素粒子に信号を記憶できたとしても1ビットを記憶できる限界はプランク長(10のマイナス33乗センチメートル) それ以下だと因果律が崩壊してしまって計算にならない、そうです。
          親コメント
    • Re:なんで速度の限界? (スコア:2, すばらしい洞察)

      by SteppingWind (2654) on 2009年10月17日 11時56分 (#1655577)

      多分議論の順番が逆というか, ムーアの法則は飾りに過ぎないんだと思います.

      論文の主眼は, 光速とかプランクの定数を元に計算を行うための最小限の単位を求めることだと思います. 言い換えれば, マックスウェルの悪魔はどこまで小さくなれるかってことです.

      この条件を満たすためには通常の物質ではとうてい不可能で, たとえば中性子星のような縮退状態の物質を絶対零度近くに冷却して基板として使い, その状態を維持するためにマイクロブラックホールを利用するなんていう超絶的技術が必要になるかもしれません. これは一見トンデモ的に見えますが, 現状の物理学の範囲に収まっているという点では超光速素子なんかよりは遥かに現実的ではあります.

      とは言え2年で4倍というムーアの法則を適応しちゃうと, このレベルの超技術が今世紀中に実現しちゃうってことで. それはそれで面白いのかも.

      親コメント
  • それ以降な訳だ。
    80年後かあ…。確実にワタクシ死んでますな…。
    自分が生きてるうちに起きるだろうとなんとなく期待してたんだけど。
  • by Anonymous Coward on 2009年10月16日 14時43分 (#1655029)

    ソース読んでないのでアレですけど、大学の偉い人の発表とかでも収穫加速の法則を無視してる場合があるんですよね。
    これは大丈夫なんだろうか。

    • by Anonymous Coward on 2009年10月16日 15時03分 (#1655053)

      大丈夫も何も、ムーアの法則自体が収穫加速の法則の一例じゃん。
      ムーアの法則の限界を論じているということは、ムーアの法則を仮定しており、すなわち収穫加速の法則を仮定するというのは自明でしょ。

      うーん、本当に大学の偉い人が「無視している場合がある」の?
      あなたが自明な仮定を(その分野の常識を弁えないために)見逃したからじゃないの?

      #大学の偉い人を疑う前に、まず自分を疑う謙虚さが大切だと、私なら考えますが。

      親コメント
  • by Anonymous Coward on 2009年10月16日 14時57分 (#1655048)
    量子コンピューターもこの法則の枠内に入ってるんでしょうかね?
    その本質的限界とやらも、「ノイマン型の」限界っていうことなんですかね?
    • Re:量子計算機 (スコア:2, 参考になる)

      by albireo (7374) on 2009年10月16日 17時44分 (#1655172) 日記

      タレコミ文でもわかるとおりムーアの法則というのはデバイスの集積度(と動作速度?)についての言及であって、それがコンピュータである必要はありません。
      だからノイマン型がどうのという話にはならない。
      量子コンピュータの場合はデバイスも別物になりそうだからどうなるかわからないけどね。

      --
      うじゃうじゃ
      親コメント
  • by Anonymous Coward on 2009年10月16日 15時35分 (#1655074)

    最近はあと数年からもって十数年と言われているような…。
    Intelが発表のたびに、まだムーアの法則は健在って必死にアピールしてますよね。

  • by Anonymous Coward on 2009年10月16日 15時40分 (#1655077)
    からマルチコアやらが流行ってるんじゃないの?
    • by Anonymous Coward on 2009年10月16日 15時42分 (#1655080)

      次は3次元方向への集積だな。

      親コメント
    • シングルスレッドの能力が伸びるかどうか,さらに言えばチップの性能が上がるかどうかと,ムーアの法則って関係ないよね?
      #ムーアの法則って単に集積度が上がる(素子数が増える)って話ですよね?

      親コメント
    • プログラムを実行するにしてもチップの外のメモリやI/O絡みで頻繁にウェイト突っ込まれたりだなんだでチップが持つ演算能力を発揮出来ない所までチップが持つ演算能力が高くなってしまってる訳です。

      例えば1GBのメインメモリをキャッシュメモリと同じようにオンチップに出来ればチップと主記憶の距離などに由来した遅延時間は無視できるでしょうが、そのような物は出来るにしても極めて高価になるのでチップの外の基板上に主記憶を配置する訳で、仮にメモリチップ自体についても超高速にしたとしても(現にそうなっていますが)、メモリとCPUの間の配線距離やらバスを同期させるタイミングやらが邪魔をして非常に遅く見えてしまっています。

      で、そういう前提がある時にどうすればいいかと言えば時分割処理を複数の処理コアでやってキャッシュヒットの確率を劇的に上げたり、I/O処理のようなウェイトしてる方が多い処理は時分割処理とは別の処理コアに並行してやらせるような形で時間をロスするリスクを分散してしまったりする事で本来的には余ってしまう処理速度をとことん喰い潰そうとする訳です。

      その為にマルチコアやGPU等の専用処理チップへの演算分散と言うやり方が出てくる訳で…並列プログラミングとかはあくまでもマルチコア化の結果・アウトプットであって前提ではない。と思うのですが…

      親コメント
  • by Anonymous Coward on 2009年10月16日 15時40分 (#1655078)
    無くなると言われながら、無くならないどころか増えるとか。
  • by Anonymous Coward on 2009年10月16日 17時29分 (#1655164)

    Reversible computing requires preservation of all information throughout the entire computational process; this implies that all errors that appear as a result of the interaction of the information-carrying system with uncontrolled degrees of freedom must be corrected. But this can only be done at the expense of an increase in the entropy of the environment corresponding to the dissipation, in the form of heat, of the “noisy” part of the system's energy. This Letter gives an expression of that energy in terms of the effective noise temperature, and analyzes the relationship between the energy dissipation rate and the rate of computation. Finally, a generalized Clausius principle based on the concept of effective temperature is presented.

    (情報を捨ててしまわないので無限に省電力な)逆計算可能なシステムであっても、熱雑音の限界があってそれを求めたという話だろ。
    ムーアの法則なんて引き合いに出したバカはどいつだ

    http://search.goo.ne.jp/web.jsp?IE=utf-8&from=blog-edit&PT=blo... [goo.ne.jp]

    • by Anonymous Coward

      熱力学と量子力学を同じ位置に並べる人が馬鹿ではないと?

      • by Anonymous Coward
        > 熱力学と量子力学を同じ位置に並べる人が馬鹿ではないと?

        あなたのことですか?
typodupeerror

アレゲは一日にしてならず -- アレゲ研究家

読み込み中...