パスワードを忘れた? アカウント作成
276938 story
テクノロジー

NTT と京都大学、量子コンピュータ実現に近づく誤り耐性技術を開発 18

ストーリー by reo
着実に進捗 部門より

ある Anonymous Coward 曰く、

クラウド Watch の記事によれば、NTT と京都大学が量子コンピュータ実現への障壁を緩和する誤り耐性技術を開発したと発表したとのことだ (NTT のプレスリリース) 。

量子コンピュータ実現に向けては、多少の誤りがあっても訂正しながら計算を進められる「フォールトトレラント量子計算」の実装が必須になるとのことだが、現実的なデバイスを考慮すると、どうしても誤り確率が高い量子ゲートとならざるを得ず、これが障壁となっていた。

今回開発した方式では、演算の成功確率に制限がなく、原理的には任意に小さい成功確率の量子ゲートを用いてフォールトトレラント量子計算を行うことが可能とのことで、特徴としては、計算モデルとして測定モデルの一方向量子計算を導入、また誤り訂正符号としてトポロジカル符号を導入、誤りの大きな確率的ゲートを用いてトポロジカル符号一方向量子計算のリソース生成に成功したとのことらしい。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • by Anonymous Coward on 2010年11月26日 12時47分 (#1864504)
    量子コンピュータが一般人お断りレベルまで実用化に近付いてきたからだと思ってOK?
    専門用語の連続で全然判んないよ!
    「フォールトトレラント量子計算」「一方向量子計算」「トポロジカル符号」とかスイスイ理解できる人が一体どれほどいるのだろう・・・。
    • こういう時こそGoogle先生の出番ですぞ
      親コメント
      • by Anonymous Coward
        自分が知らない分野の専門用語だと、1つ調べるたびに新しい分からない単語が2つ増えるという無限ループに陥る可能性が…。
    • by Anonymous Coward

      え?
      要するに
      「量子コンピュータって細かすぎて結構アバウトだから補正する技術作りました!」
      って話だろ。
      揺らぎだの不確定性原理だの持ち出さんでも一般人相手ならこれでいいんじゃないの?
      あんまり難しいこと考えてると頭髪の存在確率が無限に小さくなるぞ。

      • by Anonymous Coward

        「プログラムが停止しました」みたいなダイアログが出ると脳みその働きが停止するタイプなんでしょ。
        まあ「フォールトトレラント量子計算」くらいは「誤り許容量子計算」とでも訳してやれよという気がしないでもないけど。

  • by Anonymous Coward on 2010年11月26日 11時49分 (#1864443)
    煽り耐性技術
    • by Anonymous Coward

      開発したら/.Jの存在意義が根底から無くなるじゃないか

      • by Anonymous Coward
        それ以前にスルーカが足りないからね。
    • by Anonymous Coward

      > 煽り耐性技術

      を打ち破る煽り技術

  • by Anonymous Coward on 2010年11月26日 14時59分 (#1864596)

    サイモン・シンの『暗号解読』読んでたら、「量子コンピュータが実用化されたら巨大な素数の素因数分解が超簡単にできるようになるので今使われてる暗号は軒並み解読されまくり。まあ量子コンピュータを使った暗号化なら破られないけど、過渡期はヤバイよねえ」みたいなこと書いてあったけど、これってドレくらいホントなの?ホントに量子コンピュータで今使われてるRSA暗号とかが解読されちゃう?

    • Re:暗号解読 (スコア:2, 参考になる)

      by Anonymous Coward on 2010年11月26日 15時55分 (#1864634)

      最近の多くの暗号(全部ではない)は巨大な数の素因数分解がめんどくさいと言う事実に基づいています。
      知られているアルゴリズムの範囲では、2進数でn桁の数字の因数分解にはおおよそ2n^1/3程度のオーダーの計算時間が必要で、これは桁数が増えるとあっという間に発散していくために大きな桁数の数字を使えば事実上逆演算が出来ません。

      一方、量子計算の分野でよく知られたShorのアルゴリズムの場合、因数分解に必要な時間はおおよそn(だったかn2だったか)に比例する程度でしか無く、桁数nが膨大なものになってもそれほど必要な時間は増えません。このため実用的な時間で素因数分解を行う(=復号のための鍵を探し出す)ことが可能になります。

      ただ、そのような演算を可能にするためには
      ・十分なqubit数を持つ量子コンピュータの実現
      ・計算時間の間コヒーレンスを保てる素子の実現
      が必要になりますので、今日明日にでもすぐどうにかなってしまう、というものではありません。というか実用的なqubit数の量子コンピュータが(技術的な問題として)作れるのかどうかも今のところよくわかっていません。現在のところ、10-qubitあたりが世界記録だと言っているレベルですので。
      これは言ってみれば演算器兼メモリが7 bitです、とか言うようなもので数の大きさ的にはお話になりません。

      ただまあ、固体素子で長距離のコヒーレンス&相関を保つ方法を誰かが見つければ、一気にqubit数がふくれあがるかもしれませんが……

      親コメント
      • by Anonymous Coward

        P≠NP予想を否定的に解くというアプローチもありますね。
        (P=NPだったらどうしようもありませんが)

    • Re:暗号解読 (スコア:2, 興味深い)

      by greentea (17971) on 2010年11月26日 21時59分 (#1864811) 日記

      本当に、因数分解は簡単になるのですが。
      それができるよりも先に、量子暗号が完成するだろなぁ、という印象です。

      今のRSA暗号は1024bitが使われているようですが、それを量子コンピュータで行うには、1024量子ビットの量子コンピュータが必要になります。
      今のところ、そんなスケールで行うことは難しく、たぶん8量子ビットですら量子コンピュータ作れるところなんて、世界中探してもいくつあるんだろうなぁ……
      (初めて量子コンピュータで因数分解に成功したのが2001年 [nature.com](15を3と5に因数分解)
      けれど、そういう実験系じゃ量子ビットの数が増えると実験系がバカでかくなりそうだから、チップに量子回路を組み込んでやってみたよ、というのが2009年のScienceに載っている [sciencemag.org]のですが、これもやっぱり15の因数分解です)

      それに対し、量子暗号は量子コンピュータよりはずっと実用化に近いです。
      ただ、現在は量子中継器がないので、増幅しなくてもファイバーで届く範囲に限られるのですが……
      (最近「東京QKDネットワーク」とかいうプロジェクトが始まったようなので、興味があるならぐぐってみてください)

      --
      1を聞いて0を知れ!
      親コメント
  • by Anonymous Coward on 2010年11月26日 19時42分 (#1864753)

    量子コンピュータの処理能力がすごいのは分かります。
    最近ぽつぽつ何々の技術が開発されました、というニュースも見かけます。
    しかし実現するまでの距離感がまったく掴めません。

    従来のシリコンコンピュータの知識は役に立たないかもしれませんが、
    詳しい方がいましたら最低限の骨組み完成までにあと何が足りないのか教えて頂きたい。

    • by Anonymous Coward on 2010年11月26日 20時54分 (#1864787)

      >あと何が足りないのか

      何もかもが足りません。

      まず決定的に足りていないのが、多ビット化の方法。量子演算を有効に使おうと思うと、基本的に全ビットに対し同時に操作を行う必要があります。つまり、100bitの数を扱おうと思うと100bitの演算器が要るようなものです。そして現在実現しているのはおよそ10bit。素因数分解だ何だという話に対しては絶望的に足りません。実際、実証として素因数分解したのなんて15を3*5と分解したとかそんな程度で、まさに理論の実証レベルです。
      特に、多くの多ビット系量子コンピュータは分子内の原子核のスピンを使っていますが、これでは多ビット化に限界があります(距離が遠くなるほど、分子内での核同士の相関が無くなって一体として扱えなくなる)。実用的なものを作ろうと思うなら、もっと超伝導リングなり何なりの固体素子であるとかそういうものを使う必要がありますが、そういったもので有効にビット間に量子的な相関(entanglement)を作る手法は誰も見つけていません。
      つまり、多ビット化は必要だけれども、技術的な問題どころかどうやればそれが出来るのか、というところから謎です。
      #ただし、どこかの誰かが想像も出来ないクレバーな手法を開発すればいきなり解決する可能性はありますが。

      次に、外界などからのノイズによるビット間の相関の消失(デコヒーレンス)を何とかする必要があります。こちらも量子誤り訂正だとか、まさに今回のタレコミの手法など開発が進められてはいますが、結局それらの手法を使おうとすれば必要なビット数も増加しますし難しいところ。
      #外乱につよいトポロジカルな量をビットとして使うことがうまくいけば、多少ましになります。

      そして、アルゴリズムが不足しています。
      量子コンピュータは、(1)解きたい問題を量子力学的な過程の組み合わせで解けるように問題を作り直して、(2)その過程を実際の測定手段の組みへとデコードして、それを系に施すことで結果が得られます。
      (1)に関しては、有名なShorのアルゴリズム(素因数分解がやたらと速い)だとか、データ検索が速いGroverのアルゴリズムなどごく少数の問題に関しては速く解けるアルゴリズムが存在しますが、一般的な計算を速くするアルゴリズムは(少なくとも今のところ)存在しません。
      (2)に関しては、コンパイラ的なものを作ろうという話はあります。ただ、あくまで(1)が終了した問題に関して、それを現実の系に適用できる測定の組みに分解するだけですので、そもそも(1)が汎用ではない段階で限定的です。
      たとえて言うのは難しいのですが、アナログコンピュータのようなものでしょうか。
      抵抗とかコンデンサとかの部品がたくさんある状況で、「y=x^2をx=0から100まで積分した答えが知りたいなあ」と考えたとき、積分回路作って電流を流し、たまった電荷として計算結果がすぐ求まります。しかし、「じゃあ今度はある微分方程式を解いてみよう」と思ったら、その微分方程式を解くと言うことはどういうアナログ回路として実現できるのか?というところからまず考えて、次にそれを実際の回路としてくみ上げて、そこで初めて計算が出来る、という。
      現状では、任意の数式を量子コンピュータで解ける形に変換するコンパイラがないんですよ。また、どんな問題が量子コンピュータで速くなるのかも謎です。ごく少数の限られた系に関しては速くなることが示されていますが、一般的な問題に対してそういえるわけではありません。
      #もしかしたら、量子コンピュータが速い問題はほとんど無いかもしれない。

      そんなわけで、十分なビット数を持つ量子コンピュータはすぐには実現しそうもありませんし、そもそももしかしたら未来永劫実現しないかもしれません。

      親コメント
      • by USH (8040) on 2010年11月27日 0時07分 (#1864859) 日記

        全くの素人の勘でしかないですが、この、大きなビットのコヒーレンスを成立できる確率かなにかが、指数的に小さくなっていく、というオチが待っていそうな気がしています。
        例えばショアのアルゴリズムで、コヒーレンスが成立すれば n のオーダで因数分解できるが、コヒーレンスを成立させるためには、2^nのオーダの試行が必要とか。で、結局NPはNP。

        親コメント
      • by Anonymous Coward
        現在の計算機に例えると、ノイマン、チューリング以前どころか、バベッジにすら到達していないってことでいいのかな?
        階差エンジンからざっくり100年後にENIACが誕生していることを考えると、量子コンピュータは今世紀中には出来そう?
typodupeerror

あつくて寝られない時はhackしろ! 386BSD(98)はそうやってつくられましたよ? -- あるハッカー

読み込み中...