パスワードを忘れた? アカウント作成
187 story

ネイティブを上回る効率のCPUエミュレーション登場 14

ストーリー by Oliver
まゆつば 部門より

juno 曰く,"MYCOM PC WEBによるとTransitive Technologiesというところが「将来的にはアーキテクチャー次第でネイティブ・コードを上回る可能性もある」CPUエミュレーション・ソフトを開発しているとか。原理的にはTransmetaのコードモーフィングと同じっぽいけど、変換したコードのうちより重要と思われるコードをグループにしてキャッシュに残すという点がポイントらしい。採用製品が出てくるのはいつになるかな。"

いまどき、CPUエミュレーションを使う利点はあるのか。そもそも複数アーキテクチャで動くプラットフォームのソフトは移植性が高いし、アセンブラレベルでの最適化が必要なソフトがエミュレーションで十分なパフォーマンスが得られるとも思えない。それでもこういう話にはワクワクしてしまう。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • by kitaj (186) on 2001年06月12日 17時47分 (#1776) ホームページ
    AMIGAのVPのようなアプローチもおもしろいですよね. VPについてはここらへんが参考になります.
  • 結局エミュレーションができると行っても、ピンはx86互換で出るからx86互換石になっちゃいますよね。
    結局CPUだけエミュレーション出来ても、仕方ないんですよねー。ボードとかチップセットの問題あるし。
    もしくはJavaVMチップになるとか。

    クルーソーは消費電力や熱の問題でダイを小さくするためにエミュを作ったんですよね。
    他CPUをエミュレーションする目的ってなんでしょうね?
    --
    May the 4th B w/z U
  • Intel の x86 の石にしても,内部では別の命令セットに
    変換しているんじゃなかったかな.

    ということは,エミュレーション,といっても,
    石の外に見えるか,石の中でやってるかの違いでしか
    ないのかも.
  • そういえば内部はRISC化したって話がありましたよね
    --
    May the 4th B w/z U
  • > Intel の x86 の石にしても,内部では別の命令セットに
    > 変換しているんじゃなかったかな.
    micro-opsってやつですね.Pentium Proからでしたっけか?
    でもあれはエミュレーションって言うのだろうか?
    実存する,他のCPUのアーキテクチャをエミュレートしてるわけではないし.
    CPUの内部構造をRISC的にして,高速化手法(パイプラインなど)をうまく使えるように,
    とかいうのが目的だと思いましたけど.
  • > 他CPUをエミュレーションする目的ってなんでしょうね?

    バイナリでしか供給されていないプログラムを動かすため :-)
  • ということは、Intel の「エミュレーション」というか命令セット変換ソフトウェアよりも優れたものを作れば、エミュレーションでも Intel チップより速いものを作れる可能性があるわけだ。ということは、「ソフトウェアでエミュレーションしているから遅い」というのは当たらなくなる?
  • バイナリを他のCPUで動かせるってことですよね?
    元からソースコードが公開されているソフトなら、そんな不自然で大変そうなことわざわざしなくてもコンパイルすればいいことじゃないかな…

    と、オープンソース&フリーウェア派には意味ない話題じゃないかな…と思ってたんですが、皆さん結構書き込まれてますね。
    --
    /.configure;oddmake;oddmake install
  • これまでコンパイラだけでやっていたソフトウェアの最適化がハードウェアの支援を受けられるようになったというのは非常に「面白い」ことかなと。RISCはコンパイラ(ソフトウェア)がハードウェアに歩み寄ってこそ成り立つ技術ですが、こんどはハードウェアがソフトウェアに歩み寄ってきたといった感じですか。
    個人的には次の世代にはFPGAのようなReconfiguableハードがおもしろいかもと思っていましたが、案外こういったTransmeta系のハードがおもしろくなるかもですね。
    #オープンソース的には同様の技術を用いたオープンソースなハードウェア
    #が出てくるのを期待。
  • FreeCPU 「Sayuri」ってそうじゃなかったでしたっけ?<オープンソースなCPUを目指す
    --
    May the 4th B w/z U
  • この手法(内部でRISC命令に分解)を最初にやったのはNx586だったかなあ。RISC86とか呼んでましたよね。そのころはP5だからまだ命令コードをそのまま実行ユニットに渡してたと思います。いずれにせよ、CPU内で命令コードをもっと低レベル処理に分解して、っていう話は、ハードが実行するわけだし、毎回機械的に分解しているだけだから、外部でソフト的に「コンパイル」したコードをコアへ持ってくるのとはちょっと違いますよね。クルーソーなんかは、VLIWコンパイラ向けのノウハウを駆使して最適化して効率のいいコードを吐く、というのがポイントだったはずだから…。
  • >個人的には次の世代にはFPGAのようなReconfiguableハードがおもしろいかもと思っていましたが

    以前にもプロセッサのマイクロコード(プロセッサ内の各ロジックの処理をつかさどる内部プログラム)を動的に変更できるものがあったような気がしますが、これって、それに近いかもしれませんね。
    --
    masamic
  • by Anonymous Coward on 2001年06月12日 17時59分 (#1778)
    毎回コードを解析するのと、良く使う部分はキャッシュするのとでは、同じ速度でも消費電力が大きく違うと思われ。
    性能的にもキャッシュ部分のパイプラインを短く出来るので、予測分岐のミスヒットなどのリスクを小さく出来る利点があるかも。
  • by Anonymous Coward on 2001年06月13日 11時55分 (#1890)
    まずIntelCPUより高性能なCPUを開発しないといけないのが問題かな
    遅いCPUでエミュレーションしても意味無いだろうし

    そういえば昔、Win-NTでほぼ同じ事をしていたけど、あの辺りの特許はどうなってんだろう?
typodupeerror

普通のやつらの下を行け -- バッドノウハウ専門家

読み込み中...