アカウント名:
パスワード:
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
人生unstable -- あるハッカー
マーカー無し (スコア:3, すばらしい洞察)
最初にカメラをパンさせた際の複数の適当な点の移動距離から
空間情報を取得してるように見えますね。
なんとなく顔認識なんかとも相性良さそうな技術だなーと思いました。
# 論文読んでみよっと
Re: (スコア:2, 参考になる)
カメラ(視点)を回転させたときの画像上から得られる情報だけでは、奥行きの情報まではとれなさそうなのに、デモでは奥行きまで認識しているっぽいし。
どうやっているのでしょうね。複数のカメラがあるのかと思いきや、「三次元復元」で検索してみると「単眼動画像からの三次元復元」なんてのが出てくるし。
知らないうちに世の中は進歩しているなあ。
ちなみに電脳コイルでは、電脳物質(現実の視界上に重畳表示される映像)が現実の物質と交差・干渉するような描写があるので、電脳メガネ(&空間管理室サーバ)側では、特徴点以外も含めた(Zバッファ的な)奥行きの情報まで認識していそうです。
表面が曲面の物体まで含めると、これは非常に難しそう。
まあ、2015年まではまだ時間があるので、きっとどうにかなるでしょう。:-)
Re:マーカー無し (スコア:1)
http://www.digilab.uni-hannover.de/docs/manual.html [uni-hannover.de]
通常の二次元ムービーを解析して3Dソフト上で扱えるカメラの動きを吐き出してくれます。
ただまあ使ってみると分かりますがやたら時間がかかる上に誤認識やらノイジーな動きも多いです。
この技術もデモを見る限りすごいけど、実際のトコロどうなのかみてみたいなあ。
>ちなみに電脳コイルでは
ありゃあ、究極的なグーグルアースみたいに電脳世界にほぼ完全な3Dデータが存在する、っていう世界っぽいですよね。