アカウント名:
パスワード:
本家記事で紹介されているリンク先より、以下の記事のほうが情報が多いようです。
A compact hyperspectral camera at Photonics West [physicstoday.org]
こんな感じのことが書かれていますね。
この光学フィルタって、2枚の反射板の間のギャップ幅を調節することで、狙った波長の光だけを通している…という理解でいいんでしょうか。ここ Fabry-Perot filter [infratec.de](PDF) をみるとそんなような図がありますが。従来の同種のカメラでは高価ででかくて遅かったところ、この小さな装置ではほぼワンショット(ただしギャップ調整はあり?)でフルスペクトルの画像が撮れる、そして安い! というところですかね。
# イメージ情報はRGBでないため、一般的な画像圧縮を使えないところがちょっと痛い?## そんなときは compress で。
下記は像は小さそうですが,ワンショットでx-y-λ情報を取得している様です。http://www.engadget.com/2011/12/15/researchers-turn-a-dslr-into-hypers... [engadget.com]EOS5Dのレンズフィルタに取り付けていますが,手作り感たっぷりなのが良いですね。
ニュートンリング [wikipedia.org]と同じ理屈で特定波長の強い・弱い像を作って撮影するっぽいですね。似たような領域の光は似たような強さに減衰してるので、似た色を切り分けようと思ったら撮影後に数値解析かけないとうまく分解できないんじゃないかな。エイリアスが出そうな気がするけど。
ワンショットごとにギャップを変える必要が有りそうなので、シャッター時間×スペクトル解像度分の撮影時間が必要な予感がします。ピクセル単位でギャップを変えて(or予め下駄を履かせて)おけば空間解像度とトレードオフは出来るかな?
>ただしギャップ調整はあり?
十分に精度良く&高速にギャップ間隔を変化させられるなら、事実上ワンショット(実際には間隔を変化させる時間がかかるけど)で各ピクセル(が写している点)のスペクトル分解が出来るわけですね。そうでないなら、振動させといてFFTかければ良いのかな?
これってSoCというよりMEMS [wikipedia.org]っぽい気配がびんびんですね。
Compact, low-cost and fast hyperspectral imaging solution [www2.imec.be]
大元のIMECのニュースリリースにはSoCとは一言も書かれていないのですが、市販のCMOSイメージセンサのウェハに後処理で光学フィルタを作り込むようなことが書いてあります。それは確かにSoCっぽいですが、しかしそんなこと可能なのか、とびっくりしてしまいました。
(切手をシートで買うかの如く、CMOSセンサをウェハで売ってもらうのかぁ)
>切手をシートで買うかの如く、CMOSセンサをウェハで売ってもらうのかぁ
LSIのベアチップ販売は珍しくもないので、ウェハ売りもそれほど奇異なことではないでしょう(ただし光学センサはテストの問題があるのでいろいろ大変だろうとは思いますけど)
>この光学フィルタって、2枚の反射板の間のギャップ幅を調節することで、狙った波長の光だけを通している…という理解でいいんでしょうか。>ここ Fabry-Perot filter(PDF) をみるとそんなような図がありますが。
フィルタ部分の膜厚を調整できるみたいですね。びっくりしました。
最初は三板式(RGB)カメラの向こうを張って百板式でも作ったのかと思いましたよ。それはそれでそそられるかも>百板式カメラ;;
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
長期的な見通しやビジョンはあえて持たないようにしてる -- Linus Torvalds
タレコミだけでは原理がよく解らなかったので、本家のコメントを読んでみました (スコア:3, 参考になる)
本家記事で紹介されているリンク先より、以下の記事のほうが情報が多いようです。
A compact hyperspectral camera at Photonics West [physicstoday.org]
こんな感じのことが書かれていますね。
この光学フィルタって、2枚の反射板の間のギャップ幅を調節することで、狙った波長の光だけを通している…という理解でいいんでしょうか。ここ Fabry-Perot filter [infratec.de](PDF) をみるとそんなような図がありますが。
従来の同種のカメラでは高価ででかくて遅かったところ、この小さな装置ではほぼワンショット(ただしギャップ調整はあり?)でフルスペクトルの画像が撮れる、そして安い! というところですかね。
# イメージ情報はRGBでないため、一般的な画像圧縮を使えないところがちょっと痛い?
## そんなときは compress で。
Re:タレコミだけでは原理がよく解らなかったので、本家のコメントを読んでみました (スコア:2)
ハイパースペクトルイメージを取得するには、空間2次元(x-y)と波長1次元(λ)の3次元データを得る必要があります。
このカメラは撮像素子の2次元を空間のx-yに割り当てているのでλに関しては走査しなければなりません。
既存のハイパースペクトルカメラの多くはグレーティングで分光するので撮像素子をx-λに割り当て、yについては空間走査をします。
つまり、2次元撮像素子を使う以上はハイパースペクトルイメージをワンショットで取得することはできないのです。
空間の1次元分か波長を走査することが不可欠なので、リアルタイムでハイパースペクトルイメージを取り込むには
なんらかのブレイクスルーが必要になりますね。
Re:タレコミだけでは原理がよく解らなかったので、本家のコメントを読んでみました (スコア:1)
下記は像は小さそうですが,ワンショットでx-y-λ情報を取得している様です。
http://www.engadget.com/2011/12/15/researchers-turn-a-dslr-into-hypers... [engadget.com]
EOS5Dのレンズフィルタに取り付けていますが,手作り感たっぷりなのが良いですね。
Re: (スコア:0)
ニュートンリング [wikipedia.org]と同じ理屈で特定波長の強い・弱い像を作って撮影するっぽいですね。
似たような領域の光は似たような強さに減衰してるので、似た色を切り分けようと思ったら撮影後に数値解析かけないとうまく分解できないんじゃないかな。エイリアスが出そうな気がするけど。
ワンショットごとにギャップを変える必要が有りそうなので、シャッター時間×スペクトル解像度分の撮影時間が必要な予感がします。
ピクセル単位でギャップを変えて(or予め下駄を履かせて)おけば空間解像度とトレードオフは出来るかな?
Re: (スコア:0)
>ただしギャップ調整はあり?
十分に精度良く&高速にギャップ間隔を変化させられるなら、事実上ワンショット(実際には間隔を変化させる時間がかかるけど)で各ピクセル(が写している点)のスペクトル分解が出来るわけですね。
そうでないなら、振動させといてFFTかければ良いのかな?
これって (スコア:0)
これってSoCというよりMEMS [wikipedia.org]っぽい気配がびんびんですね。
Re:これって (スコア:2)
Compact, low-cost and fast hyperspectral imaging solution [www2.imec.be]
大元のIMECのニュースリリースにはSoCとは一言も書かれていないのですが、市販のCMOSイメージセンサのウェハに後処理で光学フィルタを作り込むようなことが書いてあります。それは確かにSoCっぽいですが、しかしそんなこと可能なのか、とびっくりしてしまいました。
(切手をシートで買うかの如く、CMOSセンサをウェハで売ってもらうのかぁ)
Re: (スコア:0)
>切手をシートで買うかの如く、CMOSセンサをウェハで売ってもらうのかぁ
LSIのベアチップ販売は珍しくもないので、ウェハ売りもそれほど奇異なことではないでしょう
(ただし光学センサはテストの問題があるのでいろいろ大変だろうとは思いますけど)
Re: (スコア:0)
>この光学フィルタって、2枚の反射板の間のギャップ幅を調節することで、狙った波長の光だけを通している…という理解でいいんでしょうか。
>ここ Fabry-Perot filter(PDF) をみるとそんなような図がありますが。
フィルタ部分の膜厚を調整できるみたいですね。びっくりしました。
最初は三板式(RGB)カメラの向こうを張って百板式でも作ったのかと思いましたよ。
それはそれでそそられるかも>百板式カメラ;;