teltelの日記: information and deconvolution
CMOS の記事 に変な話が出ている。
ピンぼけ写真は、シャープネスフィルターで直せるっていうんだ。
あるいは、フィルターによって任意の深度を得られるらしい。
最初に結論をいっちゃうと、無理。
レンズと検出器のレスポンスと、披写体の空間配置が必要。
でも、本論と関係ないからこっち。
まずこのコメント、前半のところはまあいい。
でも画像データからシャープフィルターでどうにかなる、
ってのは言いすぎ。
光学系のレスポンス、ある絞りである距離のただの点披写体を
うつすとどういう像なるか、というものが必要。
これは現状の光学系では距離依存、絞り依存、光の周波数依存があり、
センサー側にも同等の依存性がある。
レンズの端を通る光と、真中を通る光はレンズの吸収を受けて
ちょっと違いが出るし、収差も出る。
センサーも、波長による感度の違いや、
位置による増幅率などの性能のバラツキがでるからね。
こういうのを全部考慮しなくてはいけない。
シャープフィルターがこの逆演算をできるかというと、
基本的には無理。
ある点にきている情報が全部の点の情報と影響しあってることになるから。
重なりの大きい部分と、点の拡がりよりも小さい構造があったりすると、
もう逆は実質むり。
いまのセンサーはそんな解像度とダイナミックレンジをカバーしていない。
対称の配置情報も必要。
こっちの方が致命的。まあ2点で撮影するとか工夫すればいいのだけど。
このコメント のリンク先は正しい。
反論コメントは自ら首を締めてる。
露出時間が倍になったら、情報量が増えてるからいいのだ。
露出一定はdeconvolve に関係ないでしょ。
同じ拡がりをもっていたら、手前か奥かを区別できないしね。
それに件のCMOS センサーでもきっと読み出しはCCD と同じ程度の情報だろうと思うし。
ふつうは12bit くらいなのかな。
だから、ダイナミックレンジが広いってことは、
メインのところの情報密度は低下してるだろう。
まあとにかく、自分の理解が深まったので件のコメントは有効であった。
information and deconvolution More ログイン