miwa chiharu曰く、"シャープ株式会社の4月14日付けのニュースリリースと、同日のZDNNニュースによると、撮影可能な明暗比が通常のイメージセンサーに比べて約1万倍以上向上したセンサーを開発したと発表している。このセンサーを使ったカメラならば、従来のカメラには必要だった面倒くさい光量調節のための絞りが不要になるとのこと。実際にニュースリリースのサンプル画像(白黒)を見てみたところ、トンネルの中のような逆光になる環境下でも、鮮明に撮影できている。これがデジタルカメラに実装されるとなれば、今まで苦手だった夜間の撮影も楽になるかも知れない。"
2chのデジカメ板でも出てました。 (スコア:2, 参考になる)
123番あたりにも出てました。
ちなみに、そこによるとミノルタも似たようなものを出している [minolta.com]そうです。
Re:2chのデジカメ板でも出てました。 (スコア:2, 参考になる)
発表していて「だったらとっととデジカメに載せんかい!」
とか思っていたのだけど、特殊な用途向けのカメラにしか
使われなかった(それにモノクロだったし)。
今度2社が同じような時期に発表したってのはなんか関連技術で
ブレークスルーがあったんだろうか?
シャープのほうはサンプル画像もモノクロだし、用途例も
業務用などしか挙けられてないのがちと残念。ミノルタのほうは
今度はカラーで出してきたし、用途に「携帯電話」「PDA」なんて
言葉が入っている。期待していいんですよね?w
いや、しかしミノルタは結構先進的な技術たくさん持ってるけど
ぜんぜんそれを製品化しないからなぁ・・・・。
しかし、人間の網膜並にダイナミックレンジが広いので
もう絞りは要らないとか言われたら、「虹彩」の立場は・・・?
すげぇーー!発明。 (スコア:0)
Re:すげぇーー!発明。 (スコア:1)
これでようやく (スコア:2, 興味深い)
危険察知 (スコア:1)
あ、そうか!
新しいイメージセンサを使えば、それも事前に察知できて、より安全ってことなのかな?
# よく見るとトンネルの出口に道路を横断しようとしている自転車も映っていて、「JAFメイト」の危険予知の例題(?)に似ていなくも無い
Re:危険察知 (スコア:1)
再生は? (スコア:1)
それだけの輝度差をリニアに表示できる
装置ってあるんですか?
Re:再生は? (スコア:1, 参考になる)
というのも、白飛びや黒潰れが生じないってことは、
データとしては充分加工できるってこと。
白飛びや黒潰れ部分には情報がゼロだから、どんなに頑張って
加工しても何も出てこないからね。
それから、このCMOSセンサはリニアじゃないみたいですよ…。
輝度差を対数で表現できる液晶が出れば丁度良い?(笑
Re:再生は? (スコア:1)
>というのも、白飛びや黒潰れが生じないってことは、
>データとしては充分加工できるってこと。
加工して、その輝度差をきっちり保持したとしても、
それをどこで再生するのか?というか...原版がそれ
だけ高度であるなら、それを見たいと思うのは人情
ではなかろうか?...と...
そんなものをまともに見たら目が潰れるかもしれま
せんけどね。
>輝度差を対数で表現できる液晶が出れば丁度良い?(笑
それはそれでメリハリがなさそうな絵を想像して
しまいますね。
# 太陽と現実は直視しないことにしています..;-)
Re:再生は? (スコア:1)
ミリ波レーダーを使った障害物検出は実用化が始まっているけど、それだけだと飛び出してくる自転車は検出できない。だから画像を取り込んで形状を認識したりする必要がある、ってことをあのニュースリリースの比較画像では主張してるんでしょうかね。
Re:再生は? (スコア:0)
http://www.google.co.jp/search?sourceid=navclient&hl=ja&ie=UTF-8&oe=UT... [google.co.jp]
光あれ! (スコア:5, 参考になる)
ちょっと説明。
HDRIってのはハイ・ダイナミック・レンジ・イメージの略で、
白よりも白い白とか、黒よりも黒い黒がある画像のことです。
・・・わけわかんない説明だ。
HDRIの画像はRGBにそれぞれ32bit以上のbit幅を持ってる(だからハイ・ダイナミック)のです。
普通のデジカメ画像だと、机の上の白い紙も、窓の曇りガラスも、
蛍光灯の白も同じ白(255,255,255)なんですけど、HDRI画像の場合
机の上の白い紙よりも明るいであろう窓ガラスや蛍光灯は(406,406,406)とか
(414,554,844)みたいな白よりも明るいという情報が入ってるわけです。
それでなにが嬉しいのかっていうと、この方法でパノラマ撮影した画像を巨大な
球体に貼り付けてその内側に3Dオブジェクトを配置してレンダリング
すると、実物ときわめてよく似たライティングでレンダリングができるのです。
この手法はイメージ・ベースド・ライティングといいます。
たとえばこんな映像 [debevec.org]ができます。
ちょーリアル。
実物とCGを合成しなければならないときに、実物を撮影した
ついでにこのHDRI法で背景画像を撮影しておけば、理論上は
全く同じ光源の元でCGオブジェクトをレンダリングすることができます。
もっと判りやすい説明はこちら [tripod.co.jp]。
いまはこのHDRI画像を作ろうと思ったら、絞りのあるカメラかデジカメで
絞りを変えて何枚も撮影した同じ画像を重ね合わせて作らねばならんのですが、
それが簡単にできるということはCG屋さんにはちょっと嬉しい。
Re:光あれ! (スコア:1, 興味深い)
もちろん CMOS センサの特性が分かっていればそれぞれの色空間向けに上手に変換することは可能だと思うけど。つーか生データのまま保存すんの?これ。そんな無茶なって気がするんだけど…。
記録 → 分析用途とか、CG 屋さん向けとか、そういう用途の方が向いてると思うんだけどなぁ。
# これでプリクラ作ったら美白効果がなくなるような気がするので AC
Re:再生は? (スコア:1)
Re:再生は? (スコア:1)
CCDで10EVを捕らえられるとして、それを5EVに圧縮して表示すればいいのだから。
具体的に言うと、CCDは10EVの輝度差を8bit(0-255)で表現して、表示装置はその8bit値を5EVで表示する、と。
Re:再生は? (スコア:1, 参考になる)
当面の普通の人向けの使い道としては、スレッドの上のほうで指摘されているように、
露出アンダーやオーバーになってしまった(用に見える)データでも、
表示側のダイナミックレンジを超える域にもデータがあるので、
簡単にシフトさせて映りのいい画像に修正しやすくなるというのがメリットかも。
あとはフィルム財産のデジタルデータ化で、フィルムの情報を余すところ無く取り込むことができるようになる、
とかも使い道のひとつになるね。
表示のほうはDLPやGLV,PDPなどの新しいデバイスでコントラストでは数千:1という数字をはじき出しているがまだまだ3~4桁足りないなぁ。
Re:再生は? (スコア:1)
そういう奴をパーソナルなカメラでも使わせてくれる時代が、早く来るといいなぁと思っています。
それこそメリハリは加工で出せるんだったら、写真編集ソフトがなんとかすればいいわけで、
対数センサ対応(???)の自由ソフトが出てくれればそれでいいかなーと。
さて。
>露出アンダーやオーバーになってしまった(用に見える)データでも、
>表示側のダイナミックレンジを超える域にもデータがあるので、
>簡単にシフトさせて映りのいい画像に修正しやすくなるというのがメリットかも。
(オフトピだけど)どこかで聞いた話だと思ったらこれって、
昔、一時期、ヤマハがデジタル楽器の一部で使っていた技術と似てます。
つまり、音声信号を対数(?)で扱っていたんだそうでして。
今みたいにメモリも処理速度も(その他の技術も)十分有る時代なら、
16bitだろうが32bitだろうが好きなだけ(リニアな)ダイナミックレンジを持たせりゃいいんですが、
十数年前だとそうもいかなかった。
で、(カタログによると)当時のヤマハが何したかってーと、データ(あれはサンプラーだったかなあ?)を
12bitだか10bitだかの対数(?)表現に圧縮しておく、というものだったそうです。
----
ん?ということは、今回のこの映像技術も実は過渡的なもので、
将来はセンサの処理可能なbit数が圧倒的に増えて、
それを使えばリニアで問題なく対処できるようになっちゃったりする、んだろうか…?
Re:再生は? (スコア:1)
・フィルムに記録できる明暗の範囲は10EV程度(1000倍)
・印画紙上で表現できる明暗の範囲は5EV程度(30倍)
なわけで、日常的に
> 露出アンダーやオーバーになってしまった(用に見える)データでも、
> 表示側のダイナミックレンジを超える域にもデータがあるので、
> 簡単にシフトさせて映りのいい画像に修正しやすくなるというのがメリットかも。
というのはやってますね。
私はヘタレなので、これで助かることが多いです。
トライXで撮って4号か5号で焼くなんて夢のまた夢…
> 将来はセンサの処理可能なbit数が圧倒的に増えて、
> それを使えばリニアで問題なく対処できるようになっちゃったりする、んだろうか…?
このネガフィルム-印画紙と同じリカバリーができるようにするには、
5EVが256階調(8bit)に対応するとして、さらに5EVってことで、13bitあれば
リニアでもなんとかなりますね。
絞り不要にするには、通常の絞りはせいぜい8段(F1.4~F32)もあればいいでしょうから、
さらに8bitの21bitってところでしょうか。
RGB各21ビットの1ピクセル63ビット…HighColorみたいな感じでちょっとキリが良いかも…
Re:再生は? (スコア:1)
で、焼くときに号数を選んでコントラストを調整するので、階調の圧縮伸張というのは、古くからあるわけで。
#カラープリントではそういうのが基本的にできないから、忘れられてしまってますが。
ちなみに、
>将来はセンサの処理可能なbit数が圧倒的に増えて
はセンサというより、センサ直後のA/D精度の方に依存しますね。まあCCDとアンプのノイズでどこまで解像できるかが決まるんでしょうけど。
Re:再生は? (スコア:0)
銀塩フィルムのダイナミックレンジは余裕があるため
焼付けの際に調整をすることができます。
逆光やハレーションの写真で大きな差が出るのはこのためです。
というのを聞いたことがあります。
伝聞なのでAC
工夫次第 (スコア:0)
1677万色対応の出力デバイスで表示できると思います。
そういう事言うなら・・・ (スコア:0)
とかいくらでもできるじゃんかよ~。
ケンシロウ進数とかenfishコードどかなんでも・・・。
同等? (スコア:1)
ロボットの目 (スコア:1)
// jack_mexfer
フレーム数については誰も注目しないのか (スコア:1, すばらしい洞察)
Re:フレーム数については誰も注目しないのか (スコア:2, 参考になる)
ちょっとGoogleで調べたところ,高速撮影可能なCMOSセンサとして:
・超高速カメラシステム・ITL-HSC(360fps) [msol.co.jp]
・ナショナル セミコンダクター LM9630(600fps) [national.com]
などを見つけました。他にもあるでしょうけど。
CMOSセンサによる高速撮影って,現状で何fpsぐらいまで達成できているのでしょうか?
あと,高速撮影だと,東大石川研のビジョンチップ [u-tokyo.ac.jp]もありますね。並列化で1000fpsを達成しているのではなかったかと記憶してます。ロボットハンドと組み合わせた応用研究 [mainichi.co.jp]もされています。
# 画像処理系の話からは遠ざかって久しいので,事実誤認があったらすいません。
Re:フレーム数については誰も注目しないのか (スコア:1)
Re:フレーム数については誰も注目しないのか (スコア:0)
1024x1024 16bitcolorだとして
1フレーム 2Mbyte
4000フレーム/秒のとき
2Mx4000 = 8Gbyte/Sec
本当?
データフォーマット (スコア:1)
ところでこのセンサからの出力フォーマットってこれ [srad.jp]の互換だったりするんですかね?
さすがはシャープ (スコア:0)
お願いだから (スコア:0)
Re:お願いだから (スコア:0)
自分にとってはCMOS=BIOS。「CMOSの電池切れてるぅ~」とか。
# TTL? Time To Live.
CCDは「CCDイメージセンサ」じゃなくていいのかな?
TTL? (スコア:1)
Re:お願いだから (スコア:0)
Re:お願いだから (スコア:1)
# モトローラってとこ重要。
## この所為でかなり後の頃まで、14XXXと4XXXは別物だと思ってた。^^;;;
### 半田直着けで、良く吹っ飛ばしてたなぁ…
Re:お願いだから (スコア:0)
Re:お願いだから (スコア:0)
Re:お願いだから (スコア:1)
だうと。:-)
CCDの機能の本質はその通りですが、その構造上本質的にダイオードを含みますからきちんと遮光しないと光を感じてしまいます。
絞り不要? (スコア:0)
人間の目と同等のダイナミックレンジがあっても、それで不要とは言えないと思われ。
大体、人間の目にもしっかり絞りは付いている訳で。
カメラの場合、絞りには光量調節の意味だけでなく被写界震度の調整をも意味している訳でだし。
実際に、未だに銀塩にこだわる層は、この被写界震度の不満が大抵であるかと思われます。
#他にもラテチュードの問題もあるけど、それはこのセンサーでどうにかなるのかな?
Re:絞り不要? (スコア:1, 興味深い)
潔く飛び、つぶれるからこそ美しいこともある。むしろ飛び際、つぶれ際がよいのだなぁ。
Re:絞り不要? (スコア:1, すばらしい洞察)
正確に記録できるのが正しいあり方、進化の仕方。
飛び、つぶれは変調、加工の技術だ。ピクチャーデータが
素の情報を余すところ無くきれいに記録しているなら、
あとは飛ばそうがつぶそうが、デジタルマジックで思いのまま。
Re:絞り不要? (スコア:1)
>広いデジタルフォトデータがあれば、撮影後にエミューレーション
>することも可能だと思うけど。
被写界深度というのは、カメラとの距離に応じてピントの掛かり具合が
異なる現象なのですから、それを再現するためにはその画像の各ピクセルが
カメラからどれだけ離れているか、というZ情報が必要だと思います。
二眼で撮影するとか、赤外線フラッシュを使って距離情報も同時に撮るとか、
縞々のストロボを焚いてZ座標を推理するとか、そういうデジカメが
昔あったと思った。
デジカメとはちょっと違うけど、レーザーレーダーを使って
画像データを撮影するだけじゃなくて
点群でモデリングしちゃうというすごい機械もあるらしいです。
Re:絞り不要? (スコア:1)
被写界深度が浅い状態で撮影された時点でピントが合っている位置の前後の情報は削られているので、後でどのようなデジタル処理をしても被写界深度の深い画像は得られません。
モザイクのかかったVTRから元の画が再現できないのと同じ理屈。モザイク除去器で目立ちにくくする事はできますが:-)
逆に被写界深度の深い画像は多くの情報量を持っているので被写界深度の浅い画像を合成できる可能性がありますが、simonさんが書かれているように2次元画像になった時点でZ軸の情報は欠落していますので、単純なフィルターでは最初から浅い被写界深度で撮影した画像と同じ物は得られません。
何らかの付加的な情報(Z軸情報とか、手動で範囲を指定するとか)があれば似たような絵は作れるでしょうがね。
Re:絞り不要? (スコア:1)
一般的な撮像光学系は、3次元空間の輝度分布を2次元空間に無理矢理落し込んでやる機構で、その過程で必ず情報欠損が起こります。その欠損の方向性として平面方向の位置情報が不正確になる (奥行き方向の情報が平面方向の「ぼけ」として表現される、被写界深度の浅い像) ものと奥行き方向の位置情報が不正確になる (その代わり平面方向の情報は深さに関係なく失われない、被写界深度の深い像) ものがあり、この比は光学系口径と焦点距離の比で決まります。「絞り」は、この光学系口径を調整する機構です。
一度欠損された情報を戻す方法はありません。例えば「ぼけ」た像をデコンボリューション処理でシャープにする事はできますが、どこまでシャープにすれば元の像に戻ったかを「常識」とか「思い込み」無しに決定する方法はありません。
Re:絞り不要? (スコア:1)
From hirax.net
その1 [hirax.net] その2 [hirax.net]
この2例は上下左右がループしているコンピュータ処理ですので完全な元画像が得られていますが、
実際の例でも、端からある程度以上離れた内側部分は同じ考え方でほぼ完全に復元できると思います。
(ある程度の距離=ボケの有効半径?)
(ボケの有効半径としてきれいになったところが、ピント位置?)
Re:絞り不要? (スコア:1)
オートフォーカスだってそんなようなことしてるんだし。
# できそうな気がするけどなぁ...
Re:絞り不要? (スコア:1)
普通、距離は画面の部分ごとに異なるのですが…
Re:絞り不要? (スコア:1)
暗い所でも絞り開放でピンボケ写真撮っておいて画像処理で復元...えーなぁ...
# 披写界深度の変換は...できるといいなぁ...できそうな気がするけど。
Re:絞り不要? (スコア:1)
現実問題としては、画素解像度や色解像度が足りるか?とか膨大な計算量を行うだけのCPU時間が使えるか?などが障害になって、復元画像を得るのは困難だと思いますが。
#ゴルゴ13にボケた画像から、ゴルゴ13の射殺現場写真を復元するって回がありましたね。