パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

人間の目と同等性能のCMOS」記事へのコメント

  • by Anonymous Coward
    >従来のカメラには必要だった面倒 くさい光量調節のための絞りが不要になるとのこと。
    人間の目と同等のダイナミックレンジがあっても、それで不要とは言えないと思われ。
    大体、人間の目にもしっかり絞りは付いている訳で。

    カメラの場合、絞りには光量調節の意

    • by Anonymous Coward
       被写界深度って、絞ることによってフォトレタッチソフトなんか
      にある「シャープネス」(シャーペン?)フィルターと
      おなじ処理がかかることだから、解像度高くてダイナミックレンジも
      広いデジタルフォトデータがあれば、撮影後にエミューレーション
      することも可能だと思うけど。
      • >解像度高くてダイナミックレンジも
        >広いデジタルフォトデータがあれば、撮影後にエミューレーション
        >することも可能だと思うけど。

        被写界深度というのは、カメラとの距離に応じてピントの掛かり具合が
        異なる現象なのですから、それを再現するためにはその画像の各ピクセルが
        カメラからどれだけ離れているか、というZ情報が必要だと思います。

        二眼で撮影すると
        • by Anonymous Coward on 2003年04月15日 2時20分 (#298500)
          違います。カメラの絞りは入射する光に対して一様に
          フィルタリングをしているだけです。
           絞ることによって被写界深度が深まるというのは
          焦点の合っていない画素の周りにできるぼけた像が、
          絞りによって輝度を落とされて見えにくくなり、焦点が
          あっているように見えてくる現象です。
           ですから被写界深度の浅い画像を元にシャープ化のフィルター
          (デジタル的に同じことをします)をかけることで、被写界深度
          の深い(絞られた)画像を作り出すことが可能です。ただし、デジタル処理のシャープ化のフィルターは輝度を落とし(絞りと
          同じことですね)、ノイズを目立たせるので、ダイナミック
          レンジの広いデータじゃないとあまり実用的ではありません。
          その点でこういったCMOSは最適でしょう。
          親コメント
          • by Anonymous Coward on 2003年04月15日 2時46分 (#298508)
            前半(被写界深度と絞りの関係の説明)は正解だけど、後半(被写界深度の浅い画像から被写界深度の深い画像を作れる)は間違い。
            被写界深度が浅い状態で撮影された時点でピントが合っている位置の前後の情報は削られているので、後でどのようなデジタル処理をしても被写界深度の深い画像は得られません。
            モザイクのかかったVTRから元の画が再現できないのと同じ理屈。モザイク除去器で目立ちにくくする事はできますが:-)

            逆に被写界深度の深い画像は多くの情報量を持っているので被写界深度の浅い画像を合成できる可能性がありますが、simonさんが書かれているように2次元画像になった時点でZ軸の情報は欠落していますので、単純なフィルターでは最初から浅い被写界深度で撮影した画像と同じ物は得られません。
            何らかの付加的な情報(Z軸情報とか、手動で範囲を指定するとか)があれば似たような絵は作れるでしょうがね。

            親コメント
            • by Anonymous Coward
               ん~、ちがうな~。カメラで絞るということはまさに
              被写界深度の浅い画像にシャープ化フィルターをかけていること
              なのです。ですから、被写界深度の深い画像が多い情報量を
              持っているというのは間違い。被写界深度の浅いほうが素の
              データを持っていて、それをフィルタリングして作り出されるのが
              被写界深度の深い画像です。アナログで情報量の多い少ないと
              いうのは変ですが、被写界深度の浅いほうが情報量が多い
              • by passer-by (13494) on 2003年04月15日 10時46分 (#298703) 日記
                被写界深度の浅いほうが素のデータを持っていて、それをフィルタリングして作り出されるのが被写界深度の深い画像です。
                間違い。

                一般的な撮像光学系は、3次元空間の輝度分布を2次元空間に無理矢理落し込んでやる機構で、その過程で必ず情報欠損が起こります。その欠損の方向性として平面方向の位置情報が不正確になる (奥行き方向の情報が平面方向の「ぼけ」として表現される、被写界深度の浅い像) ものと奥行き方向の位置情報が不正確になる (その代わり平面方向の情報は深さに関係なく失われない、被写界深度の深い像) ものがあり、この比は光学系口径と焦点距離の比で決まります。「絞り」は、この光学系口径を調整する機構です。

                一度欠損された情報を戻す方法はありません。例えば「ぼけ」た像をデコンボリューション処理でシャープにする事はできますが、どこまでシャープにすれば元の像に戻ったかを「常識」とか「思い込み」無しに決定する方法はありません。

                親コメント
              • by Anonymous Coward
                センサに入る直前までで比べれば被写界深度を浅く取った方がアナログ的情報量が多いというのは正しいかもしれませんが、センサに入ってデジタイズされた後では情報は失われます。

                >その証拠に絞りというフィルターをかけてやることで、ピントの合った像を取り出すことができるのです。

                できるっ

              • by Anonymous Coward
                いったんフィルムに写る等、画像データとして記録されてしまったら、
                被写界深度の浅い画像の背景ってのは判別不能なほど完全にボケて
                しまってるんですよ!
                あなたが言ってるのは、(銀塩フィルムも含めて)データ化される前の、
                センサー
              • by Anonymous Coward
                あんたの方が間違っていると思うけど。
                「絞りがまったく無い」状態がいわゆる被写界深度の
                浅い画像なんだよ。
                そこから光を遮って出来るのが被写界深度の深い画像。
                情報が欠損するのは後者の方。
          • by Anonymous Coward
            ぼけた(輪郭がハッキリしない)画像にいくらアンシャープマスクを掛けたとしてもシャープな(輪郭がハッキリした)画像は得られないと思うのですがおかしいでしょうか。

            逆に被写界深度が深い画像から浅い画像を作ることはできるけれど、モチーフと背景のクリッピングが難しくて不自然な画像しか作れないのでとても実用にならないと思います。
            • by petashin (7787) on 2003年04月15日 10時52分 (#298709)
              たとえボケていてもその画像が完全であれば、元画像は復元できるようです。

              From hirax.net
              その1 [hirax.net] その2 [hirax.net]

              この2例は上下左右がループしているコンピュータ処理ですので完全な元画像が得られていますが、
              実際の例でも、端からある程度以上離れた内側部分は同じ考え方でほぼ完全に復元できると思います。
              (ある程度の距離=ボケの有効半径?)
              (ボケの有効半径としてきれいになったところが、ピント位置?)
              親コメント
              • by Anonymous Coward
                元画像に単一カーネルのコンボリューションをかけたものなら もちろん復元できるでしょう。今話題になっているのは、 circle of confusionが被写体までの距離に依存してるから戻せないんじゃないか、って話だと思うんですが。
              • [被写体までの距離]パラメタを順次変えつつそれらしい画像になるまで試す。つーのは?
                オートフォーカスだってそんなようなことしてるんだし。
                # できそうな気がするけどなぁ...
                親コメント
              • 画面に写っているもの全てが同じ距離にあるのなら、復元できるでしょうけど。

                普通、距離は画面の部分ごとに異なるのですが…
                親コメント
              • 復元したい部分に焦点が合えば良し。でない?
                暗い所でも絞り開放でピンボケ写真撮っておいて画像処理で復元...えーなぁ...
                # 披写界深度の変換は...できるといいなぁ...できそうな気がするけど。
                親コメント
              • by zeissmania (3689) on 2003年04月16日 23時51分 (#299790)
                いや、「理論的」には可能ですよ。
                現実問題としては、画素解像度や色解像度が足りるか?とか膨大な計算量を行うだけのCPU時間が使えるか?などが障害になって、復元画像を得るのは困難だと思いますが。
                #ゴルゴ13にボケた画像から、ゴルゴ13の射殺現場写真を復元するって回がありましたね。
                親コメント
            • by Anonymous Coward
               これは「デジタル化される際の空間サンプリング周波数が低く、
              輝度の量子化ビット数も少ないため、情報が落ちるから」です。
              決して「Z軸の情報がないから」じゃないですよ。
               カメラの絞りというのは、絞りを開放にした状態(被写界深度の
              浅い像)にフィルターをかけて被写界深度の深い像を作り出します。
              これができるのは、何にも記録されていない光の状態での像は無限
              の解像度と無限のダイナミックレンジを持っているから(実際はレ
              ンズにも解像度の限界はあるけど)。
               これがデジタルになった時点でデバイスの物理的
              • by Anonymous Coward
                この撮像素子自体は、被写界深度云々と「直接」関係あるの?
              • by Anonymous Coward
                ダイナミックレンジと階調を間違えてはいけない。
                あなたの言うような被写界深度の浅い画像から被写界深度の深い画像をデジタル的に合成するという事を実現するために必要なのはダイナミックレンジではなく階調と解像度。
              • by Anonymous Coward
                「直接」は関係無い。
                単に「絞り」繋がりの話というだけ。

                ま、中にはダイナミックレンジと階調を間違えて妄想逞しくしてる人が一名いるようではあるが...

普通のやつらの下を行け -- バッドノウハウ専門家

処理中...