パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

人間の目と同等性能のCMOS」記事へのコメント

  • by Anonymous Coward on 2003年04月15日 0時07分 (#298407)
    >従来のカメラには必要だった面倒 くさい光量調節のための絞りが不要になるとのこと。
    人間の目と同等のダイナミックレンジがあっても、それで不要とは言えないと思われ。
    大体、人間の目にもしっかり絞りは付いている訳で。

    カメラの場合、絞りには光量調節の意味だけでなく被写界震度の調整をも意味している訳でだし。
    実際に、未だに銀塩にこだわる層は、この被写界震度の不満が大抵であるかと思われます。
    #他にもラテチュードの問題もあるけど、それはこのセンサーでどうにかなるのかな?

    • by Anonymous Coward on 2003年04月15日 0時29分 (#298430)
      単にラティチュードが広いだけでは「撮る」行為としては面白くないんだよね。「記録」の点ではいいんだけどさ。

      潔く飛び、つぶれるからこそ美しいこともある。むしろ飛び際、つぶれ際がよいのだなぁ。
      親コメント
      • Re:絞り不要? (スコア:1, すばらしい洞察)

        by Anonymous Coward on 2003年04月15日 0時58分 (#298455)
         「記録する」素子としての機能は、できる限り多くの情報を
        正確に記録できるのが正しいあり方、進化の仕方。
         飛び、つぶれは変調、加工の技術だ。ピクチャーデータが
        素の情報を余すところ無くきれいに記録しているなら、
        あとは飛ばそうがつぶそうが、デジタルマジックで思いのまま。
        親コメント
        • by Anonymous Coward
          違うんだよ、撮影段階の機微を感じたいのさ。俺の 1/2 プラス補正が効いてる効いてる、ってね :-)

          マジな話、あとからの加工だと迷走しそうで。
          • by Anonymous Coward
             装置の技術の未熟さに起因する不便さを、人の熟練した
            テクニックで補う -> 技術の進歩が不便さを解消し、そういった
            テクニックは価値を失う、というのは世の中の常、避けえない流れです。
            そっち方面のテクニッ
            • by Anonymous Coward
              マジレスで済まんけど別になんとも思わない。
              テクニックの話にしてしまったこっちが悪いんだけど、
              画像という名のモノを扱ってるわけじゃーないのさ。
              何を撮るか。どう撮るか。そこが問題なの。
              むなしいことは何もない。

              小学生が自分と同じ感性で写真を撮ってたとしたら、
              それはショックだ :-)
    • by Anonymous Coward
       被写界深度って、絞ることによってフォトレタッチソフトなんか
      にある「シャープネス」(シャーペン?)フィルターと
      おなじ処理がかかることだから、解像度高くてダイナミックレンジも
      広いデジタルフォトデータがあれば、撮影後にエミューレーション
      することも可能だと思うけど。
      • by simon (1336) on 2003年04月15日 1時55分 (#298488)
        >解像度高くてダイナミックレンジも
        >広いデジタルフォトデータがあれば、撮影後にエミューレーション
        >することも可能だと思うけど。

        被写界深度というのは、カメラとの距離に応じてピントの掛かり具合が
        異なる現象なのですから、それを再現するためにはその画像の各ピクセルが
        カメラからどれだけ離れているか、というZ情報が必要だと思います。

        二眼で撮影するとか、赤外線フラッシュを使って距離情報も同時に撮るとか、
        縞々のストロボを焚いてZ座標を推理するとか、そういうデジカメが
        昔あったと思った。
        デジカメとはちょっと違うけど、レーザーレーダーを使って
        画像データを撮影するだけじゃなくて
        点群でモデリングしちゃうというすごい機械もあるらしいです。
        親コメント
        • by Anonymous Coward
          違います。カメラの絞りは入射する光に対して一様に
          フィルタリングをしているだけです。
           絞ることによって被写界深度が深まるというのは
          焦点の合っていない画素の周りにできるぼけた像が、
          絞りによって輝度を落とされて見えにくくなり、焦点が
          あっているように見えてくる現象です。
           ですから被写界深度の浅い画像を元にシャープ化のフィルター
          (デジタル的に同じこと
          • by Anonymous Coward on 2003年04月15日 2時46分 (#298508)
            前半(被写界深度と絞りの関係の説明)は正解だけど、後半(被写界深度の浅い画像から被写界深度の深い画像を作れる)は間違い。
            被写界深度が浅い状態で撮影された時点でピントが合っている位置の前後の情報は削られているので、後でどのようなデジタル処理をしても被写界深度の深い画像は得られません。
            モザイクのかかったVTRから元の画が再現できないのと同じ理屈。モザイク除去器で目立ちにくくする事はできますが:-)

            逆に被写界深度の深い画像は多くの情報量を持っているので被写界深度の浅い画像を合成できる可能性がありますが、simonさんが書かれているように2次元画像になった時点でZ軸の情報は欠落していますので、単純なフィルターでは最初から浅い被写界深度で撮影した画像と同じ物は得られません。
            何らかの付加的な情報(Z軸情報とか、手動で範囲を指定するとか)があれば似たような絵は作れるでしょうがね。

            親コメント
            • by Anonymous Coward
               ん~、ちがうな~。カメラで絞るということはまさに
              被写界深度の浅い画像にシャープ化フィルターをかけていること
              なのです。ですから、被写界深度の深い画像が多い情報量を
              持っているというのは間違い。被写界深度の浅いほうが素の
              データを持っていて、それをフィルタリングして作り出されるのが
              被写界深度の深い画像です。アナログで情報量の多い少ないと
              いうのは変ですが、被写界深度の浅いほうが情報量が多い
              • by passer-by (13494) on 2003年04月15日 10時46分 (#298703) 日記
                被写界深度の浅いほうが素のデータを持っていて、それをフィルタリングして作り出されるのが被写界深度の深い画像です。
                間違い。

                一般的な撮像光学系は、3次元空間の輝度分布を2次元空間に無理矢理落し込んでやる機構で、その過程で必ず情報欠損が起こります。その欠損の方向性として平面方向の位置情報が不正確になる (奥行き方向の情報が平面方向の「ぼけ」として表現される、被写界深度の浅い像) ものと奥行き方向の位置情報が不正確になる (その代わり平面方向の情報は深さに関係なく失われない、被写界深度の深い像) ものがあり、この比は光学系口径と焦点距離の比で決まります。「絞り」は、この光学系口径を調整する機構です。

                一度欠損された情報を戻す方法はありません。例えば「ぼけ」た像をデコンボリューション処理でシャープにする事はできますが、どこまでシャープにすれば元の像に戻ったかを「常識」とか「思い込み」無しに決定する方法はありません。

                親コメント
              • by Anonymous Coward
                センサに入る直前までで比べれば被写界深度を浅く取った方がアナログ的情報量が多いというのは正しいかもしれませんが、センサに入ってデジタイズされた後では情報は失われます。

                >その証拠に絞りというフィルターをかけてやることで、ピントの合った像を取り出すことができるのです。

                できるっ

              • by Anonymous Coward
                いったんフィルムに写る等、画像データとして記録されてしまったら、
                被写界深度の浅い画像の背景ってのは判別不能なほど完全にボケて
                しまってるんですよ!
                あなたが言ってるのは、(銀塩フィルムも含めて)データ化される前の、
                センサー
              • by Anonymous Coward
                あんたの方が間違っていると思うけど。
                「絞りがまったく無い」状態がいわゆる被写界深度の
                浅い画像なんだよ。
                そこから光を遮って出来るのが被写界深度の深い画像。
                情報が欠損するのは後者の方。
          • by Anonymous Coward
            ぼけた(輪郭がハッキリしない)画像にいくらアンシャープマスクを掛けたとしてもシャープな(輪郭がハッキリした)画像は得られないと思うのですがおかしいでしょうか。

            逆に被写界深度が深い画像から浅い画像を作ることはできるけれど、モチーフと背景のクリッピングが難しくて不自然な画像しか作れないのでとても実用にならないと思います。
            • by petashin (7787) on 2003年04月15日 10時52分 (#298709)
              たとえボケていてもその画像が完全であれば、元画像は復元できるようです。

              From hirax.net
              その1 [hirax.net] その2 [hirax.net]

              この2例は上下左右がループしているコンピュータ処理ですので完全な元画像が得られていますが、
              実際の例でも、端からある程度以上離れた内側部分は同じ考え方でほぼ完全に復元できると思います。
              (ある程度の距離=ボケの有効半径?)
              (ボケの有効半径としてきれいになったところが、ピント位置?)
              親コメント
              • by Anonymous Coward
                元画像に単一カーネルのコンボリューションをかけたものなら もちろん復元できるでしょう。今話題になっているのは、 circle of confusionが被写体までの距離に依存してるから戻せないんじゃないか、って話だと思うんですが。
              • [被写体までの距離]パラメタを順次変えつつそれらしい画像になるまで試す。つーのは?
                オートフォーカスだってそんなようなことしてるんだし。
                # できそうな気がするけどなぁ...
                親コメント
              • 画面に写っているもの全てが同じ距離にあるのなら、復元できるでしょうけど。

                普通、距離は画面の部分ごとに異なるのですが…
                親コメント
              • 復元したい部分に焦点が合えば良し。でない?
                暗い所でも絞り開放でピンボケ写真撮っておいて画像処理で復元...えーなぁ...
                # 披写界深度の変換は...できるといいなぁ...できそうな気がするけど。
                親コメント
              • by zeissmania (3689) on 2003年04月16日 23時51分 (#299790)
                いや、「理論的」には可能ですよ。
                現実問題としては、画素解像度や色解像度が足りるか?とか膨大な計算量を行うだけのCPU時間が使えるか?などが障害になって、復元画像を得るのは困難だと思いますが。
                #ゴルゴ13にボケた画像から、ゴルゴ13の射殺現場写真を復元するって回がありましたね。
                親コメント
            • by Anonymous Coward
               これは「デジタル化される際の空間サンプリング周波数が低く、
              輝度の量子化ビット数も少ないため、情報が落ちるから」です。
              決して「Z軸の情報がないから」じゃないですよ。
               カメラの絞りというのは、絞りを開放にした状態(被写界深度の
              浅い像)にフィルターをかけて被写界深度の深い像を作り出します。
              これができるのは、何にも記録されていない光の状態での像は無限
              の解像度と無限のダイナミックレンジを持っているから(実際はレ
              ンズにも解像度の限界はあるけど)。
               これがデジタルになった時点でデバイスの物理的
              • by Anonymous Coward
                この撮像素子自体は、被写界深度云々と「直接」関係あるの?
              • by Anonymous Coward
                ダイナミックレンジと階調を間違えてはいけない。
                あなたの言うような被写界深度の浅い画像から被写界深度の深い画像をデジタル的に合成するという事を実現するために必要なのはダイナミックレンジではなく階調と解像度。
              • by Anonymous Coward
                「直接」は関係無い。
                単に「絞り」繋がりの話というだけ。

                ま、中にはダイナミックレンジと階調を間違えて妄想逞しくしてる人が一名いるようではあるが...

      • by Anonymous Coward
        (Photoshopのようなアプリを想定して)
        被写界深度が深い画像にフィルタをかけて
        被写界深度の浅い画像にすることはできません。
        被写界深度の浅い画像にフィルタをかけて
        被写界深度の深い画像にすることもできません。

        もうちょっと正確に書くと、
        任意の画像に対して、自動で
        被写界深度の深い画像→被写界深度の浅い画像に変換できません。
        任意の画像に対して、自動で
        被写界深度の浅い画像→被写界深度の深い画像に変換できませ
        • by Anonymous Coward
          反例の後半の方は
          両方の画像に対して絞りをかけて(被写界深度の深い)撮影を
          してもやはり区別がつかない写真ができあがる。
          だから撮影後にフィルターをかけて両者がで区別ができないのと
          同じ結果になる。

          というだけの話だ。

          被写界深度の深い画像は多くの領域がくっきり写っているから
          情報量が多く思えて感覚的に反論しだすやつが多いが、そういう
          やからがひとつ忘れていることがあ
          • by Anonymous Coward
            長時間露光、とかいう新しいファクターを導入して
            煙に撒こうとしていらっしゃる?
            #299252の「反例」で言ってることを否定できない以上、
            絞り不要って説は土台ムリなんじゃないですか?
            • by Anonymous Coward
               否定してるじゃん。よく読んでおくれ。
              撮影した後フィルターをかけた効果と、撮影時に絞った場合の効果は
              同じになると言っているのですよ。
               それに反例の説明は2重に間違ってる。
               まず、絞り自体の効果は被写体の距離には関係ないこと。
              カメラの光学系では、光を曲げたりするレンズやプリズムしか
              距離に関係した画像変換はできません。
               2つ目の間違いは、写真に写った後でもZ方向の情報は失われてはいないこと。
              光学系の焦点位置を外れた位置にある物の像はフィルム
              (や撮像素子)面上にでは焦点を結ばずにある範囲の領域に
              広がって写る。これが「ぼけ」の正体。
              撮影す
              • by Anonymous Coward
                > 焦点に近かった物の像は ある程度シャープさを取り戻すが、
                > 焦点から離れたものは、それほどシャープにはならない。

                つまり、被写界深度を浅くすると情報が欠落する…、と。
                情報が欠落していないのならば、焦点から離れたものでも
                完全にピントの合ったシャープな画像にならねばならぬ。
              • by Anonymous Coward
                >この像の広がりも大きくなる。この広がった像は、他の点の
                >ぼけた像と重ねて写真にしっかり記録される。この像の広がり
                >具合が撮影された物体のZ軸情報だ。

                むちゃくちゃ言うなあ。
                ボケて広がったら拡散しちまって他の部分のボケと混ざって
                情報として役に立たないでしょうが。

                    A    B
                00000  00000
                00100  00000
                01410→00500
                00100  00000
                00000  00000

                こういう絵(A)ならばピントのあった状態(B)が復元できるでしょう。でも

                    C
                21100
                13114
                15102
                04412
                24110

                こういう絵(C)だったら?中央のピクセルのボケてない状態で
              • by Anonymous Coward
                 あんね、シャープ化のフィルターにも係数というのがあるのよ。
                同じ係数でフィルタリングすれば、ボケが大きいほうは収束の
                度合いが緩やかになるということを言っているのだ。
                 ちょっと光学と画像処理の勉強してきたまい。
              • by Anonymous Coward
                 これはもう画像処理や信号処理の勉強してください、
                というしかないな。
                答えは「できる」んです。
              • by Anonymous Coward
                > こういう絵(A)ならばピントのあった状態(B)が復元できる
                任意の画像において、
                (A)→(B)はできない(してはいけない)というのが
                私の主張2です。

                元々なめらかな輪郭を持った被写体を撮った場合は、
                (A)→(B)に変換してはいけません。
                なめらかな輪郭を持った被写体は、
                被写界深度を深くしたときもなめらかに写るべきだからです。

                (A)はピンぼけだからぼけて
              • by Anonymous Coward
                >これはもう画像処理や信号処理の勉強してください、

                貴方こそ頑張って勉強してくださいね。

                そして『ピンぼけ画像修正アルゴリズム』が出来たら学会に発表するなり
                フォトショップのプラグインとして商品化す

犯人はmoriwaka -- Anonymous Coward

処理中...