デジカメ / デジタルビデオカメラ / スマホ用の撮像素子(イメージセンサ/imager/CMOSセンサ)について、マニアな情報や私見を徒然なるままに述べるBlogです(^^;)
[PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。
FOVEONのような積層方式で全く同じベイヤー配列のものを二段重ねれば一枚目の透過時に光量が減衰するため、または間にNDフィルタを挟めば調整が可能なため、露出時間が同じでも一枚目は露出オーバーで二枚目は露出アンダーになるものを簡単に作れそうです。
早くFOVEONの特許が切れてくれとは言えませんが、その時にはセンサにとって大きな躍進があるかと思います。
>rituさん
初めまして。imagerマニアです。
コメントありがとうございます(^^)
>FOVEONのような積層方式で全く同じベイヤー配列のものを二段重ねれば一枚目の透過時に光量が減衰するため、または間にNDフィルタを挟めば調整が可能なため、露出時間が同じでも一枚目は露出オーバーで二枚目は露出アンダーになるものを簡単に作れそうです。
おもしろい発想ですね(^^)
ただ個人的にはカラーフィルタありFOVEON形式のカラーセンサHDRはかなり難しいのではないかと予想します。
https://www.ieice.org/jpn/books/chishikinomori/pdf/samp03_01.pdf
上記参照先の一番最後の行あたりの文と図にある様に、可視光は波長によってシリコンでの吸収係数が大幅に異なります。
文面によれば、入射光の50%吸収するのに、青色は0.35umの深さのシリコンフォトダイオードで済むのに対し、赤色では3.2umの深さのフォトダイオードが必要なことがわかります。
つまり何が言いたいのかと言いますと、現状のプロセス技術においては、画素ごとにフォトダイオードの深さを(ましてやFOVEON形式の複数層のフォトダイオードは)調節することは難しいと思うため、カラーフィルタ以外は同じ構造の画素構造を用いるとすると、
例えば、上層のフォトダイオードの深さを3.2umと設定した際には、赤色は下層フォトダイオードと50:50の光量分配となって、ダイナミックレンジ拡大の意味を成さず、
そして青色光は上層のフォトダイオードで入射光のほとんどが吸収され、下層のフォトダイオードにはほとんど光は到達せず、やはりダイナミックレンジ拡大には使えない分配比率になるのではと思われます。
つまり、フォトダイオード深さをどの様に設計しても、全ての色に対してHDR処理に適した構造というのは存在しないのではないかと思うのです。
日本のガラパゴス化の問題ではなく、世界で生産販売する戦略&戦術を
誤ったのが原因だと思います。
所謂ビジネスが下手なのです。
宜しければ、スマホの技術動向&シェアーに関する資料を送りますよ。
私はこの分野の顧問業務を行っていますので、毎回このブログを
楽しく読ませて頂いているお礼です。
>SATさん
お久しぶりでございます。
>毎回このブログを楽しく読ませて頂いているお礼です。
SATさんの様なビジネス成功者な方に見ていただけていてむしろ光栄です。
技術顧問、コンサルタント・・・冷やかしとかでは無く、本当に羨ましい響きです。
いつかなれたら・・・などと思ったりはしますが、強い意志で「なる!」と考え、具体的に精進して動き出さないと、漫然とサラリーマンしてたらなれないですよね。
私には難しそうですf(^^;)
以前ここにコメント下さいましたが、
iPhone7Plusで双眼カメラ(とSATさんの業界では呼ぶのでしょうか?)搭載となり、仰られていたように、まだ本格化とまではいきませんが、フラグシップ機では徐々に立ち上がってきている感じでしょうか
>所謂ビジネスが下手なのです。
日本電機メーカーあるあるな感じということでしょうか?(^^;)
>宜しければ、スマホの技術動向&シェアーに関する資料を送りますよ。
遅くなりましたが、興味はとてもありますのでお言葉に甘えて是非お願い致します。
imager-mania@excite.co.jp
↑もちろんSATさんを信用していないということでは無いのですが、ここで本メールアドレスを晒す勇気はありませんので、大変失礼ながら、上記は所謂捨てメアドです。
ご容赦ください。
どんなやり方をしてもわざと感度を落としてしまうようなやりかただといわゆる高感度特性が悪くなります
ダイナミックレンジにフォーカスしてマーケティング出来れば世に出るでしょうが、高感度特性は確実に劣化するので、うまく行かないんじゃないでしょうか?
例えばセンサーの半分を感度1/4にして合成すれば見た目のダイナミックレンジは少し良くなるかもしれませんが、暗い部分の光の量はほぼ1/2になるので高感度特性は1段程度悪くなり、感度がoverlapしていないところ(明るいところと暗いところ)では、解像度が1/2に低下します。
普通に作ったセンサーの方がいい気がします。
正攻法で行くならやはり、全画素超高速読み出しじゃないでしょうか10kHzで読み出せるなら1/1000秒のシャッター速度でも10枚重ねられるので3bit位ダイナミックレンジを稼げます。
>中村@つくばさん
お久しぶりです。
>どんなやり方をしてもわざと感度を落としてしまうようなやりかただといわゆる高感度特性が悪くなります
>ダイナミックレンジにフォーカスしてマーケティング出来れば世に出るでしょうが、高感度特性は確実に劣化するので、うまく行かないんじゃないでしょうか?
>(中略)
>普通に作ったセンサーの方がいい気がします。
おっしゃる通りだと思います。
またマーケティングを抜きに考えても、個人的には感度はイメージセンサにとって最も基本的でかつ最重要な特性だと思うので、(余程何かのアプリ用に特化した狙いが無い場合は)他の特性のために感度を犠牲にするやり方は、個人的には賛成したくありません。
今回のblogエントリのHDR方式に関しては、3つとも
”センサのHDR用の駆動にすれば、HDR画像映像が取れる≒通常駆動撮像時の感度は劣化させていない”
というハードの構造では無く駆動だけでHDRに対処しているところで、世に無事に?出ているのでしょうね。
(対して、ハード構造的に対処した富士のスーパーハニカムCCD的なセンサは、厳密には、感度その他いくつかの特性劣化を常に招くやり方のため、
他のHDR方式では用を成さず、しかしHDRを最優先したいアプリ向け・・・車載センサ? でない限りは、中村@つくばさんおっしゃる通り今後は日の目を見ない方式な様に思いますね。)
>正攻法で行くならやはり、全画素超高速読み出しじゃないでしょうか10kHzで読み出せるなら1/1000秒のシャッター速度でも10枚重ねられるので3bit位ダイナミックレンジを稼げます。
上記は
・欲しいシャッター速度の1/10の蓄積及び読み出し速度で信号を10回読み出し、それを加算する
すると
・20log{2^(3bit)}≒18dB=8倍ダイナミックレンジを稼げる
という理解で良いのでしょうか?
その心というのは、露光時間1/10なのだから、通常の1/1000秒シャッターの一発撮りと比較すれば、適正露出よりも1/10アンダー露光で撮っていることになるため、
今まで白飛びしていた部分を10倍大きい光量までは拾える(≒救える)
だからその分ダイナミックレンジが広がる。S/Nは維持しながら・・・
という理解で良いでしょうか?
それとも上記方法を取れば、そもそも(dB=20log(S/N)で決まる)ダイナミックレンジが良くなる(=加算後の信号量は一緒だが、ノイズが小さくなる?ので暗い側のレンジが広くなる)という意味でしょうか?
後者であるとした場合、現状私の頭が追い付いていません。最終信号量が同一になるような加算であれば、S/Nは1ショット画像でも複数ショット加算でも同一な様な・・・?
imagerマニアさん、詳しく説明していただいてありがとうございます。
シリコンの透過特性が波長によって大きく変化するという問題点があるんですね。単純に透過するものと思っていました。
とすると三色のカラーフィルタを用いたセンサの下に二層目を設置するならば、三色それぞれを通った後でバラついた状態の光から何が得られるかという事になってくるんですね。
簡単に性能が飛躍すると思っていましたが難しそうです…
もう一点だけ補足させてください。
>シリコンの透過特性が波長によって大きく変化するという問題点があるんですね。
上記”問題点”のお陰で、FOVEONセンサが存在出来ています。
(≒もしシリコン中での波長ごとの吸収係数が同一であったならば、FOVEONセンサは原理的に成り立ちません)
>とすると三色のカラーフィルタを用いたセンサの下に二層目を設置するならば、三色それぞれを通った後でバラついた状態の光から何が得られるかという事になってくるんですね。
まだ実用化出来ていない(≒何かの製品には載っていない)と思いますが、
rituさんと同様の発想で、オリンパスが以前
積層センサの上側のシリコンで可視光のRGBをカラーフィルタ付きで通常通り受け、下側のシリコンで透過してきた赤外光を受けるというイメージセンサ
の研究開発結果を発表していました。
(↑RGBのカラーフィルタは可視光をターゲットにしているためか、赤外光に対する選択性?=透過特性の差異 はほとんど無いようで、上側シリコンの各画素を通り抜けてくる赤外光にはばらつきは存在していないため可能なのだと思います)
> imagerマニア さん
> 中村@つくば さん
グローバル電子シャッターで高輝度用の高速撮影した後に、機械シャッターで低輝度用の低速撮影を行えば、機械シャッターが閉じている間に蓄積部とPDから電荷を低速ハイビットで読み出せます。
アンプゲインの切り替えが必要になりますので、2枚の14ビット画像から28ビット画像を作る精度は出ないでしょうが、24ビットはいけそうな気がします。
何の裏付けもありませんが…。
imagerマニア様、
> 上記は
> ・欲しいシャッター速度の1/10の蓄積及び読み出し速度で信号を10回読み出し、それを加算する
> すると
> ・20log{2^(3bit)}≒18dB=8倍ダイナミックレンジを稼げる
> という理解で良いのでしょうか?
目的の1/1000が目的の露光時間なら1/10000を10回撮れば(ウェルに蓄積された電荷を10回リセットすれば)10倍高いところまで電荷は取れるという意味で書きました。
10倍なので適当に3bit(=8)と書きました。3段分ハイライトが改善すれば大したものだと思います。
単に足すだけだと暗いところは 1/1000の露光と等価なので、得するかどうかはよく考えないとわからないです。すいません。
hi-low様、
> グローバル電子シャッターで高輝度用の高速撮影した後に、機械シャッターで低輝度用の低速撮影を行えば、機械シャッターが閉じている間に蓄積部とPDから電荷を低速ハイビットで読み出せます。
余りグローバルシャッターかどうかは関係ない気がします。
機械シャッターを開けてから、二回電子シャッターで露光すればいいわけですから。
この場合でも二回目の露光をする前に一回目の露光で得られた電荷を読み出さないといけないので、結局高速読み出しが必要になりますよね。でないと、画像がずれてしまいます。
手持ちでもずれないようにする、あくまでシャッター速度の言葉の意味は守る、と決めると複数回露光するためには高速読み出ししかないと思います。
hi-lowさんがお書きになられたように、理想的にはアンプのゲインを変えながら高速読み出しで何枚か露光すれば、ハイライト側はもっと改善するでしょうね。
>中村@つくばさん
>目的の1/1000が目的の露光時間なら1/10000を10回撮れば(ウェルに蓄積された電荷を10回リセットすれば)10倍高いところまで電荷は取れるという意味で書きました。
>10倍なので適当に3bit(=8)と書きました。3段分ハイライトが改善すれば大したものだと思います。
いえ、私も3段分改善すれば大したものだと思います。
中村@つくばさんのおっしゃられた意味を私が理解できていたと認識しました。
それに誤解が無ければ納得ですし、安心(?)しました(^^;)
(ちなみに加算することによるノイズに関しては一応真剣に考えてみまして、その結果の私の結論は、光ショットノイズがノイズの支配成分の光量領域では差異無し。回路のreadノイズの影響が出てくる様な低輝度or暗時領域では残念ながら√10倍になるのかなと考えました)
そして、中村@つくばさんの”高速読み出しが必要になる”という見解にも同意です。
役に立つのはHDRに限らないと思うのですが、仮にHDRに限ったとしても、
更に話を飛躍させればフォトンカウント方式にイメージセンサを変更して、ひたすらに高速読み出しの性能を上げていけば、最早フォトダイオードの飽和特性とは無関係に画像の飽和耐性(?)はアップしていくと思います(←誤解があったら恐縮です)ので、
そういう方向性を考えても高速読み出しが必要になるというか、技術開発の意味のある開発軸の一つなのかなという気がしています。
> 中村@つくば さん
> imagerマニア さん
グローバルシャッタと機械シャッタを組み合わせたのは、機械シャッタを閉じた状態で低速のAD変換をして欲しいからです。個人的には、12bitの高速読み出しよりも、14bitの低速読み出しの方が好みです。
imagerマニアさんがご指摘のように、超高速読み出しのフォトンカウントが究極でしょうね。
カウントの精度が悪いと大変なことになりますが…。
ブログ内検索
カウンター
最新コメント
カテゴリー
カレンダー
最新記事
最古記事
プロフィール