デジカメ / デジタルビデオカメラ / スマホ用の撮像素子(イメージセンサ/imager/CMOSセンサ)について、マニアな情報や私見を徒然なるままに述べるBlogです(^^;)
[PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。
管理人様
いつも、ご丁寧なレス有難うございます。そしてI/Oの追加コメントの件で誤解を与えてしまったようなので、お詫びします。自分自身としては、独り言のようなつもりでコメントしたのですが、予想外にhmbさんからレスを頂き、調子にのって追加コメントを書きました。ですので、hmbさんへの返事として、冒頭のような書き方をしました。けっして、管理人様にレスを催促したわけではありません。ウェブのトークの場合、誰が誰に話しかけているのか、わかりませんものね。宛名を書かなかったことを反省しております。
さて、上記のSTmicroelectronicsの件ですが、Nokiaのシェアーダウンと関係しているのかな、とも考えています。最初、この会社がイメージセンサに取り組み始めたのは、Nokiaのケータイ用だったという印象を持っています。ヨーロッパの仲良しグループという感じですかね。
ただ、近年、Nokiaの没落によって、大口の取引先を失い、人も物(製造装置)も余らせてしまい、代替需要を探していたんだと思います。フルサイズに対して、比較的、新しいラインを使っているのも、現状では、装置を遊ばせておくより、過剰でも使った方が良いという判断があったと思われます。 (もっとも、ADC混載なら、周辺回路で、過剰ではなく、必要だったという可能性がありますが)
ここで、技術の流れる向きを、STmicroの例を含めて、考えてみます。
マクロで見ると、一般に言われるように、ロジックプロセス→CMOSイメージセンサプロセスの流れはあると思います。個別のトランジスタは、ロジック側で先に開発された物をイメージセンサ側でアレンジしていく、というのが一般的な方法だと思います。具体的には、ロジックコアーで使う、トランジスタをセンサではタイミング発生の回路ブロックやADCのカウンター部に転用し、I/O用のトランジスタを、画素やAnalog部に転用するという手法です。
テクノロジードライバーという言葉を使うなら、ロジックプロセスはイメージセンサプロセスのテクノロジードライバーと言えると思います。
一般に余り、語られませんが、イメージセンサ内での技術フローはどうでしょうか。ケータイ用とコンデジ用をほぼ同じものと考えれば、これらと一眼レフ用センサの技術のフロー関係を見ることになります。相互に依存し合っている、というよりは、ケータイ用→一眼レフ用の技術の流れが大きく、逆はほとんど無いのではないでしょうか。ADCの技術は最初にケータイ側で開発され、それを一眼レフ用にアレンジしていく、というのが一般的だと思います。プロセスの更新も最初にケータイ側でトライアルが行われ、一眼レフ用は1世代ぐらい遅れてついて行くスタイルが多いのでは? 裏面入射もケータイ側から始まっています。(一眼レフ用はトレンドに至るか、まだわかりませんが。
大雑把に眺めますと、ケータイ用イメージセンサ技術が一眼レフ用センサ技術に対するテクノロジードライバーになっているようにも思えます。 但し、面白いことに、カメラのユーザーサイドから見ると、この技術フローの関係が逆に見えることもあるようで、皆さんも、ややこしくなるので、話をしない方が多いのではないでしょうか。
取り留めなく、書いていますが、グローバルシャターに対する考え方は、私もchipworksの考え方より管理人さんの考え方に近いです。
>けっして、管理人様にレスを催促したわけではありません。
理解しています。嫌味な書き方をしてしまい、こちらこそ申し訳ありません。
私も好きでblogを書いて、好きでコメントを書いていますので、気になさらないでください(←気にさせるようなコメントを書いておいて何なのですが^^;)
>ウェブのトークの場合、誰が誰に話しかけているのか、わかりませんものね。宛名を書かなかったことを反省しております。
巨大掲示板等で、話のラインが複数乱れる場合は必須と思いますが、本blogで実際コメントくださる方はかなり少数(^^;)なので、こちらも今のままでも大きな問題は無いかと
http://www.ide.go.jp/Japanese/Publish/Download/Report/pdf/2006_04_12_02.pdf
↑hmbさんが補足でフルバージョンを添付してくださった悪魔のI/O問題を読ませていただきました。
私は今まで単純に”自社の技術が業界標準に採用されてしまったら、特許使用料とか基本請求出来なくなってしまうし、いいことあんまり無いんじゃないか?”くらいな感じでいましたが、
この例の様に、”業界標準になれなければ、その後自社技術の使い道が無くなってしまう”という様な排他的状況(?)なのであれば、今までの技術開発への投資を無駄にしないという観点でも間違い無く業界標準を必死になって取りに行くべきなんですね。
やっとこの辺の状況というか空気を理解しました。
http://ja.wikipedia.org/wiki/%E3%82%A2%E3%82%B8%E3%82%A2%E7%B5%8C%E6%B8%88%E7%A0%94%E7%A9%B6%E6%89%80
↑ところで”このレポート大変良く書けてるじゃないか”(←と、なぜか上から目線で^^;)と、執筆(?)元のアジア経済研究所というのを調べたらJetroの組織なんですね。
何かJetroとレポートの内容のイメージがマッチしない違和感がありますが(^^;)このレポートが有効に今後の各社の施策に反映されたことを祈りたいです。
ところでところで、レポートの内容として、SDRAM⇒DDR(SDRAM)へのアーキテクチャ乗り換えの時にこの様なことが起こっていたことは理解出来たのですが、DDR⇒DDR2、DDR2⇒DDR3 の遷移(?)の際にもこの様なことがあったのか?あったのだとしたら何故またSamsungが勝てたのか?というのが気になります。
DDR⇒DDR2⇒DDR3の変化の場合は、アーキテクチャの変化というよりは、単純にはメモリのベースクロック周波数が上がっただけというような違いだったのでしょうか?
この論文の主旨として、再三「大規模な設備投資と量産効果だけではSamsungの先行企業へのキャッチアップは説明出来ない」ということを書かれており、そうなのであれば2005以降も現在に至るまでSamsungが勝ち続けている理由を説明するためには、”その後のアーキテクチャ変更の際の自社業界標準化競争においても勝ち続けてきた”というような事実が無いと、また別の考察が必要になるのでは?
と感じたからです。
長くなりそうなので、いったんここでこのコメントを終わりにしたいと思います。
>ロートルさん
imagerマニアです。続きです。
>さて、上記のSTmicroelectronicsの件ですが、Nokiaのシェアーダウンと関係しているのかな、とも考えています。
(中略)
>フルサイズに対して、比較的、新しいラインを使っているのも、現状では、装置を遊ばせておくより、過剰でも使った方が良いという判断があったと思われます。
逐一なるほどというかご最もな推察・考察敬服致します。
言われてみれば(というか、私がNokiaと組んでSTMicroElectronicsが調子良かった時期をあまり知らないのですが、)少なくとも現状は、
https://blog.cnobi.jp/v1/blog/user/caf955d4e1b915b7c2a61556c98c8daf/1363487966
↑チップワークス解析ですと、'12年現在において、スマホ・モバイル用途のイメージャーにおいてSTのシェアは微々たるものになってしまていますものね。
>(もっとも、ADC混載なら、周辺回路で、過剰ではなく、必要だったという可能性がありますが)
その通りだと思います。
私がこのblogエントリを行った時期に、まだ”オンチップADC”という概念をあまり意識しておらず、イメージセンサと言えばアナログ信号出力センサ前提で書き込んでいるために、本文の様な書き方になってしまっています。
>マクロで見ると、一般に言われるように、ロジックプロセス→CMOSイメージセンサプロセスの流れはあると思います。
(後略)
以前、別コメントでロートルさんがおっしゃられていた、「携帯メーカーの価格統制力が強すぎたせいで、イメージャーは(コスト優先で)レトロプロセス製造が定着してしまったのでは?」というやつですよね。
現状は間違い無く、上記の流れなのだろうと私も思います。
ロートルさんに教えて頂いた、装置の減価償却、ラインの原価償却、そもそも設備投資の観点から言っても、
現状最先端ロジックプロセス使用のIC(iPhoneのA8、有名ビデオボードメーカーのGPUなど)であっても費用対効果が怪しそうなのに、イメージセンサを最先端ロジックプロセスで作製したり、増してやイメージセンサの”ために”最先端プロセスを立ち上げるなんて考えられないことなんじゃないかと思います。
(またこの辺は、スマホ用と言えども、先端プロセスの恩恵を受け難い撮像領域がチップのそれなりの面積を占めてしまうことと、周辺の信号読み出し回路にしてもあまり急激に低電圧の先端ロジックプロセスにしてしまうと、画素のアナログ信号を有用に引き継げない≒単純には飽和信号を殺してしまうか振幅を減らしてS/N劣化を引き起こすので、列ADの比較器あたりまでは先端プロセスの低電圧素子が使えないのでは?という様なことも影響しているでしょうか)
>一般に余り、語られませんが、イメージセンサ内での技術フローはどうでしょうか。相互に依存し合っている、というよりは、ケータイ用→一眼レフ用の技術の流れが大きく、逆はほとんど無いのではないでしょうか。
全くおっしゃるとおりだと私も感じます。
>ADCの技術は最初にケータイ側で開発され、それを一眼レフ用にアレンジしていく、というのが一般的だと思います。プロセスの更新も最初にケータイ側でトライアルが行われ、一眼レフ用は1世代ぐらい遅れてついて行くスタイルが多いのでは? 裏面入射もケータイ側から始まっています。(一眼レフ用はトレンドに至るか、まだわかりませんが。
http://imager.no-mania.com/%E3%82%B9%E3%83%9E%E3%83%9B%E6%90%AD%E8%BC%89%E3%82%BB%E3%83%B3%E3%82%B5/%E3%82%B9%E3%83%9E%E3%83%9B%E3%81%AE%E3%82%AB%E3%83%A1%E3%83%A9%E6%A9%9F%E8%83%BD%E3%81%AB%E9%96%A2%E3%81%99%E3%82%8B%E7%8F%BE%E7%8A%B6%E3%80%80%E3%81%A8%E3%80%81%E3%81%9D%E3%82%8C%E3%82%92%E8%A6%8B%E3%81%A6%E6%80%9D%E3%81%A3%E3%81%9F%E3%81%93%E3%81%A8
↑ 幣blogで恐縮ですが、イメージセンサだけで決まっている訳では無いと思いますが、
昨年の話ですが、4K動画機能がコンパクトデジカメや一眼レフカメラではほとんどの機種が未搭載であった時期に、スマホでは既に3機種に1機種が4K動画が撮影可能であったことに、自分で調べて驚いたことを覚えています。
スマホだと画質を気にしないので、4K動画でもビットレートを落としているとかあるとは予想するのですが、
スマホの方がイメージャーにとってのテクノロジードライバーだという点は最早明らかだと私も思います。
ただ一点、対象をプロの業務用機(←具体的にはシネマカメラ、放送用業務機器の数百万円以上する)向け撮像素子にまで目を向けると、(ADのアーキテクチャ自体はもしかしたらスマホで開発されたものの拡張なのかもしれませんが、こと高速読み出しという観点で言うと)テクノロジードライバーはプロ業務用機にも存在しそうです。
今回ISSCCでNHKが発表した、Forza製の1.3億画素60fps、幣blogで悪魔のIO問題コメントを頂いたソニーのセンサ(十中八九シネアルタF65搭載センサに流用されたと思います)、REDのDragonと名づけられたセンサなど。
>但し、面白いことに、カメラのユーザーサイドから見ると、この技術フローの関係が逆に見えることもあるようで、皆さんも、ややこしくなるので、話をしない方が多いのではないでしょうか。
そのために皆さんがこの技術フローを話されないのかはわかりませんが(^^;)、
確かに世の中どの分野においても、一般消費者はおおむね”高くてグレードが上の機種の方が必ず先端技術を投入されている”と思われていそうですよね。
主旨少し逸れますが、安い機種は安い機種で、コストダウンや量産性が強く要求されますので(それでいて往々にしてスペックダウンはほぼ許されないという^^;)、それ相応の新しい工夫や技術が盛り込まれていたりすることが多いと思うのですが・・・
>取り留めなく、書いていますが、グローバルシャターに対する考え方は、私もchipworksの考え方より管理人さんの考え方に近いです。
↑ロートルさんはカメラをお持ちで写真撮影される方なのでしょうか?
いえ、コメントの内容から、(私同様?←失礼しました)カメラもしくはイメージャー(というかロートルさんの場合は、半導体業界全般という感じでしょうか)技術オリエンテッドな方で、写真撮影自体の方はされない方なのかな?と勝手にイメージしていたもので。グローバルシャッタ同意のコメントに多少違和感を覚えてしまいました(^^;)←深い意味はありませんのでお気を悪くされないでください。
モバイル機器に関する話をしますが、心臓部とも言えるチップの変化を見ると今後のイメージセンサーの方向性が想像できるかもしれないと感じました。単なる思いつきですので、軽く流してください。^^;
かつて、携帯電話のチップは、信号処理を行うベースバンドプロセッサと制御を行うMCU(マイクロコントローラ)の組み合わせでした。それが、スマートフォンではMCUはAP(アプリケーションプロセッサ)に変化し、さらに、カメラ用イメージプロセッサやGPUコアなどを含む統合的なSoCへと拡張されています。いまやAPはSoCの中のごく一部なので、あえてAPという言葉を強調することも無くなってきていると思います。
チップを高性能化すると、当然のように消費電力は跳ね上がります。その対策として、当初は使わないコアやユニットはスリープすることで消費電力を抑える方向でした。しかし、ユーザーのニーズはスマートフォンに“Always On(常時オン)”機能を求め始めます。このあたりの話は、たとえば去年のプロセッサカンファレンス「Linley Tech Mobile Conference 2014」<http://www.linleygroup.com/events/event.php?num=29>あたりで大きく取り上げられたようです。
低消費電力を求められながら要求される機能の常時オン、そしてピーク性能に最適化された高消費電力。これらの矛盾を解決するための対策として、センサーハブ(Sensor Hub)チップというものが出てきています。これは、急速に普及するでしょう。さらに言うと、この考え方は他の機器、たとえばウェラブルデバイスにも当てはまります。携帯などに搭載されるカメラもこの流れに乗る必要があるのかなと考えた場合、何が起こるのか。
綺麗な写真を撮れることはもちろんですが、前述のような流れに沿う低消費電力化やSoC(が持つイメージプロセッサ)との相性といったことも出てくるでしょう。市場規模を考えると、スマートフォンやウェラブルデバイスを無視することはできません。どこの企業も開発リソースは限られるので、何に投資するのか、(設計などを)何に対して最適化するのかは自ずと答えは出そうです、、、
最近のコメント欄の流れを見ていて、こういうもやもやが頭をもたげます。山を越えたと思ったら、さらに高い山が目の前にあり、やるっきゃないか~状態なので他のことのあまりかまえる時間は無いのですが、ここを数少ない息抜きの場にさせていただいています。なんのまとまりもありませんが、、、^^;
>toshiさん
まだまだお忙しそうで・・・
>ここを数少ない息抜きの場にさせていただいています。なんのまとまりもありませんが、、、^^;
こんなところが息抜きの場に本当になっているなら光栄です。
どっぷり浸かって行ってください(笑)
>市場規模を考えると、スマートフォンやウェラブルデバイスを無視することはできません。どこの企業も開発リソースは限られるので、何に投資するのか、(設計などを)何に対して最適化するのかは自ずと答えは出そうです、、、
>最近のコメント欄の流れを見ていて、こういうもやもやが頭をもたげます。
つまりtoshiさん的には、「一眼レフやミラーレスなどの写真を撮る王道的カメラ向けに、撮像素子が最適化されない将来が来るのでは?」と危惧されているということですね(←解釈違ってたらすみません^^;)。
確かにもしそうなったらガッカリ感は相当なものですよね。その時我々にその事実が確認できる術があるかは不明ですが(^^;)
一眼レフ及びミラーレスカメラ向けの素子を、それ向けに最適化して作り続けることで利益が各社出ているうちは問題ない話だとは思いますが、出なくなる時がきてしまったら・・・
カメラが馬鹿高になる(現在の一部マニアのオーディオの世界)か、スマホで満足な写真が撮れる様になっているか・・・ですかね(^^;)
ps 米さんのCP+等での映像もオープンになっていますね。
こちらの方が現実逃避(笑)出来るのでは?
https://www.youtube.com/watch?v=K0TLJZfL2-A
管理人様
記事の本文と全く関係の無いところに、話しをそらせてしまって、恐縮ですが、DRAMの市場動向について、一応、私見を追加しておきます。
> ところでところで、レポートの内容として、SDRAM⇒DDR(SDRAM)へのアーキテクチャ乗り換えの時にこの様なことが起こっていたことは理解出来たのですが、DDR⇒DDR2、DDR2⇒DDR3 の遷移(?)の際にもこの様なことがあったのか?あったのだとしたら何故またSamsungが勝てたのか?というのが気になります。
>DDR⇒DDR2⇒DDR3の変化の場合は、アーキテクチャの変化というよりは、単純にはメモリのベースクロック周波数が上がっただけというような違いだったのでしょうか?
DDR⇒DDR2⇒DDR3の変化は、単純に倍速、倍速の変化で、何か節目になるような、大きな変化があった、という印象は持っていません。ただ、2010年頃に急速に拡大したモバイル(ケータイ/スマホ、特にスマホ)用のDRAMがこの市場に大きな変動を与える波となっていたような気がします。
モバイル用の場合は、”DDR⇒DDR2⇒DDR3”といったような、単純なトレンドではないのです。一般に解説されていることですが、消費電力や帯域の問題でPC用とは仕様が異なっており、技術問題も混沌としたものになっています。解説の一例を挙げておきます。
http://pc.watch.impress.co.jp/docs/column/kaigai/20130108_580768.html
ここで、DRAM技術の将来トレンドを語ろうとは思いません。私には語る資格もありませんから。しかし、2000年代前半のPCが主体だったDRAM市場は、現在、PC用とモバイル用、2方向を眺めながら見る必要がある、という認識は持っています。
最初に、なぜ、PC用とモバイル用を対等に見るかを説明します。PC用であれば、メモリーボード1枚に対して、8個とか16個使いで、直感的には、圧倒的に数が多いような気がします。多分、出荷chip数ではPC用が今も主体なのでしょう。
しかし、セット数では、ケータイが19億台であるのに対して、PCは多めにカウントしても4億台位です。ここで、4倍以上、差があります。問題はDRAMのチップ単価で、特殊であるが故に、PC用の数倍の価格とも言われています。つまり、出荷金額ベースで見るなら、モバイル用はPC用に対してコンパラブルな規模まで、来ているのではないか、と思います。利益という観点では、むしろ、モバイル用が上回っているのではないか、とも思います。
では、この2用途だけでなく、いろいろDRAMの用途別に動向を見るべきか、というと、そうではないと思います。この2用途以外にDRAMの技術動向を左右するような、市場規模は無いからです。
例として、デジカメ用途を考えて見ましょう。去年の世界市場では、5000万台位の規模になっています。少し、古いですが、2013年のスマホやケータイの市場規模は以下のようなものです。
http://memorva.jp/ranking/sales/idc_smartphone_mobile_world_share_2013.php
5000万台というと、3位企業である、ファーウェーと同じ位の規模です。スマホ1台に使用するDRAMとデジカメ1台に使用するDRAMは、多分、スマホの方が多いでしょうから、こういう、言い方になります。全てのデジカメメーカーを束にして、客として取り入れるよりも、ファーウェー1社を客として取り込む方が重要である、と。
結局、何をターゲットにしてDRAMを開発するかと言えば、事実上、この2用途以外には無いと思います。
で、残る問題は、この2用途のビジネス上の性格の違いだと思います。
PC用の場合、誰が、製品上の仕様を決めるのか、と言えば、チップセットの制約から事実上、インテルが決めてしまっている状態でしょう。極端な汎用性は、ここら当たりから出ており、ベンダー(売り手)もセットメーカー(買い手)も口出し出来ない、変な市場が続いていると、考えていいと思います。ですから、競争軸は、集積度が決まれば、ダイサイズで競い、開発速度では、インテルのチップセットが出た時点から、ヨーイドンで競うといったような塩梅です。
これは、ある意味、ベンダー側から見て、対等な競争とも言えるんでしょう。
これに対して、モバイルはDRAMベンダーとセットメーカーの話し合いを通じた、商取引だと思います。問題はセットメーカー側が世界的に見て、寡占状態にありますから、DRAMベンダー側は、大口の客を掴めるか、掴めないかが、死命を決めてしまう点にあると思います。
話しをDRAMから外しますが、現在、液晶をはじめ、日本の電子部品、部材メーカーがapple頼みである理由は、モバイルの市場が莫大で、appleがその中の強者であるからです。これから、考えれば、DRAMベンダーも、なんとか、appleを取り込もうとしているし、していたんだと思います。しかし、上のリストを見てもわかるように、モバイルで、一番、大きなマーケットシェアーを持っているのは、appleではなくSamsungです。つまり、電子部品の最大消費者は、日本メーカーが頼りにしているappleではない、ということです。
管理人さんの疑問に対する回答に近づいていますが、モバイルの場合、最大の作り手が最大の使い手で同一の会社だったから、というのが理由になるのではないでしょうか。PC用の場合は、売り手と買い手は別々の会社ですが、モバイルの場合、Samsungは一番大きな部分を社内で仕様決定でき、開発方向を決めることが出来るのです。使い手と、すり合わせて、物作りをするのは、日本メーカーの得意技と言われますが、さすがに、この障害は大きかったんじゃないか、と思います。エルピーダはモバイルに力を入れると言っていましたが、買い手側の勢力構造が望むようには、ならなかったのだと思います。
直近は、少し変化がありますが、2年位前まではIDMの欠点らしい欠点も見えてなかったですものね。
量産効果の問題も、結局は残っていると思います。一例をHigh-Kの導入で考えて見ます。DRAMの微細化と高速化は同時に進みますから、周辺回路はロジックと同じようにHigh-Kを採用しなければならない時期が来ます。エルピーダも最後はHigh-Kを導入していたはずです。独自開発にしろ、他社からのライセンスにしろ、費用は発生します。この費用の回収をSamsungとの対比で考えると、極めて不利なことが分かります。開発ないしはライセンスに必要な費用は、基本的には同程度だと思います。しかし、回収は、片や、より少ない生産量のDRAMで、全額回収しなければならないエルピーダに対して、Samsungはメモリーだけでなく、ロジック製品全体で回収できます。個別技術の開発費用が莫大になっている時に、1チップに掛かる費用負担が数倍の差になって出てくるわけです。具体的な費用の数字は何も知りませんが、考えられる傾向は以上のようなものになると思います。
ブログ内検索
カウンター
最新コメント
カテゴリー
カレンダー
最新記事
最古記事
プロフィール