カラーイメージセンサ

基板の事ばかり書いていたので、カメラを作るお話をしていた事を

すっかり忘れていました。

 

さて、前述した通り、私が作っていたカメラは、モノクロカメラですが

実は、同じ構成のまま、イメージセンサだけ乗せ換えれば、このカメラは

カラーカメラに生まれ変わります

 

いったいどうなってるんだろう

相変わらず言葉足らずの上司にベイヤーと言うキーワードを聞いて調べてみました

一般的には、カラーを表現するには、撮影する側(カメラ)もそれを映し出す側(モニタ)も、の3つの色から構成されます

これらの組み合わせで、様々な色を表現しています

これに対して、モノクロカメラは、色の区分けが無く、該当するピクセルの明るさのみで表現されます

つまり、一つの画素を表現するのに、情報量が3倍違う訳です

液晶モニタに水滴をちょっとたらすと、ピクセルが拡大されて色が分かれているのが分かります

 

さて、ここで問題です

カラーを表現するには、上述の様に3倍のデータバスが必要です

なのに何故、モノクロと同じ回路でカラーが動作するのでしょう?

答え:各ピクセルに色の役割を与えて交互に送るから、それがベイヤー

ベイヤーフォーマットでは、

・・・

・・・

と言うピクセルの配列が続きます

赤のピクセルは何を行っているかと言うと、ピクセルの上に赤以外の波長をカットするフィルタが取り付けられていて、赤の光のみを取り込みます。

信じられないかも知れませんが、一つ5um平方の上にフィルタが取り付けられています

 

f:id:info-akiron-com:20210209083809g:plain

ベイヤーカラーフィルター

 実際にベイヤーカラーの絵をそのまま表示すると

こうなります

f:id:info-akiron-com:20210209084350p:plain

R G B 鬼

え?モノクロじゃん

更に拡大すると

f:id:info-akiron-com:20210209084819p:plain

RGB鬼拡大

なんかボツボツしています

これはどういう事かと言うと、読み出した明るさをそのまま表示しても

それは輝度値を表示する=モノクロ表示となってしまいます

ベイヤーフォーマットは、各ピクセルを表示する為に、周辺画素から色情報をもらってきます

例えばフォーカスしているピクセルが赤だとすると、そこには赤しか情報がありませんから、このピクセルの緑の情報は、上下左右にある緑の平均を使用します

また、青の情報は斜め四隅の平均を使用します

それじゃあ情報量が一部欠損しちゃわない?と言う疑問が出てきます

それは正しい疑問ですが、実際には、そんなに気になりません

f:id:info-akiron-com:20210209085645p:plain

RGB復元

こうしてベイヤーフォーマットを知りました

カラーセンサーは当然必要で、しかもモノクロと同じ機構で作れるので

とても良いのですが、「カラーとモノクロの2種類がある」

ただそれだけで、色々な苦労を背負う事になりました