今回はモアレについて書こうかと思う。

と言うのも、このモアレと言う奴については誤解されている情報が散見されるためだ。

モアレについて

モアレについて

そもそも、モアレと一言で言うと干渉縞全般を言う。写真においては「よく分からない縞模様」として現れる。ところが、その原因は様々で、ただ「モアレ」と言っただけでは何に起因して起こっているものか分からない。
要は”モアレ”と言う言葉について広義では包括する領域が広すぎて、一言でモアレと言われても「この人はどのモアレのことを言っているのだろう?」となるケースが多い。更に、狭義のモアレは”元来は”織物の目が狂った際に(周期ズレが起こって)出てきてしまう縞模様のことだが、今では分野やコミュニティによって違う意味で使われる言葉となっている。

それもあって、モアレって何なの?と言う議論が起こったりもする。

 この手の広義と狭義の問題は技術屋同士の会話で非常に面倒な齟齬を生むことが多い。なので、会話の前提として言葉の意味をきちんと双方で通じる形で定義する作業が必要となる。面倒ではあるが、きちんと摺り合わせておいた方が後々楽である。要は方言は他の地域で通じないと言うことに似ているかも知れない。こう言う事がきちんとできて、お互いスムースに意思疎通が行える能力はとても重要で、就活生のみならず人間に求められるコミュニケーション能力の一つだ。
 ぶっちゃけローカル基準のよく分からない言葉を使われても聞く側はさっぱり分からず「コイツ何言っての?コミュニケーション能力低いな」と思われる訳だ。誰にでも分かる言葉で伝えることは重要である。

写真で起こるものとしては今回、物理現象として起こるものと、アナログ→デジタル変換する際に起こるもの、受像素子のカラーフィルタの配列上起こるものとして分けてみようと思う。

まず、物理現象として起こっているもの、これは実際に目視出来るレベルで見えるもののこと。例えば二重に重なった網に波打った縞模様が現れたり、二枚の透明度の高いガラスが接触する際や水の上に張った薄い油膜などに生じるニュートン環…等。
これらは実際に目に見えるレベルの光学的なモアレであり、カメラで撮って現れなければそのカメラは壊れている。(又は解像度が不十分でつぶれてしまっているかだ)

物理現象によるモアレの例(Wikipedia:モアレ より引用)

物理現象によるモアレの例(Wikipedia:モアレ より引用)

この物理現象起因のモアレについてはフィルムカメラでだって撮影出来るので、問題にするようなものではない。よく見かけるのが、この物理現象由来のモアレをデジカメで問題とされているモアレと誤認するケース。これは実像なんだから問題にすべきではないし、これを消してしまうことはレタッチであり事実の歪曲に他ならない。

もちろん、これもモアレはモアレであり、「気持ち悪いから消す!」と言うのも構わない。
ただ、実像である以上プログラムで判別して自動消去…と言うことはできない。本当にある模様なのだから判別のしようがない。頑張ってレタッチして頂きたい。

では、”デジカメで問題となるモアレ”とな何なのだろうか。
これは大きく分けて二つ、アナログ→デジタル変換の際生じるものと受像素子の配列上起こるものだ。

■離散化とその際生じる折り返しに起因する「輝度モアレ」
まず前者の「アナログ→デジタル変換の際生じるもの」から述べたい。

デジカメの写真は実像というアナログ情報をデジタル化し画像データしている。当たり前だが、このデジタル化と呼ばれる処理がどのようなものなのかを解っている人は少ないと思う。
工学的にはデジタル化という処理は「離散化(又は量子化)」と呼ばれる処理のことを指す。これは「固定のピッチ(サンプリング周波数)でアナログ情報(連続情報)を区切り、各サンプル毎のデータを離散情報(非連続情報)として計測する」ものだ。
デジカメ写真の場合、この固定ピッチは画素ピッチのことを指し、各画素毎に受光量をデータとして計測している。

さて、この離散化と呼ばれる処理は、サンプリング周波数が有限である以上、全ての情報を計測することはできない。故に必ず誤差を伴うわけだが、この中でやっかいな”折り返し”と呼ばれる問題が生じる。
これは、サンプリング周波数の半分より高い周波数の信号が、サンプリング周波数の半分の周波数を堺に折り返し、低い側で現れてしまう問題である。なんのこっちゃ解らんという人は下記参考文献を参照されたい。適当に探したものなので、もっと良い物があるかも知れないが、計測工学の基礎の基礎なので、大体の教科書に載っている。

小林春夫, “計測技術者が知っておくべきアナログ回路の基礎”, 電子計測者のためのアナログ技術再入門, 2007, pp.14周辺

時間軸で取り扱われているが画素数/基準長さでサンプリング周波数を定義すれば空間軸でも同じ事だ。

ではデジタル写真ではどうなるのか?
簡単に言うと、センサー上でサンプリング周波数の半分以上の周波数をもつ模様を撮影すると、折り返しにより低い周波数で有意な情報を持ってしまうわけだ。その結果、デジカメ写真には本来あってはならない縞模様が記録されてしまう。

輝度モアレの例(K-5IIs/Tamron 17-50mmF2.8で撮影)

輝度モアレの例 (K-5IIs/Tamron 17-50mmF2.8で撮影)

これが、デジタル特有のモアレのうちの一つ「輝度モアレ」と呼ばれるものだ。折り返しにより輝度情報(振幅)として記録されてしまうために起こる。
(この輝度モアレは理屈で言えば「エイリアシング」と呼んだ方が正確なのだが、輝度モアレの方が通りが良いようなので、この言葉を用いる)

残念なことに、これが出てしまった場合は解像を維持したまま自動処理で消すことは不可能である。
と言うのも、この輝度モアレは実像として存在するモアレと区別が付かないからだ。
正直なところ、干渉縞自体が「ある特定の周波数をもつ情報を別の周波数の情報越しに覗いている」わけだから、離散化に近いことが行われている。この二つを明確に区別出来ようはずが無い。
なので輝度モアレとは、現実にはそのような模様は存在せず、レタッチしない限り何をやっても消えないが、デジタル写真だから起こってしまう現象なので問題となる。

 狙ってこの輝度モアレを出したければ、センサ上で画素ピッチ〜画素ピッチの倍程度の周期になるように周期的な模様を写してやればいい。縞模様でも格子模様でも構わない。ローパスレスモデルで十分解像するレンズを使えば確実に出すことができる。
 画素ピッチが問題となるモノなので、レンズの性能限界がある以上、同じレンズを使えば高画素化すればするほど輝度モアレは起こりにくくなる。これが、ローパスレスでもモアレが殆ど出さずに済むようになった最大の理由で、各社高画素化したがる理由でもある。

■受像素子のカラーフィルタ配列が問題となって起こる「色モアレ」
次に「受像素子のカラーフィルタ配列上起こるもの」について。

一般的なカメラのセンサーは1画素あたりRGBいずれか1色の輝度を情報として得ている。総画素の内、G(緑)は1/2を占め、B(青)・R(赤)がそれぞれ1/4ずつ、規則正しく並んでいる。これは「ベイヤー配列」とよばれ、殆どのデジカメの素子はこの配列を採用している。

ベイヤー配列の例(Wikipedia:CCDイメージセンサより引用)

ベイヤー配列の例(Wikipedia:CCDイメージセンサより引用)

1画素あたり1色と書いたが、実際のデジカメのデータを見ると1画素ごとにちゃんとRGB3色分のデータがある。これはデジカメの写真は任意の画素の周辺の画素の情報を使って補完処理しているためである。そして、「受像素子のカラーフィルタ配列上起こるモアレ」はこの補完処理が誤動作する際に生じてしまうものである。

要は、コントラスト変化が急なグレーの周期模様などで、ある画素に着目した際Rは反応したが近くのBやGは反応しない状況ができてしまえば、Rの情報が強くなる。しかもこの配列は周期的なものなので、模様が周期的だと下図の様な虹模様となって出てきてしまう。

色モアレの例(So What? 〜 写真生活さんより借用)

色モアレの例(So What? 〜 写真生活さんより借用)

これが色モアレと呼ばれるデジカメ特有のモアレだ。
これも周期的なものなので輝度モアレと同様離散化に起因しているが、少し様相が異なる。
と言うのも、各色毎に分けてみれば輝度モアレ同様の模様になるのだが、他の色の素子と補完処理を行っているため、この色モアレについては周辺の画素と輝度差が生じない。よって、画像をモノクロ化すればほぼ消えてしまう。
ただ、本来あるはずのない模様が写ってしまうから問題となる。
この色モアレは、ベイヤー配列を採用しているために生じてしまう問題であり、発生理由が特に明確なためアルゴリズム的に切り分けて消してしまうことが可能である。これがよく言われる自動モアレ低減だ。
なので、輝度モアレと違って出てしまっても何とかなる。モアレ低減も万全ではないけれど。

各色の画素ピッチはベイヤー配列の場合、画素ピッチの倍なので、輝度モアレで問題となる周波数の半分の周波数で生じる。輝度モアレ発生条件よりも長周期で反応する、それだけ緩い周期模様でも生じてしまうことを意味するので、色モアレは輝度モアレよりも出やすいといえるだろう。

 なお、SigumaのFoveonは1画素あたり3色の輝度データを計測しているため、この色モアレは生じない。また、Fujifilmのカメラなどで採用される不規則配列のX-Transセンサーでも生じにくい(完全なランダムではないため生じる可能性はある)。
Sigma X3 ダイレクトイメージセンサ
FujiFilm X-Transセンサ
 因みに色モアレは本来あるはずのない色が付いてしまうため偽色とも言われる。が、偽色もまた意味の広い言葉で、写真の場合は色収差やパープルフリンジまで含まれるようである。こんなあやふやな言葉は安易に使わない方が良いだろう。
 狙って出したい場合は、彩度の低くコントラストの強いグレースケールの縞模様をベイヤー配列のセンサを使ったカメラでカラー写真で撮影すればよい。
この時、模様の周期が画素ピッチの2〜4倍となるように設定し、特定の色画素にだけ強く光が当たるように配置すればよい。(或いは特定の色画素に影が来るようにする)
面倒な場合は、周期模様に対して少しカメラを傾けて撮影→確認を繰り返せばそのうち出てくる。モノクロ化すれば消えるので、輝度モアレとは区別しやすいだろう。

■デジタルカメラで問題となるモアレを低減するために
さて、これら本来あるはずのない像が写ってしまうデジカメ特有の輝度モアレ・色モアレの問題だが、この現象を引き起こす原因はそれぞれのサンプリング周波数の半分より高い周波数の情報にあるのだから、この情報を消してやれば起こらないことになる。

これを実現するのがローパスフィルター(LPF)だ。その名の通り、高周波情報を遮断し、低周波情報を通過させるフィルタのことを指す。
デジカメで用いられているのは光学ローパスフィルターでアナログLPFの一種である。高周波を遮断する以上、その情報は失われる。高周波情報というのは細かい情報のことなので、これを落とすと当然画像としてはぼやけたものとなる。
通常は輝度モアレ・色モアレが画像として分かりにくい程度の周波数で高域を遮断するようカットオフ周波数を設定している物と思われる。ところが、LPFと言うものは狙った周波数でバッサリ高域遮断させられるようなものは存在しない。よって、カットオフ周波数と遮断特性でLPFの善し悪しが決まる。

また、カメラのような光学機器の場合、レンズの解像も重要となってくる。
レンズが十分に解像出来ない場合や被写界深度を調節してぼかすこともLPFと同様の効果を持つことになる。

とはいうものの、LPFがあるとどうしてもぼやけてしまう。このLPFを排除したものがK-5IIs等ローパスレスモデルだ。なんせ輝度モアレ・色モアレは常に出るものではなく、特定の条件下でのみ生じるものであり、出ない状況ならLPFはただの害悪でしかないからだ。その代わり、出てしまったら諦めましょう…と言うのがメーカーの言い分。

もちろんユーザ側でも回避策は検討されていて、

  • カメラを傾ける(モアレが出てくる模様に対する画素ピッチを変えて出にくくする。配列を変えて出にくくする)
  • 絞りを変えてぼかす(ボケは則ちLPFと同様の働きをする)
  • ズームの場合画角を変える(モアレが出てくる模様のセンサーに対するピッチを変えて出にくくする)
  • 解像の低いレンズを使う(レンズがLPFの代わりを果たす)

と言うのが一般的だろうか。

何度も言うが、物理現象として生じているモアレはそもそも実像であり何をやっても消えない。
判別出来ないくらいにぼかせば消えるが、これは消せるとは言わないだろう。

なお、絶対にデジタル起因のモアレが出ないように抑えようとすると色モアレに合わせた周波数でカットオフすればよいと言う話になる。しかしその場合、有効サンプリングレート(有効解像)としては一軸あたり画素ピッチの4倍となり単軸上で解像度は1/4、縦横2軸あるので全体解像度は単純計算すれば1/16と、かなり解像が落ちることになる(本当は2次元離散化なので、ちょっと違うが)。なので、普通のカメラはここまでせずに、一般人が気にならないレベルでギリギリ高い周波数のカットオフにしようとするだろうか。なので、LPF有りのデジカメでも出る時は出る。

 Sigma FoveonやFujifilm X-Transは色モアレを気にする必要がないが、輝度モアレは同様に生じる。なので、本来は輝度モアレに対応した周波数のLPFを使うことになる。これは色モアレ対応のLPFの倍の周波数で済むので、LPF有りでもベイヤー配列のセンサーよりも高解像を維持出来る。が、レンズ性能に対し、センサーの画素ピッチが十分細かいため、現在どちらもLPFレスとなっている。
 また、安物のコンデジはレンズ性能もそれ程高くなく、最近の高画素機であれば画素ピッチも十分狭いので、ローパスレスでもこれらの輝度モアレ・色モアレは気にならないだろう。その代わり解像もしない。
■まとめ

  • モアレと一言で言うと干渉縞やエイリアシング全てを指すがモアレにも色々あるのでどれのことか解らない。
  • デジカメで問題となるのは(問題とすべきは)実際に存在しない縞模様が写真にのみ現れてしまう「輝度モアレ」と「色モアレ」。物理現象として出ているモアレはデジカメだろうがフィルムカメラだろうが写るのだから問題にすべきはそこじゃない。
  • 「輝度モアレ」・「色モアレ」は共に画素ピッチで離散化するアナログ→デジタル化処理によって生じており、現実にはそのような模様は目視出来ないが、デジカメで撮ると現れてしまう模様である。
  • 輝度モアレは画素ピッチ〜画素ピッチの倍の周期でセンサに写る周期的模様で発生しうる。ローパス有りであれば起こりにくいが解像がその分落ちる。これは物理現象として生じているモアレとよく似た発生理由であるため、自動処理は困難であり、出たら諦めるしかないものと思っておく。
  • 色モアレはベイヤー配列を採用しているセンサで特に起こる問題である。画素ピッチの2〜4倍の周期的な模様で、コントラストが強く彩度が低い場合に目にしやすい。ローパス有りであれば起こりにくいが解像がその分落ちる。
    ローパスフィルタとしては輝度モアレよりも低周波数で効かせる必要があるため、特に解像が落ちる。但し、輝度差による模様ではないためモノクロ化すると消える。また、デジタル処理にて低減出来る。
  • どちらのモアレも高周波情報の周期が合った時に出てくるモノなので、撮影者側でぼかすか周期をずらしてやることで対処出来る。というかそのように対処するしかない。

以上。