こないだまで東京でDITとかやっていたのに調べるまでよくわからなかったので…。

 

いくつかの技術トレンド

  • グレーディングをはじめとしたポストプロダクションが一般化
  • コンピュータの処理能力の向上
  • 小規模プロダクションが増加、低容量でハンドリングしやすいデータの要求
  • HDR対応
  • コンピューティングの負荷 > ストレージの負荷 = 圧縮RAWイメージシーケンス (R3D, X-OCN)
  • ハードウェア&エディットスイート&コーデックによる最適化 = Prores RAW

 

非圧縮 or 圧縮 RAW

非圧縮RAWでの収録は極めて大きいコストがかかるが、単純にお金をかければ解決する。撮影したイメージが劣化しない唯一の収録手法。

圧縮RAWは既に広汎に用いられている(ex. R3D)。ストレージは圧迫しないが、処理負荷は高まる。

RAWといっても中身は色々あって、ストレージとコンピューティングのバランスで細かくチューニングされていく。

(少し話は脱線するのですが、例えばAmiraのProres4444とEPICのR3Dを比べたとして、多くの人がAmiraのイメージを好ましいと感じるでしょうし、非常に広いレンジを持ったLogC/Prores4444に不満を覚える人もあまりいないと思います。ただ、ポストプロダクション時の柔軟性だけに着目するならば、メタデータを変えることで非破壊的にルックを作れるR3D、つまりRAWデータの方がより優れた形式といえるでしょう)

 

RAWとはなんなのか

ここでは「デベイヤー以前の画像」をRAWとします。

圧縮されているかは関係ありません。

Prores RAW

ご存知の通り、多くのカメラはベイヤー配列を利用してカラーイメージを得ている。

イメージセンサーは明るさを測ることはできるが、色は見えない。センサーはあくまでモノクロセンサー。

ただ、その輝度センサーの画素上にR,G,B3色のカラーフィルタを配置し、撮影後に合成することで、カラーイメージを生成できる。

RGGBの画素を格子状に並べた配列をベイヤーパターン、撮影後にモノクロイメージからカラーイメージを得る処理をデベイヤーと呼ぶ。

デベイヤー以前のモノクロイメージ(RAWデータ)は、各ピクセルに1つの輝度情報のみを持つ。

一方で、デベイヤー後の画像、つまりカラーイメージは各ピクセルに3つの輝度情報(R,G,B)を持つ。

RGBカラーイメージは、モノクロイメージの3倍のデータ量となる。

いわゆる普通のビデオファイル(カラーイメージシーケンス)は再生時にデベイヤー処理を必要としないため、処理が軽く済む。色差を間引く圧縮も出来る。

RAWファイルの再生にはデベイヤー処理が必要で、編集向きとは言い難い。ただ、サイズ的にはカラーイメージより軽い。

そう、実はRAW画像は軽い。カラーイメージに比べれば。

(DPXやTIFF,JPEGとかのRGBカラーイメージにすると重いから、重い気がしてしまう)

通常のProresファイルはカラーイメージシーケンス(普通のカラービデオ)を圧縮したもの。

Prores RAWはその名の通りRAWデータ(モノクロイメージ)を圧縮したもの。

モノクロイメージはカラーイメージの1/3の容量しか持たないため、非常に軽く出来る。

ビット深度が深くなればなるほどRAW収録でのストレージ圧縮効果は上がるので、HDR時代には嬉しい。

圧縮自体は今までのProresと同様なので、クオリティも問題ない。

みんなハッピー

 

品質変わらず重さが1/3とかジャパネットたかたかよと警戒している人も多いと思いますが、ただの圧縮RAWなので怪しいものではありません。

イノベーションがあったわけではなくて、トレンドとマーケティングだという気もします。虚無。

デコードとデベイヤーがノンストレスで行えれば、悪いチョイスではないかも。

 

ここだけの話ProresRAWのファイル見たこともないので間違ってたらすいません。

 

https://www.apple.com/final-cut-pro/docs/Apple_ProRes_RAW_White_Paper.pdf

How can 16 bit X-OCN deliver smaller files than 10 bit XAVC-I?

https://www.pronews.jp/column/20170919140038.html

 

Leave a Reply

Your email address will not be published. Required fields are marked *