24-06-14 21:27发布于 北京 来自 微博网页版
看到一个问题:
一个10bit色深、P3色域的SDR视频,在一个2000nit的屏幕上播放,和HDR视频有什么区别?
我觉得可以简单画图解释一下(图1):
红线是伽马 2.2 代表 SDR;
蓝线是 HLG 代表 HDR;
绿线是 PQ 也代表 HDR;
横坐标是灰阶,纵坐标是灰阶对应的实际屏幕亮度。
显示 0-10 尼特的范围时(图2):
红色( SDR),差不多有 60 档不同的亮度;
蓝色( HLG),差不多有 130 档不同的亮度;
绿色( PQ ),差不多有 450 档不同的亮度;
如果是显示 0-1 尼特的范围(图3):
红色( SDR),差不多有 7 档不同的亮度;
蓝色( HLG),差不多有 40 档不同的亮度;
绿色( PQ ),差不多有 250 档不同的亮度;
再去看 1000-2000 尼特的范围(图4):
红色( SDR),差不多有 270 档不同的亮度;
蓝色( HLG),差不多有 130 档不同的亮度;
绿色( PQ ),差不多有 70 档不同的亮度;
总结区别就是:
用 SDR 伽马,更多档位给了高亮度
用 HDR 伽马,更多档位给了低亮度
那么哪种好呢?
而人眼对亮度的感知有两个规则:
在较暗时遵守平方根均匀;
在较亮时遵从对数均匀。
说人话就是:
亮度越低,人眼对亮度变化越敏感;
亮度越高,人眼对亮度变化就越不敏感。
HDR 伽马给低亮度留了更多的灰阶,更符合人类视觉系统对暗部细节的感知能力,看起来会比 SDR 的伽马更平滑。
所以最终结论是:
当然可以在 SDR 调色并且回放来填满高亮度的屏幕,但代价就是低亮度容易色彩断层,灰阶不连续(图5)。
所以反过来想,如果能说服上下游产业链都搞 12bit 甚至 16bit, 那直接沿用 2.2 的伽马对于几千尼特的需求也都够了(图6)。
*这里还仅仅是说回放环节,如果考虑记录的话,影响会更明显。
一个10bit色深、P3色域的SDR视频,在一个2000nit的屏幕上播放,和HDR视频有什么区别?
我觉得可以简单画图解释一下(图1):
红线是伽马 2.2 代表 SDR;
蓝线是 HLG 代表 HDR;
绿线是 PQ 也代表 HDR;
横坐标是灰阶,纵坐标是灰阶对应的实际屏幕亮度。
显示 0-10 尼特的范围时(图2):
红色( SDR),差不多有 60 档不同的亮度;
蓝色( HLG),差不多有 130 档不同的亮度;
绿色( PQ ),差不多有 450 档不同的亮度;
如果是显示 0-1 尼特的范围(图3):
红色( SDR),差不多有 7 档不同的亮度;
蓝色( HLG),差不多有 40 档不同的亮度;
绿色( PQ ),差不多有 250 档不同的亮度;
再去看 1000-2000 尼特的范围(图4):
红色( SDR),差不多有 270 档不同的亮度;
蓝色( HLG),差不多有 130 档不同的亮度;
绿色( PQ ),差不多有 70 档不同的亮度;
总结区别就是:
用 SDR 伽马,更多档位给了高亮度
用 HDR 伽马,更多档位给了低亮度
那么哪种好呢?
而人眼对亮度的感知有两个规则:
在较暗时遵守平方根均匀;
在较亮时遵从对数均匀。
说人话就是:
亮度越低,人眼对亮度变化越敏感;
亮度越高,人眼对亮度变化就越不敏感。
HDR 伽马给低亮度留了更多的灰阶,更符合人类视觉系统对暗部细节的感知能力,看起来会比 SDR 的伽马更平滑。
所以最终结论是:
当然可以在 SDR 调色并且回放来填满高亮度的屏幕,但代价就是低亮度容易色彩断层,灰阶不连续(图5)。
所以反过来想,如果能说服上下游产业链都搞 12bit 甚至 16bit, 那直接沿用 2.2 的伽马对于几千尼特的需求也都够了(图6)。
*这里还仅仅是说回放环节,如果考虑记录的话,影响会更明显。