- UID
- 41243
- 阅读权限
- 30
- 注册时间
- 2013-9-3
会员
- 注册时间
- 2013-9-3
|
网上找到篇文章来说明这个问题的,不知道讲的对不对,请大家讨论一下:
先从科学角度讲:
人类的视觉是感性的,眼睛接受到光线,将信号发送给大脑,大脑会加工光线。
当你睡觉熄灯的时候,整个房间马上黑了起来,你暂时的看不到任何东西,但是过了一会
你又能看到身边物体的轮廓....这个过程,大脑会先把眼睛瞳孔(很像摄像机的光圈)放大,
让更多光线进来,让后在把光线加工提亮,让你看得到物体,又不会感觉难受。
这个时候房间门突然打开,有人用手电筒照你的脸,大脑马上会下命令,眯起眼睛,收缩瞳孔,
同时大脑会帮你降低自己的“感光度”,这个时候你就可以看到手电筒的后面的那个人....
多数情况下人类的视觉都会把原来的光线变暗,这是因为人们不喜欢大面积的高亮区,
而视觉对于高光区的亮度变化没有阴影区的亮度变化敏感。
所以你看到的世界,不是本来的样子,是视觉系统调整后的结果。
自然界中光线的传输,不管是直射,反射,还是折射,都是线性化的,
而线性的光线会被人类的视觉系统加工,以适应人类的生存,这是人类进化的结果。
视觉加工线性光线的行为,就是我们所说的“非线性”的来源。首先“非线性” 不是坏事情,当她作为显示终端的时候,可以更好的满足人类的视觉要求。
但当“非线性”出现在合成制作流程的时候,就成了素材的杀手.....
显示器用2.2伽马曲线(线性的伽马为1.0)显示图像是为了符合人类的视觉系统。
家用的LED和LCD显示器,液晶电视,最多只有8bit.多数的准专业级拍摄设备在8bit上还会做色度抽样。
所以你要做10bit,和12bit流程需要确定以下几件事:
第一件,素材源来自三种渠道,
1,是胶片转数字(DPX可达到10bit).但胶片转数字的素材以后会越来越少。
2,专业数字摄像机(多数都是8bit,4:4;4色度抽样最好,最低是4:2:2的才能算是专业摄像机)
眼下流行的数字摄像机:
sonyF35--10bit(最早可以拍10bit的数字摄像机,后来被RED和ARRI虐了一把,据说是老谋子的最爱)
sony-F65--12bit(SONY针对ARRI和RED推出了F65,8K成像,全4K拍摄,号称超过胶片色域的)
arri--10bit(国内电影摄影师很喜欢,得益于arri胶片摄像机)
redone-10bit(高端商业广告,以及数字电影领域,国内有流行趋势,今年的新产品又火了一把)
3,CG渲染出的,3D软件和2D合成软件,多数都支持32bit浮点运算,线性工作流程。
第二件:在你确定你的素材源等于或者高于10bit后,需要找到存储高位深的格式:
1,存储胶转数的DPX,据说可以保存单通道16bit的位深,但多数书籍上都写着是10bit.
2,存储数字摄像机的格式,像原生的R3D,RAW等都可以,
特别说明的是:apple prores 4444 可以存单通道12bit的位深,但仅支持MAC。
photojpeg可保存10bit,兼容WIN和MAC。
3,CG渲染的选择tiff格式,可以保存单通道16bit的位深。
格式的误区:AVI无压缩和Quicktime动画格式只能保存单通道8bit。
TGA 32位,指的是 RGBA每通道8位,8X4=32,TGA只能保存单通道8bit的图像
剪辑软件:多数都是单通道8bit的软件,10bit的素材导入8bit的剪辑软件输出10bit的格式,素材可能会降低位深。
做高位深的项目,选择软件输出终端很重要, PR(24bit=RGB*3)虽然支持12bit编码但是其软件本身是8bit的,所以慎用输出。而FCP7.0,对12bit的编码支持较好,但她也是8bit的软件,fcpx目前只有8bit。
windows下的Vegas和Edius就更不用说了。
所以第三件: 确定了源和存储格式都是10bit的,在制作过程中同样以10bit或者更高的位深去做:
像流行的合成软件:AE,NUKE对32位浮点和线性工作区都支持很好。
线性合成的好处:修改素材的颜色,添加扭曲和模糊特效,图层模式运算等...
都符合现实里的光学原理,在线性合成里处理素材的损失也最小。
调色软件:applecolor,Davinci,支持线性流程。
特别提示的是Magic Bullet 仅支持8bit,LOOKS的界面内预览,对线性文件处理反应不好。
当你以线性的合成或者调色流程去处理完高位深的素材,输出也要保证格式是可以存储高位深的格式。
一般我都保存为apple prores 4444.
|
|