一博 发表于 2013-8-30 12:53

最省钱的数字电影后期流程

本帖最后由 一博 于 2013-9-13 16:32 编辑

前段时间和朋友一起拍了个数字微电影,用F3拍摄 由于资金紧张,到正规的影视公司做后期的话费用将是一笔不小的支出。
最后自己想到了这么个好办法和大家分享一下。
先自己的黑苹果 在final中剪辑好镜头,弄好配乐什么的,然后输出xml在达芬奇套底调色——然后再回批给final ——稍微调整定剪。然后把最后的工程打包好,找到硬是公司的牛逼设备租用半天——输出成片。

sean_tian 发表于 2013-8-31 00:05

感觉有点听不太明白

ywl23 发表于 2013-8-30 22:40

感觉比较高端

上帝之猪 发表于 2013-8-30 22:34

LSBL 发表于 2013-8-30 20:43 static/image/common/back.gif
很奇怪的事情,可以在家剪辑、调色,就不能输出?

不是所有的设备都能拿来当最终输出的。区别就在于算法和精度。最明显的例子就是AVID MC和AVID SY,就剪辑功能而言两者就是同一个东西,但后者可以用于输出母带,前者输出就达不到母带质量。包括AVID MC在内的几乎所有offline剪辑系统内部处理精度都是8bit,输出质量和online系统差太多,可以用肉眼分辨。所以,如果是要保留母带,最终输出时最好选择在10bit系统上完成。凑合的可以ae,davinci有时候也可以,也可以用AVID sy,AVID ds,当然有银子可以用flint somke flame.尤其是用于正规的播出放映平台,这个是必须的。

董兆原 发表于 2013-8-31 02:32

哥们我想问问你用牛逼的设备输出10bit你准备拿到哪家牛逼的电视台去放?

毛虫 发表于 2013-8-30 22:15

请问一下,牛B的设备是不是可以把同样文件大小的媒体文件输出得更精致?

阿提拉 发表于 2013-8-30 13:09

F3拍摄,用的什么格式?有木有录机?

上帝之猪 发表于 2013-8-30 15:47

这个流程中调色完成后用final定剪后,“工程打包”是什么意思?如果不是用XML传输到牛X设备上输出成片,那么这一点就是流程中的硬伤。

Charactery 发表于 2013-8-30 15:57

很牛叉的硬件?你在家里慢点不也能输出么?

jdjsq 发表于 2013-8-30 16:46

你是有多大的工程。达芬奇调色又不是三维动画。

LSBL 发表于 2013-8-30 20:43

很奇怪的事情,可以在家剪辑、调色,就不能输出?

坛山 发表于 2013-8-31 11:36

董兆原 发表于 2013-8-31 02:32 static/image/common/back.gif
哥们我想问问你用牛逼的设备输出10bit你准备拿到哪家牛逼的电视台去放?

拿到电视台再转回DVCAM,哈哈

LSBL 发表于 2013-8-31 18:11

上帝之猪 发表于 2013-8-30 22:34 static/image/common/back.gif
不是所有的设备都能拿来当最终输出的。区别就在于算法和精度。最明显的例子就是AVID MC和AVID SY,就剪辑功 ...

还是不太明白你所说的什么输出要10位,这是指输出文件的格式要10位?那你输出个10位4:4:4的不就行了?
还有,你在牛B的后期公司是用什么软件和硬件输出的?

起个什么名 发表于 2013-9-1 21:08

本帖最后由 起个什么名 于 2013-9-1 21:13 编辑

谢谢大叔为我解惑.....


xml在达芬奇套底调色是代理调色么?还是转小MOV调色?
——然后再回批给final是输出时间线还是?输出原名素材
最终输出为什么还需要机器呢?      ae,davinci 可以认为为输出10bit么?
flint somke flame是平台所用的合成软件
需要机器硬件配合?


一博 发表于 2013-9-1 21:51

阿提拉 发表于 2013-8-30 13:09 static/image/common/back.gif
F3拍摄,用的什么格式?有木有录机?

有,是aja 记录单元记录的。

一博 发表于 2013-9-1 21:52

本帖最后由 一博 于 2013-9-11 16:28 编辑

上帝之猪 发表于 2013-8-30 15:47 static/image/common/back.gif
这个流程中调色完成后用final定剪后,“工程打包”是什么意思?如果不是用XML传输到牛X设备上输出成片,那么 ...
就是说把final中的工程拷贝到,影视公司的牛叉设备上做,最后输出。

上帝之猪 发表于 2013-9-2 15:43

本帖最后由 上帝之猪 于 2013-9-2 15:51 编辑

LSBL 发表于 2013-8-31 18:11 static/image/common/back.gif
还是不太明白你所说的什么输出要10位,这是指输出文件的格式要10位?那你输出个10位4:4:4的不就行了?
还 ...
问题就在于几乎所有的offline系统的输出都不是10bit,是软件本身的限制,不仅仅是板卡。在offline系统中即便是把输出格式设置成10bit,内部处理仍然是8bit,得到结果是假的10bit。所以,要得到10bit,必须是牛X的系统。在后期公司一般用smoke或者flame,当然还有其他的比如avid DS,avid SY等,不出磁带的话用合成软件业AE,NUKE之类的输出文件,用Davinci输出大概是最具性价比的。
另外,尽管最终的用户看到的是8bit,但保留母版最好是10bit。

上帝之猪 发表于 2013-9-2 15:54

本帖最后由 上帝之猪 于 2013-9-2 15:56 编辑

一博 发表于 2013-9-1 21:52 static/image/common/back.gif
就是说把final中的工程拷贝到,影视公司的牛叉设备上做,最后输出。
如果只是拷贝,然后还是用FCP输出的话是没有意义的,FCP本身只能输出8bit,和硬件的关系不大。必须传输到支持10bit处理的系统上才有意义,比如用XML。否则依然不牛X.

一博 发表于 2013-9-5 17:03

上帝之猪 发表于 2013-9-2 15:54 static/image/common/back.gif
如果只是拷贝,然后还是用FCP输出的话是没有意义的,FCP本身只能输出8bit,和硬件的关系不大。必须传输到支 ...

哦,哪请问一下老师,向我们这样的情况应该怎么弄才能在最后得到高质量的片子啊!

上帝之猪 发表于 2013-9-6 17:51

一博 发表于 2013-9-5 17:03 static/image/common/back.gif
哦,哪请问一下老师,向我们这样的情况应该怎么弄才能在最后得到高质量的片子啊!

老师不敢当。
我并不清楚你最终的成片在什么样的平台上投放,所以也不好乱说。这个要结合投放要求以及制作成本、周期等因素综合考量。而且具体方案有很多种,不便一一列出。
高质量的输出和系统以及流程有很大的关系。常用的FCP、PR、AVID MC等都属于offline系统,尽管能导入10bit数据,也只能按8bit的方式处理数据。在你的例子中,Davinci输出后就不应该再回到FCP,即便回到FCP重新定剪,也只能再次输出XML到更高级的系统上完成套底,再进行后续制作,然后输出。因为Davinci输出已经是高质量10bit文件,再用8bit的FCP进行后续制作,画质损失很比较大的。千万别小看8bit和10bit的差异,要知道后者的颜色信息是前者的4倍。我不知道你所谓的牛X硬件是什么平台,如果还是用FCP,对于提升画质是没有意义的,硬件牛X最多也就速度快一点、能输出到磁带,与画质无关。尽管很多投放平台最终用于播出的是8bit文件,但在制作环节保持10bit流程,最后得到的画质也比不采用10bit流程高很多,以致肉眼能分辨。
当然10bit流程的成本更高一些,一切取决于具体的条件而定。

一博 发表于 2013-9-7 09:30

本帖最后由 一博 于 2013-9-13 16:33 编辑

上帝之猪 发表于 2013-9-6 17:51 static/image/common/back.gif
老师不敢当。
我并不清楚你最终的成片在什么样的平台上投放,所以也不好乱说。这个要结合投放要求以及制 ...
嗯,明白了,谢谢啦!
您的意思就是说我最后在final 里面定剪以后,直接在我的苹果上用达芬奇输出最后成片得到最终的效果灰好很多是吗?另外还想问问 您就是我的苹果上装的使用版达芬奇除了不能降噪和建4k的工程意外和他们牛x的影视公司的达芬奇有什么区别吗?我有没有必要最后在他们牛x的达芬奇设备输出,我最后的成片暂定是在电视台播出的!

上帝之猪 发表于 2013-9-7 20:40

没错,Davinci是个性价比很高的输出方案。Davinci的免费版和收费版在画面质量上没区别,只有功能上的区别,而速度则取决于硬件配置。
如果所谓的牛叉设备就是Davinci,那么我觉得没有必要去花钱找别人,对Davinci而言牛X设备唯一的优势就是速度,当然标准的监视器也算一个。
另外,如果电视台播出用磁带,则需要硬件IO卡输出磁带。如果是用数字文件的完全不必求人。

不动明王 发表于 2013-9-8 09:38


看了楼上的讨论,我有些地方不太明白,希望解答。根据孙祖键老师的FCP和DAVINCI的流程,有些片子采集的视频是没有卷标的,这在DAVINCI下很容易出错,所以最好是在DAVINCI下添加好后,先渲染出去,然后再在FCP下剪辑,这样一来,根据楼上说的,是不是画面质量有下降了?这里的问题是,FCP是能处理10bit画质,最终输出只能8bit,还是说FCP不管三七二十一,将导入的10bit素材全部转为了8bit来处理了?如果是前者,那么我觉得从DAVINCI再回到FCP定剪是不影响画质的。如果是后者,那么所有的素材都不可以在FCP里剪辑,因为素材进去就成8bit了。我知道孙祖键老师是在横店搞影视的,他就非常推崇FCP和DAVINCI这个流程的。我也知道这次徐克的《狄仁杰前传》是在FCP里剪的。

霹雳狗狗 发表于 2013-9-8 18:39

呵呵~呵呵~呵呵~呵呵~smoke 也可以在黑苹果装的……装一套破解版的flame 也没多少钱   软件可以装~~B不可以~

sean_tian 发表于 2013-9-8 18:53

不动明王 发表于 2013-9-8 09:38 static/image/common/back.gif
看了楼上的讨论,我有些地方不太明白,希望解答。根据孙祖键老师的FCP和DAVINCI的流程,有些片子采集的视 ...

低调点,在这里要叫孙祖健大湿

不动明王 发表于 2013-9-9 08:30

看来我还不了解状况。因为我的FCP启蒙是看了他的视频才入门的,当然是免费的那种。抛开个人,江湖,我们不谈,关于我对软件方面的疑惑,有人能答疑一下吗?

上帝之猪 发表于 2013-9-9 21:30

不动明王 发表于 2013-9-8 09:38 static/image/common/back.gif
看了楼上的讨论,我有些地方不太明白,希望解答。根据孙祖键老师的FCP和DAVINCI的流程,有些片子采集的视 ...
对于第一个问题,是否影响画质,并不尽然。即便是先经过DAVINCI处理再用FCP剪辑,但并不做最终输出,只是用FCP产生一个XML,然后用其他的系统完成后续制作,那么FCP对画质没有影响;如果用FCP做最终输出,影响是不言而喻的。当然,如果投放要求仅限于婚礼之类的用途,这个影响可以忽略不计。
FCP的内部处理只能做到8bit,10bit 素材也当8bit来处理。注意不是转换成8bit,而是直接把多余的扔掉。影响画质是一定的,问题就在于你是否在乎?
如果据此认为FCP不能做剪辑,似乎有点矫枉过正。FCP是个好东西,但再好也只是在offline的范围内,最终的母带制作,属于online的范围,根本就不是一个级别。就如你所言,我相信《狄仁杰前传》是在FCP里剪的,但我敢拿以任何代价做赌注,《狄仁杰前传》肯定不是用FCP输出的。

不动明王 发表于 2013-9-10 08:10

本帖最后由 不动明王 于 2013-9-10 08:42 编辑

上帝之猪 发表于 2013-9-9 21:30 static/image/common/back.gif
对于第一个问题,是否影响画质,并不尽然。即便是先经过DAVINCI处理再用FCP剪辑,但并不做最终输出,只是 ...
非常感谢,总算明白了,也长了见识。再咨询一下,这个输出的10bit质量跟你说的10bit有什么区别吗?

不动明王 发表于 2013-9-10 19:08


网上找到篇文章来说明这个问题的,不知道讲的对不对,请大家讨论一下:
先从科学角度讲:
人类的视觉是感性的,眼睛接受到光线,将信号发送给大脑,大脑会加工光线。
当你睡觉熄灯的时候,整个房间马上黑了起来,你暂时的看不到任何东西,但是过了一会
你又能看到身边物体的轮廓....这个过程,大脑会先把眼睛瞳孔(很像摄像机的光圈)放大,
让更多光线进来,让后在把光线加工提亮,让你看得到物体,又不会感觉难受。
这个时候房间门突然打开,有人用手电筒照你的脸,大脑马上会下命令,眯起眼睛,收缩瞳孔,
同时大脑会帮你降低自己的“感光度”,这个时候你就可以看到手电筒的后面的那个人....
多数情况下人类的视觉都会把原来的光线变暗,这是因为人们不喜欢大面积的高亮区,
而视觉对于高光区的亮度变化没有阴影区的亮度变化敏感。
所以你看到的世界,不是本来的样子,是视觉系统调整后的结果。
自然界中光线的传输,不管是直射,反射,还是折射,都是线性化的,
而线性的光线会被人类的视觉系统加工,以适应人类的生存,这是人类进化的结果。
视觉加工线性光线的行为,就是我们所说的“非线性”的来源。首先“非线性” 不是坏事情,当她作为显示终端的时候,可以更好的满足人类的视觉要求。
但当“非线性”出现在合成制作流程的时候,就成了素材的杀手.....
显示器用2.2伽马曲线(线性的伽马为1.0)显示图像是为了符合人类的视觉系统。
家用的LED和LCD显示器,液晶电视,最多只有8bit.多数的准专业级拍摄设备在8bit上还会做色度抽样。
所以你要做10bit,和12bit流程需要确定以下几件事:
第一件,素材源来自三种渠道,
1,是胶片转数字(DPX可达到10bit).但胶片转数字的素材以后会越来越少。
2,专业数字摄像机(多数都是8bit,4:4;4色度抽样最好,最低是4:2:2的才能算是专业摄像机)
眼下流行的数字摄像机:
sonyF35--10bit(最早可以拍10bit的数字摄像机,后来被RED和ARRI虐了一把,据说是老谋子的最爱)
sony-F65--12bit(SONY针对ARRI和RED推出了F65,8K成像,全4K拍摄,号称超过胶片色域的)
arri--10bit(国内电影摄影师很喜欢,得益于arri胶片摄像机)
redone-10bit(高端商业广告,以及数字电影领域,国内有流行趋势,今年的新产品又火了一把)
3,CG渲染出的,3D软件和2D合成软件,多数都支持32bit浮点运算,线性工作流程。

第二件:在你确定你的素材源等于或者高于10bit后,需要找到存储高位深的格式:
1,存储胶转数的DPX,据说可以保存单通道16bit的位深,但多数书籍上都写着是10bit.
2,存储数字摄像机的格式,像原生的R3D,RAW等都可以,
特别说明的是:apple prores 4444 可以存单通道12bit的位深,但仅支持MAC。
photojpeg可保存10bit,兼容WIN和MAC。
3,CG渲染的选择tiff格式,可以保存单通道16bit的位深。

格式的误区:AVI无压缩和Quicktime动画格式只能保存单通道8bit。

TGA 32位,指的是 RGBA每通道8位,8X4=32,TGA只能保存单通道8bit的图像

剪辑软件:多数都是单通道8bit的软件,10bit的素材导入8bit的剪辑软件输出10bit的格式,素材可能会降低位深。

做高位深的项目,选择软件输出终端很重要, PR(24bit=RGB*3)虽然支持12bit编码但是其软件本身是8bit的,所以慎用输出。而FCP7.0,对12bit的编码支持较好,但她也是8bit的软件,fcpx目前只有8bit。
windows下的Vegas和Edius就更不用说了。

所以第三件: 确定了源和存储格式都是10bit的,在制作过程中同样以10bit或者更高的位深去做:
像流行的合成软件:AE,NUKE对32位浮点和线性工作区都支持很好。
线性合成的好处:修改素材的颜色,添加扭曲和模糊特效,图层模式运算等...
都符合现实里的光学原理,在线性合成里处理素材的损失也最小。
调色软件:applecolor,Davinci,支持线性流程。
特别提示的是Magic Bullet 仅支持8bit,LOOKS的界面内预览,对线性文件处理反应不好。
当你以线性的合成或者调色流程去处理完高位深的素材,输出也要保证格式是可以存储高位深的格式。
一般我都保存为apple prores 4444.

一博 发表于 2013-9-10 21:34

不动明王 发表于 2013-9-10 19:08 static/image/common/back.gif
网上找到篇文章来说明这个问题的,不知道讲的对不对,请大家讨论一下:
先从科学角度讲:
人类的视觉是 ...

嗯 说的很详细,总算明白了这一块儿的问题!谢谢!!
页: [1] 2
查看完整版本: 最省钱的数字电影后期流程