电影制作手册(第4版)(txt+pdf+epub+mobi电子书下载)


发布时间:2020-09-13 09:08:41

点击下载

作者:Steven Ascher(史蒂文·阿舍), Edward Pincus(爱德华·平卡斯)

出版社:电子工业出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

电影制作手册(第4版)

电影制作手册(第4版)试读:

前言

如果你曾经关注过电影叙事方式随着时代发展而发生的变化,就会发现其中一些是由新技术所带来的。这种变化有时是天翻地覆的。比如1920年有声电影的出现,就彻底改变了剧作、表演和剪辑的方式。而有时这样的变化是渐进式的,但同样引人注目,比如数字技术的出现使得很多过去在纪录片和剧情片制作中的不可能成为了可能。

作为一名电影制作者,你会发现如今的技术日新月异,在拍电影的同时还要学习和掌握相应的技术成为了一件困难重重的事。这本书正是初学者和专业人士的好帮手。本书的一些内容难免稍许滞后,无法与互联网上的最新信息同步,但是本书提供了大部分网站无法提供的信息:对于整个电影制作过程的全景式介绍。它将为你制作电影打下基础,并教会你理解行业的最新发展。

本书第一版写于约30年前。随着版本的更新,新的内容被加入,而旧的内容则被删除。1984年,Ed和我写第一版时,介绍的是使用赛璐珞胶片拍摄电影的方法。之后,Ed退出了这本书的写作。1999年,我写了第二版,增加了模拟视频的内容。2007年的第三版,扩充了对数字内容的介绍,书的厚度也增加了一倍。极富才华的电影制作人和技术探索者David Leitner在本书的第三版和第四版中都贡献了他的宝贵经验。在写第四版时,我丢弃了很多胶片电影制作中曾经引以为豪的内容,难以割舍。但是数字化是未来影视制作发展的趋势,甚至本书以纸质呈现都已经有点过时了(也许也应该以电子书的方式呈现)。

电影制作是由很多彼此不同但却相互联系的环节构成的。在本书中我尽力满足剧情片和纪录片电影制作者的需求,他们的创造性工作可能是自己单独完成,也可能是在一个庞大的组织中完成的,其形式多种多样,盈利与否也各有差异。

从某种意义上来说,所有的电影制作者入行时都是独立制作人。通常,新人必须精通影片制作的各个环节—拍摄、录音、剪辑、筹款、发行—因为没有人会替你去做这些工作。无论今后你在电影制作中担任何种职位,学习电影制作的方方面面都大有益处。事实上,随着电影预算的缩减和制作技术的发展,专业的电影制作者通常需要具备一专多能。本书写作时假定你需要完成一部电影制作的所有任务,或者至少想要弄明白这些内容。当然,本书只是一本参考书,所以你大可以仅阅读那些关心的内容,跳过无关章节。

在这里我要感谢对本书提供过帮助的Mark Abbate、Benjamin Bergery、Richard Bock、David Brown、Michael Callahan、Elvin Carini、Claude Chelli、Frank Coakley、Victoria Garvin Davis、Bob Doyle、Stefan Forbes、Sandra Forman、Patrick Gaspar、Len Gittleman、Alfred Guzzetti、Arnie Harchik、Bruce Jacobs、Sam Kauffmann、Rudolph Kingslake、Dennis Kitsz、Mark Lipman、Julie Mallozzi、Greg McCleary、Ross McElwee、Matt McMakin、Eric Menninger、Robb Moss、Graeme Nattress、Michael Phillips、Sami Pincus、Adam Schatten、Moe Shore、Tim Spitzer和Serena Steuart.

我还要感谢Ted Spagna、Stephen McCarthy、Ned Johnston和Andy Young提供的图片,Carol Keller和Rob Brun提供的手绘图,以及研究者Joshua Weinstein和Luke Gasbarro所做的贡献。

还有多到无以计数的人需要感谢,他们热情地为我提供信息、图片及各种帮助。我还要特别感谢学识渊博、思维缜密的David Leitner对本书的帮助。

我的电影制作伙伴也是妻子Jeanne Jordan,我们的儿子Jordan Ascher也对本书、我的工作和生活做出了贡献,难以言表。感谢他们。Steven Ascher目 录

内容简介

译者序

前言

第1章 视频和胶片电影系统概述

1.1 视频系统

1.1.1 视频格式

1.1.2 数字压缩

1.1.3 视频格式的对比

1.1.4 高清数字格式

1.1.5 数字电影系统

1.1.6 标清数字格式

1.1.7 标清模拟格式

1.1.8 在硬盘、光盘和存储卡上录制视频

1.1.9 视频的录音

1.1.10 视频编辑

1.2 胶片电影系统

1.2.1 不同规格胶片的比较

1.2.2 电影音响

1.2.3 影片剪辑

1.3 用数字拍摄vs用胶片拍摄

第2章 前期的工作

2.1 启动你的电影

2.2 大银幕和(更)小屏幕

2.3 影片的效果

2.3.1 传感器和胶片尺寸的影响

2.3.2 色彩和感光度

2.3.3 清晰度和焦点

2.3.4 宽高比的选择

2.3.5 帧速率和扫描的选择

2.4 选择摄影机/摄像机

2.5 计划工作流程

2.5.1 制作和后期制作中的数据管理

2.5.2 声音的重要性

2.5.3 对技术的应对

第3章 视频摄录机

3.1 初期设定

3.2 取景器和监视器

3.3 画面控制

3.4 用硬盘、光盘和记忆卡存储

3.4.1 媒体的种类

3.4.2 在拍摄时管理数据

3.5 录制在数字磁带上

3.6 摄录机的使用

3.7 电池和电力供给

3.8 摄像机敏感度

3.9 摄像机的其他功能

第4章 镜  头

4.1 焦距和透视

4.2 镜头的聚光能力

4.3 画面对焦

4.4 选择变焦镜头

4.5 定焦镜头

4.6 近距离摄影

4.7 镜头质量和状态

4.8 镜头支座

4.8 镜头的安装和校准

4.9 镜头的维护

第5章 视频画面

5.1 视频画面的形成

5.1.1  摄像机对光照的反应

5.2 理解和控制对比度

5.2.1 什么是伽玛系数?

5.2.2 拍摄时的伽玛选择

5.3 视频色彩系统

5.4 一些图像处理和加工

5.5 视频监视器和放映机

5.6 时码

5.7 数字视频录制的工作原理

5.7.1 像素和分辨率

5.8 处理数字数据

5.8.1 数字连接

5.8.2 硬盘存储

5.8.3  RAID

5.8.4 文件格式和数据交换

5.9 数字压缩

5.9.1 压缩方法

5.9.2 一些常用的编解码器

第6章 胶片摄影机

6.1 片门和快门

6.2 摄影机速度和马达

6.3 取景系统

6.3.1 反射式取景器

6.4 摄影机的胶片容量

6.5 其他功能

6.6 摄影机的检测与保养

第7章 胶片影像

7.1 胶片的特性

7.2 画面的反差

7.3 清晰度

7.4 生胶片的选择

7.5 胶片的包装、处理和购买

7.6 测光表与曝光控制

7.6.1 测光表

7.6.2 曝光值的读取

7.7 曝光和胶片

7.8 影片制作中的印片过程

7.8.1 放映毛片

第8章 色彩和滤镜

8.1 色彩

8.1.1 色温

8.2 滤镜

8.3 遮光斗和遮光罩

第9章 拍  摄

9.1 电影制作的目标

9.2 构图和镜头的选择

9.3 摄影机的运动

9.4 风格和方法

9.4.1 剧情片

9.4.2 纪录片

9.5 拍摄之前的准备

9.5.1 准备剧本的过程

9.5.2 日程和预算

9.5.3 组织项目

9.6 组织设备

9.7 制作过程

9.7.1 记录

9.8 摄影机的支架

9.9 慢动作、快动作和颤抖

9.9.1 慢动作

9.9.2 快动作

9.9.3 颤抖或闪烁

9.10 拍摄电视屏幕和视频监视器

9.11 3D拍摄

第10章 录音系统

10.1 声音

10.2 录音原理

10.2.1 模拟音频录制

10.2.2 数字音频录制

10.3 音频录制设备的种类

10.3.1 数字录音机

10.3.2 摄录机的音频

10.3.3  模拟磁带录音机

10.4 麦克风

10.5 音频连接

第11章 录音技术

11.1 拍摄前的准备

11.1.1  准备设备

11.2 录音师的角色

11.3 录音技术

11.3.1 设定录音电平

11.4 音乐、旁白和效果

11.4.1 其他录音问题

11.5 电影和视频的双系统录音

11.5.1 声画同步

11.5.2 操作双系统录音机

第12章 照  明

12.1 照明概述

12.2 照明器材

12.2.1 灯泡

12.2.2 照明设备的种类

12.3 照明技术

12.3.1 照明风格

12.3.2 照明的布置

12.3.3 照明反差的控制

12.3.4 照明和色彩

12.3.5 特殊照明效果

12.4 实景照明

第13章 画面和对话的剪辑

13.1 剪辑理论

13.2 剪辑方法

13.3 对话的剪辑

13.4 剪辑工序

13.5 字幕

第14章 数字视频编辑

14.1 非线性编辑系统的组成部分

14.2 非线性编辑系统是怎样播放和编辑媒体的

14.3 后期制作工作流程

14.3.1 用什么格式或分辨率来编辑

14.4 采集和组织视频素材

14.4.1 采集文件

14.4.2 从磁带采集

14.5 创造和编辑序列

14.6 声音编辑基础

14.6.1 处理双系统声音

14.7 基础视频效果

14.7.1 字幕、图形和照片

14.8 混录和转换格式

14.9 用24p编辑和变换

14.9.1 编辑24p素材

14.10 成片和输出

14.10.1 媒体管理

14.10.2 输出为文件

14.10.3 输出为磁带

14.10.4 输出为DVD或蓝光碟

14.10.5 制作DCP

14.10.6 色彩校正

14.11 磁带编辑

14.12 编辑决策列表和在线磁带编辑

第15章 声音剪辑和混录

15.1 声音编辑处理

15.2 声音编辑工具

15.3 声音剪辑技术

15.4 音乐

15.5 一些声音编辑的问题

15.6 为混音做准备

15.7 声音混录

15.7.1 电平和动态量程

15.7.2 频率范围和均衡

15.7.3 其他声音处理

15.8 混音格式

15.8.1 交付成片

第16章 胶片后期

16.1 胶片-视频转换总览

16.1.1 一些胶片-视频的工作流程

16.1.2 胶片-数字转换设备

16.2 胶转磁选项和控制

16.2.1 录制格式和扫描选项

16.2.2 画面控制

16.2.3 音频选项

16.2.4 胶片转换数据

16.2.5 订购胶转磁服务

16.3 胶片项目的数字化编辑

16.3.1 编辑的准备

16.3.2 用视频编辑电影时的特殊考虑

16.3.3 离线编辑完成后

16.4 数字到胶片的转换

16.4.1 磁转胶的准备

16.5 传统的胶片套片和放大

16.5.1 为原底做印片准备

16.5.2 放大

16.6 制作胶片拷贝

16.6.1 印片基础

16.6.2 验审拷贝

16.6.3 中间片

16.6.4 发行拷贝

16.7 电影拷贝的声音

16.7.1 模拟光学声轨

16.7.2 数字声轨

16.8 胶片放映

第17章 电影的制片和发行

17.1 项目开发

17.1.1 募集资金

17.1.2 预算

17.2 商业安排

17.3 法律和版权问题

17.3.1 保护你的作品

17.4 真实人物、地点和事物的准许书

17.5 使用有版权的内容

17.6 发行和营销

17.7 结束语

附录A 校正视频监视器

附录B 各种数字格式的码流及存储要求

附录C 景深例表

附录D 超焦距表

附录E 不同格式的视角

参考书目

网 站第1章视频和胶片电影系统概述

这是一本关于电影制作的书,这里的“电影”包括剧情片、纪录片、MV、企业宣传片、多媒体影像、电视节目、广告和家庭录影。事实上,电影(movie)并不是指代所有这些产品最合适的词,没有任何一个词能充当这一角色。你可以把它们称为“动态影像(motion picture)”,但这种说法一般被看作对好莱坞宣传的附和(特别是当“动态影像”一词前面还加上“专业”两个字时)。通常而言,如何称呼一件作品应该由它的制作方式决定。例如,如果你说你在拍一个视频(video),人们就会猜测你是在用一台摄像机(video camera)拍摄,而不是摄影机(film camera)。但是,怎样称呼作品更大程度上取决于最终它以什么形式传播。在电影院里放映的纪录片被称为电影,但是如果同样的片子在电视上放,就会被称为“秀”或者“节目”。一出两小时的影片可能最初呈现为一张“照片”,然后在电影节上映就成了“剧情片”,之后在影院里被叫作“公映新片”,在电视上或网上播的时候成为“电影”,在商店里又被售货员叫作“DVD”或“蓝光碟”。

名字的混乱反映的是影视作品种类和传播方式的多样化。曾经有一个时代,电影是拍摄在赛璐珞胶片上的,用胶片直接剪接和放映。虽然现在仍然可以这样制作电影,但是同样的产品现在会拍摄成高清视频,或者使用数字摄像机拍摄成2K或4K的数字文件格式,经数字化编辑后输出成各种不同的数字媒体形式,如专业磁带、DVD、蓝光碟,供在线播放和下载的存储在硬盘里的数字媒体文件、数字广播和有线电视、数字电影放映等。

如今电影可以用各种不同的方法创作、制作和放映,所以电影制作者、视频制作者、数字影像艺术家之间的区别已经不像从前那么明显。伴随着数字影像革命,所有的方法现在都可以通过计算机实现。这就是为什么“工作流程”,这个IT行业用以描述对一个复杂项目分步骤精细管理的词,现在被越来越多的人用来指代处理、编辑并完成数字影像产品的方法的原因。

本书的第1版只讲了有关胶片电影的内容。第2版和第3版加上了模拟和数字视频方面的介绍。在第4版中,关注的焦点越发向数字技术转移。这并不是因为“胶片已死”—胶片并没有死,但是它的未来发展空间却越来越有限。设备生产商已经不再生产胶片摄影机了,电影院也逐渐改播数字电影。但是,一些很大或很小的制作仍然在用胶片拍摄。本书的观点在于制作者应该使用那些最合适的拍摄、编辑和播放工具。他们可以使用任何数字和胶片技术工具。

现在又回到名称这个问题。制作影像的过程如此庞杂,制作出来的成品究竟应该叫作什么呢?因为本书叫作The Filmmaker's Handbook,所以我们把制成品叫作电影(film或movie)。这只是为了方便,而并不是为了限定制作这些成品的媒介、设备及成品格式。

第1章将总览电影制作的过程,同时对技术和设备做概述。

制作一部电影

电影中的技术、创造力、经费、社会性是紧密相连的,其紧密程度超过其他任何一种艺术形式(参见图1-1)。你对这些方面理解得越多,在筹备制作一部电影并将其带到观众面前时,就越有把握。

电影作品有多种形式,上至亿万投资的大银幕好莱坞史诗巨作,下至为小孩子生日拍摄的家庭录影,虽然在预算、人员和目标观众群等方面千差万别,但是其制作过程却大同小异。电影的制作过程可以按时间顺序分为前期筹备阶段、拍摄阶段和后期制作阶段。图1-1 电影制作是一门协作的艺术。

前期筹备阶段要做的是计划和准备:做调研,选主题。对剧情片来说,需要为剧本写一个大纲。

纪录片则应写一个计划,列出哪些是需要拍摄的内容。制片人要拟定一份预估的电影制作和其他财务安排的预算。对高预算的项目来说,这一工作往往还包括说服投资者、发行公司、基金会,或与电视台签下合约。低成本项目往往是自筹资金的,当然很多团队都希望在影片完成后能收回投资。

在前期筹备阶段,需要为拍摄做准备。要配齐全体剧组成员,寻找外景地(影片拍摄地)。如果拍的是剧情片还需要选角(casting),影片风格的所有元素包括布景、道具和服装在这一阶段也都需要确定下来。

一旦摄影机开始工作,影片的制作阶段就开始了。有时,也称为“主要拍摄”(principle photography)的开始。因为电影器材很贵,所以在制作过程中很多器材常常是租来的,或者干脆是哪天用到一件设备哪天才租下。比较便宜的设备则可以买下来。“额外拍摄(additional photography)”和“补拍(pickup shot)”是在制作阶段结束后,或者正片拍摄完成后才单独拍摄的内容。拍摄完成的内容需要在片场或者其他地方查看一下。传统来讲,摄影机拍摄下来的胶片叫作工作样片(rush)或工作拷贝(daily),之所以这样称呼,是因为胶片拍摄下来以后需要马上送到洗印厂洗印,以便于每天的审看(这些术语同样适用于摄像,不过摄像机拍摄下来的内容可能不需要事前处理就能直接看)。工作样片不需要剪辑,实际上并不是所有的胶片都会拿去洗印、复制和审看。

主要拍摄结束后,后期制作阶段(一般简称“后期”,通常会说“我们计划做八天的后期”)就开始了。在一些电影项目中,剪辑师在影片拍摄阶段只要有镜头拍摄完成就开始做剪辑,这一工作能及时给导演和剧组成员提供一些反馈,让他们能够做出相应的调整。在另一些项目中,则要等到拍摄结束后才会开始剪辑。剪辑的作用在于把几个小时的胶片和视频素材带变成可观赏的影片。一部影片第一次成型后的播放,一般是在剪辑室里。电影剪辑的过程中,完完全全地重新组织、重新制作的情况时有发生。纪录片的结构和轮廓就往往是在剪辑室里,而非在拍摄大纲里形成的。剪辑完成的第一版,是镜头的组合(assembly)或素材的串接(string-out)。镜头的组合通过缩减后,成为粗剪版本(rough cut),再次润色后成为精剪版本(fine cut)。最终完成一个令人满意的版本(称为“画面剪辑完成状态”,picture lock)后,各种修饰工作就要开始了。其中包括用原创音乐为影片配乐,或者加上事先录好的音乐,做声音剪辑(清除或加强音轨),混音(平衡和完善声音),加上字幕,以及完成那些在拍摄时无法完成的视觉效果。

当用胶片拍摄的影片完成后,要制成35mm拷贝,也就是可以用来在影院银幕上放映的胶片制品。如果影片是用视频拍摄的,但是希望在影院上映,也可以转成35mm胶片,这个过程称为“磁转胶(film-out)”。所有的电影,不管是用胶片还是用数字形式拍摄的,在影院上映时一般都要做成数字电影母版(Digital Cinema Package,DCP),这是好莱坞为电影的数字化放映设立的一个标准文件格式。(不管做不做DCP,所有的电影,不论是用胶片还是数字形式拍摄的,都可以用数字格式来发行。)

最后,影片要发行—也就是到全世界去寻找观众。针对不同的市场,发行的方式也多种多样。影院发行是大多数影片的目标,这种发行方式会先在首轮电影院上映影片,或者规模小一些,在艺术院线中某些艺术影院上映。电视发行则包括传统的广播电视、有线电视和卫星电视。教育类发行和视听发行则通过向学校和图书馆销售或租赁DVD、蓝光碟或在线影片来实现。家庭录像制品的发行则通过直接向消费者销售或租赁这些制品,或通过零售店来实现。视频点播(VOD)和付费点看(PPV)可以让观众随时选择并购买想要观看的影片,是介于电视播出和录像制品销售之间的发行方式。网络发行—包括用电脑、平板电脑、智能手机、网络电视在线观看和下载影片—正在成为电影发行的主要类型。消费者和发行商都更喜欢这种不需要购买或运输物理碟片的形式,就像音乐下载导致音乐CD的销售剧减一样,电影的发行也有同样的趋势。

一部影片可以通过所有的这些渠道或渠道的组合来发行,此外,由于电影越来越多地在全球市场中发行,由此产生的各种语言、技术、放映场所方面的问题都需要解决。在制作一部影片时所做的很多决定将影响到后续的发行方式,所以在拍摄项目之初就需要计划好发行目标。

动态影像

摄影机或摄像机的镜头会聚焦于一件物体,并将其反射到胶片(参见后面的图1-31)或感光芯片(参见图1-4)上。这个过程和相机差不多。但是怎样记录下物体的运动呢?事实上,在动态影像中出现的连续运动感只是人类的一种幻觉而已。摄影机或摄像机快速(如图1-2所示)拍摄下一组连续的静止画面,在电影里这一速率是每秒24帧,记为24 fps。当画面在银幕或电视上一帧接一帧地播放出来的时候,帧与帧之间衔接的速度快而差别又不太大,所以大脑就会把这一组画面理解为真实流畅的动态影像。这种原理使得电影、电视产生了活动影像的神奇效果,这一效果在你快速翻动书页的时候也能体验得到。

传统上,这种幻觉被解释为“视觉暂留现象”,它基于这样一种原理:一个画面在人眼中停留的时间比它实际停留的时间稍长。根据这一理论,当新的画面出现时,人眼能将其与之前停留在眼中的上一个画面进行混合,并在二者之间创造出流畅的过渡。这种解释也存在着一些问题(比如,停留在你眼中的视觉信息会随着眼睛的左右运动而运动,不会停留在银幕上)。有一种知觉运动称为β运动,描述的也是一种观看者将连续的静态画面感知为动态影像的情况。在一组静止镜头中,一个球先是出现在银幕的左边,然后出现在右边,观看者就会觉得它是从左边运动到了右边。我们在路边经常见到滚动字幕的广告,那些信息看上去就像是从广告条的一边滚动到了另一边。图1-2 电影与电视中所有的动态影像,都是由一组静止图像一帧接一帧快速播放而得到的。(Steven Ascher)

大脑和眼睛究竟是怎样制造出动态影像的,这仍然是一个尚在研究中的问题。我们所知道的是,为了创造真实的观影体验,需要创造出流畅的运动和持续的亮度等这些幻觉。如果静止画面变换得太慢,动态影像的幻觉就会消失,你看到的效果将会是忽动忽静,画面也会闪个不停。有关这些问题的更多信息请参看9.6.3节。图1-3 Sony PMW-F3摄录机。有一个Super35传感器,可以存储XDCAM EX格式,或者以其他格式存储到外接设备上。图中的摄录机上还接驳了Zacuto外接取景器和跟焦设备。(Zacuto USA)1.1 视频系统

摄像机和录像机的基本原理

前面谈到录制动态影像的原理就是采集一系列的静止画面,然后以一定速率回放。下面就来看看这一过程在视频中是怎样完成的。

摄像机将画面聚焦于一块感光芯片的平坦表面上,这块芯片就是摄像机的传感器或成像器。传感器芯片有两种类型:CCD(电荷耦合器件)和CMOS(互补金属氧化物半导体)。CMOS是目前在摄影机中运用得最普遍的一种,因为它功能多、价格便宜,耗电量也低。CCD和CMOS传感器的表面被分割为非常细微的感光点组成的网格,它们称为像素(pixel)。芯片中的每个像素在某种意义上相当于一个小小的曝光表,可读取它所在那一点的亮度。当一个像素被光击中后,就产生一个电子值并存储下来。像素受到的光照越强,这个值就越大(这一过程与用雨水填满容器相似,参照图5-25)。一个特定的传感器,在不足一平方英寸大小的芯片上会有数百万个像素。采集整个画面时,网格中每个像素的值会很快被读取出来,所有这些像素集合在一起就组成了视频画面。

在电视发展的早期,保存电视节目的唯一方式就是使用特殊的摄影机将节目录制在16mm的黑白胶片上,录制好的影片只能在电视上播出。1956年,VTR(videotape recorder,磁带录像机)出现了,使用的是磁性录像带。VTR有时也被称为走带装置(tape deck,video deck或者deck)。后来VTR开始使用盒式录像带,但是录像机或VCR(videocassette recorder)这两个名称经常被用来指家里看录像带的机器。近些年,视频也会直接录在Flash存储器和计算机硬盘上,以各种不同的方式录在可存储数据的光盘上。摄像机和录像机组合成一体的设备称为摄录机(camcorder)。如今,可以拍摄视频的设备包括手机、平板电脑和单反相机(digital single-lens reflex camera,DSLR)。单反相机本来是用来拍照的,但是和现在的很多设备一样,它们既能拍照也能拍视频。

视频可以在监视器上查看。有一种监视器使用平面液晶显示屏(LCD),这种显示屏和很多计算机屏幕、OLED(有机发光二极管)及等离子屏幕差不多。视频还可以用多种技术数字投影到大银幕上。传统的模拟电视是基于阴极射线管技术(CRT)的,现在已经不使用了。更多有关监视器的内容,请参考第5章。图1-4 摄像机和监视器。摄像机镜头把画面聚焦在布满感光像素的传感器上,然后通过传感器转换为数字影像信号,在监视器上呈现出来。监视器的表面由可发光的像素组成。(Robert Brun)图1-5 磁带录像机(VTR)。Panasonic AJ-HD1400可以录制和播放高清DVCPRO HD,也可以播放标清的DVCAM和DV。(Panasonic Broadcast)

模拟vs数字

20世纪80年代以前,视听产品都是用模拟设备制作的。比如,模拟磁带录像机就会把连续变化的视频/音频信号录制成磁带上相应变化的磁性信号。今天的数字设备中,视频和音频信号都是数字化的—已转化为可以通过各种方式存储的数字序列。有关数字设备如何工作的更多信息,请参考第5章的相关内容。

虽然很多国家已经或者马上将要停止播出模拟电视信号了,但是,标清模拟播放标准却仍存活到了数字时代。这包括在北美、日本、韩国和中国台湾等部分亚洲地区使用的NTSC制式(National Television System Committee,美国全国电视系统委员会)、英国、西欧、澳大利亚、亚洲及南美的部分地区[1]使用的PAL制式(Phase Alternate Line,逐行倒相)。

我们下文将要提到,数字视频的格式取决于这个国家之前使用的是NTSC制式还是PAL制式。很多人认为“NTSC”和“PAL”仅指代模拟格式,而跟那些有着相同画面尺寸的数字格式没有关系,其实并没有必要分得这么仔细,这两个词用来指代模拟和数字格式都是可以的。

有趣的是,数字视频设备里经常会有一些模拟部件,比如CCD或CMOS传感器(是的,它们是模拟的),或者数字音频录制设备上会有模拟麦克风输入设备。当需要时,可以把声音和画面在模拟和数字格式之间来回转换,不过每次转换都会在质量上有所损失。[2]理论上说,如果视频或音频是以数字格式存在的,就应该在处理过程中尽量保持这一格式。图1-6 单反相机(DSLR)。Canon EOS 5D MarkⅡ推动了单反相机的电影拍摄中的运用。(Canon U.S.A., Inc.)1.1.1 视频格式

视频格式包括:每帧画面中有多少条扫描线或多少个像素,画面的基本形状,信号是怎样处理和压缩的,它被录制在什么媒介上,使用的是什么播放制式,以及很多技术方面的问题,例如,视频是怎样采集、传输和复制的。如今人们所使用的视频格式非常多,就连很多专业人士想要搞清楚所有的格式都很困难。虽然不同的视频格式是由它们的核心区别所界定的,它们之间仍拥有很多共同点。就让我们来看一看不同视频格式是如何采集画面和声音的吧。

多少个像素:标清、高清及其他

数字视频影像是一个由像素组成的矩形网格(参见图5-26)。每个像素代表画面上该点的亮度(和色彩,如果是彩色影像的话)。一帧(frame)画面就是我们能看到的所有像素(称为“活动像素”)。可以把像素网络想象为一组水平的线,一条接着一条从上至下排列,这也就是处理图像信息时所用的方法。水平排列的像素组成的水平线称为扫描线(scan line),所有这些扫描线合称作光栅(raster)。

不同的视频格式其像素的数量和扫描线的数量也不同,如图1-7所示。图1-7 不同数字格式的像素数。本图展示的是标清480i(NTSC制式)和576i(PAL制式)、高清720p和1080i/p、2K和4K的数字电影放映,以及Quad HD画面的像素数量。请注意,数字格式的像素数量和传感器的物理大小是不一致的(见图2-7)。比如,如果你有一台高清摄像机和一台标清摄像机,高清摄像机的传感器可能会更小,虽然高清格式的像素数更多(具体取决于摄像机本身)。如图中所示,NTSC和PAL制式的格式像素数是不同的,但是在屏幕上看的时候,它们画面的形状完全相同(这是因为二者像素的形状不同)。(Steven Ascher)

在不同的电视播放格式中,标清电视(SDTV)的像素数是最少的。作为模拟时代的遗留物,这两种不同的数字标清格式在世界不同地区仍有使用(上文中提到过具体是哪些国家)。

在NTSC领域,如今的数字标清画面有480条扫描线,每条线的宽度为720个像素(这一标准一般记作720×480,读作“720乘480”)。在以前使用PAL制式的国家里,数字标清画面则有576条扫描线,宽度同样为720个像素。

高清电视(HDTV)每帧画面的像素会更多。多出来多少呢?有两种不同的高清尺寸,较大的那一种格式有时叫作“全高清(Full HD)”,尺寸是1920×1080(1920条扫描线,宽度为1080个像素)。这种格式每个画面有大约两百万个像素,或者说2Mpx(Mpx=megapixel,百万像素)。较小的高清格式一般叫作“720p”,尺寸是1280×720,像素数大概略少于1Mpx。这两种格式都在NTSC和PAL制式的国家里均有使用,被作为世界通用标准。

为什么我们这么在意像素的数量呢?因为像素数越多,对画面细节的记录能力就越强,也就意味着画面的清晰度和锐度越高。拥有越多像素数,说明此格式分辨率越高(当然其他因素也会影响分辨率)。如果是在一个很小的屏幕上,很难分辨标清和高清有什么大的区别。但是,屏幕越大,标清信号的画质看上去就越糟:画面会很模糊并且缺少细节,你能看到一个个的像素马赛克,这让画面看上去特别“数字”化,一点儿也不自然。高清格式则可以在更大的屏幕上播放,而且还能有不错的清晰度和锐度。更大的屏幕会带来影院般的观影体验。

在真实的剧场环境下—大型剧场的宽银幕投影—所放映的数字动态影像格式的像素数会比高清的还要多。很多电影院都装备了可以播放2K(2048×1080)或4K(4096×2160)画面的数字电影放映机。在这样的分辨率下,数字画面的分辨率可以达到或超过35mm胶片的水平。现在,能以2K、4K或其他高于高清分辨率拍摄的摄像机价格正在逐步降低,不少想要让画面在大银幕上保持清晰度和细节的电影制作人都倾向于使用这些设备。

追求更大的画面尺寸的趋势也影响到了消费型设备。制造商们正在生产Auad HD格式(3840×2160)的电视及其他设备,这种格式是4K的一种形式(像素数量是1920×1080的全高清格式的四倍,只比4K数字电影窄一点,见图1-7)。有些电视还制成了数字电影的4K画面的形状,这一格式有时也叫作4K2K。现在还有一种超高清电视(Ultra High Definition TV,UHDTV),使用的是一种发展中的8K格式(7680x4320),分辨率是高清的16倍。图1-8 (上图)当放大一张低分辨率的图片时,画面开始变得不再清晰。你可能会看到一个个的像素马赛克,还会看到一些不希望出现的失真,比如鼻子下面的锯齿。(下图)当放大一张高分辨率的图片时,画面仍然是清晰锐利的。这就是为什么高清视频效果比标清视频效果更好的原因,特别是在大屏幕上放映的时候。(Steven Ascher)

正如本章后面和本书其他章节将要讨论的一样,对于超高分辨率的格式(包括3D产品),应将其潜在优势和劣势(需要存储和处理的大量数据)放在一起综合考量。事实上,在不同的放映环境下获得最佳的观影体验到底需要多大的分辨率,也是一个值得思考的问题(更大的并不总是更好的)。

在拥有不同像素数的格式间进行转换称为上下变换(scaling或rescaling)。把低分辨率转为高分辨率称为上变换(upcoverting,或upscaling,up-resing),反之则称为下变换(downcoverting,或downscaling,down-resing)。当高清拍摄的素材下变换到标清时,画面看上去总体来说仍会比标清摄像机拍摄的更好;而由标清上变换到高清时,效果却不能和高清摄像机拍摄的画面相提并论。【关于画面和传感器的尺寸】我们已经讨论过不同的数字格式其像素数有怎样的不同(也就是画面尺寸不同)。要记住,数字摄像机录制下来的像素数量(如图1-7)与摄像机传感器表面用于捕捉画面的感光图素的数量是两回事(见图1-13)。但是,人们很容易把图素和像素搞混,实际上很多摄像机都是用多个图素拼合成一个像素的。另外,人们在谈论传感器尺寸时,通常指的是传感器本身的物理尺寸,也不是指像素的数量(见图2-7)。

比如,一台小型摄像机可以用一个非常小的2兆像素传感器(图素/像素)捕捉下1920×1080的全高清画面(画面尺寸),这个传感器的对角线只有1/4英寸(物理尺寸)。而用DSLR如果需要拍摄相同的高清格式,则需要使用21兆像素的传感器,尺寸有前者的6倍—对角线大概有1.5英寸。(在菜单项里做简单的调整,这些摄像机都可以录制不同尺寸的画面,比如720×480标清或1280×720高清。)有关传感器尺寸重要性的更多内容,见第2章。

逐行扫描和隔行扫描

很多数字摄像机都可以用逐行和隔行扫描两种模式来录制(虽然有些帧速率下可能实现不了)。摄像机使用逐行扫描时,所有的像素都同时(或几乎同时)被捕捉下来。逐行扫描就像摄影机一次拍摄下整个画面一样,拍摄完一帧画面,然后再拍另一帧。一次处理整帧画面,非常干净简洁。图1-9 镜头取下后,可以清楚地看到传感器。Sony NEX-FS100的Super 35传感器和Sony F3的传感器尺寸是一样的。(Steven Ascher)图1-10 隔行扫描。每场只有一半的扫描线。当两场画面接连着迅速播放的时候,眼睛会把它们组合为一帧拥有全部扫描线的完整画面。实际的扫描线比此图显示的要细得多,见图1-11。(Robert Brun)

早期使用的是隔行扫描(参见图1-10),这种方法现在也仍被广泛应用。隔行扫描在NTSC制式产生之初就开始使用了,当时电视系统速度较慢,无法一次采集并传输一整幅画面,因为其中包含的信息量太大。使用隔行扫描,则一次只需要录制一半的画面[3]。摄像机从画面的顶端开始往下扫描,只扫描奇数行(1,3,5,7……),跳过偶数行,所得到的画面叫作奇数场(upper field或odd field)。扫描完之后,摄像机回到第二行,然后开始扫描剩下的偶数行(2,4,6,8……),直到画面底端。所得到的画面叫作偶数场[4](lower field或even field)。两场相接的速度很快,一起合成了一个完整画面。因为每帧画面有两场,所以帧速率为30的NTSC制式就可以看做每秒有60场。

虽然很多制作者和播出者仍然在使用隔行扫描,电视观众也已经习惯了,但是用逐行扫描的效果还是更好一些。

初学者可以将隔行扫描的问题理解为,每次只看到一半的扫描线,即画面的分辨率会比较低[5]。隔行扫描会造成画面的失真(各种瑕疵和不平整),其中的一种情况是画面中的斜线在电视上看上去会像锯齿或呈阶梯状(参见图1-11)。这种情况称为阶梯形混叠失真(stair-step aliasing)[6]。还有一种失真是颤抖(twitter),体现为细的水平线在画面中上下移动时会出现抖动或闪烁,一般在电影结束时演职员表滚屏的时候会出现这样的情况。图1-11 隔行扫描的失真。每个隔行扫描的场只有一半的扫描线,在这个画面中你看到的是两个场结合在一起的效果。注意看前景处移动的人,你可以看到每个场只有一半的分辨率,效果是他的衣服边缘产生了明显的边缘撕裂(edge tear)和线梳现象(combing)。后景中人物背后的斜线呈现的也是难看的锯齿形,称为“混叠失真(aliasing)”。这种情况在逐行扫描中也会小范围发生,参见图5-17。(Stephen McCarthy)

隔行扫描的摄像机先扫描奇数场,再扫描偶数场,因此当两个场组合在一起时会出现一些运动失真。图1-11中就展现了隔行扫描的两场画面结合在一起时的效果。注意前景中移动的人,他在两场之间是运动状态,这导致画画中他身体的边缘呈撕裂的锯齿状,我们称为边缘撕裂(edge tear)或线梳现象(combing)。这种情况在静态画面中不会出现。对于那些运动镜头来说,即使影像以正常速度播放,这种边缘撕裂的效果也会降低分辨率。而当画面以慢速播放(比如体育比赛的镜头回放)或画面暂停(为了得到静止画面)时,这种失真就会非常影响画面效果了。

今天我们用数字显示器和放映机观看视频时,所有的内容都是逐行扫描的。所以隔行扫描的素材必须要转换为逐行扫描才能观看(称为去隔行处理,deinterlaced)。去隔行的工作可能由显示器完成,也可能在显示之前由别的设备完成。去隔行的方式是把两场合并在一起,或是扔掉其中的一个场,靠复制剩下的场形成逐行扫描画面。去隔行后的影像分辨率会降低,某些素材还会出现边缘撕裂等问题(更多有关去隔行的内容请参见第5章)。

如果是逐行扫描,那么以上这些问题就不会发生,混叠失真也相对来说要少很多。用逐行扫描设备拍摄的镜头可以在显示器和放映机上播放出很好的效果,能上传到网上、转成胶片格式,或保存成静止画面,而不用做去隔行处理。现在,数字视频的发行的方式多种多样,经常需要改变画面的尺寸或位置,或者需要转成其他格式。如果视频是用逐行扫描格式拍摄的,这些任务实现起来都要容易得多。

出于上述原因,强烈推荐使用逐行扫描。一般来说,如果你捕捉视频时采用的是逐行扫描,那么如有需要,要转成隔行扫描是很容易的。但是如果相反,想要把隔行转成逐行,而且还要保证好的效果,就要难得多了。

因为现在仍然留存着一些隔行扫描的视频设备—虽然设备一直在发展—但是逐行扫描仍然可以和隔行扫描兼容。举例来说,有一种常用的录制逐行扫描影像的技术,就是把逐行扫描的图像嵌入隔行扫描格式中,这样就可以在标准的隔行扫描设备上播放了。更多信息请看第14章。

如果有一天所有的数字视频都是(也应该是)逐行扫描格式了,隔行扫描技术也不应该被遗忘。

帧速率

每秒录制的画面帧数将影响动态画面在屏幕上的效果。现代的数字摄像机可以用多种帧速率拍摄,但是之前遗留下的模拟播放系统只能使用几种特定的帧速率。

北美和日本使用的NTSC制式每秒有60场,这是因为这些国家的交流电频率是60Hz。因此,从最早的黑白电视开始就是每秒60场或30帧(30 fps)。

1953年,NTSC制式的彩色电视出现了。由于这种新信号中的色彩分量在以60场每秒播出时会产生干扰,所以将已有的30 fps的帧速率降低0.1%,来缓解这种问题。因此NTSC制式的帧速率就变成了29.97 fps,这在如今的数字格式中也经常使用。但为了简单起见,人们在谈起这个速率的时候还是干脆说成30fps。在使用NTSC制式的国家里,当你看到扫描率的相关数据是整数时,基本上都是为了方便,实际的速率都会比这个数字小0.1%。因此,帧速率30其实是29.97,每秒60场实际上是59.94场。

24 fps的帧速率则是一个例外。大多数NTSC领域的数字摄像机设定为24 fps的帧速率时,实际上的帧速率却是23.976 fps(通常写为23.98 fps),但也有一些情况下指的就是实实在在的24 fps(比如用胶片或数字电影摄像机拍摄时,见本章后文的描述)。为了避免混淆,在与制作团队谈到这些数据时应该尽量精确。

在之前使用PAL制式的地区,供电的频率是50 Hz,25 fps(每秒50场的隔行扫描)的标准帧速率从模拟视频时代一直使用到了数字时代的很多制作中。这个25 fps的帧速率就是实实在在的每秒25帧。

有关不同帧速率的不同效果以及如何为你的作品挑选一种帧速率,请参看第2章。

视频画面的形状

宽高比(aspect ratio)常用来描述画面形状,指的是画面宽度和高度的比例(参见图1-12)。

传统的标清电视的宽高比是4∶3,也就是4个单位宽,3个单位高。在描述视频时,读作“四比三”,有时也写作4×3。在电影中越来越多地用数字表示这个比例,写为1.33,也就是4除以3得到的值。

宽屏幕视频的宽高比是16∶9,读作“十六比九”,写作16×9。同样,在电影中也写作1.78。标清视频的宽高比可以是4∶3,也可以是16∶9,但所有高清格式的宽高比都是16∶9(也可以写为1.78)。一些数字视频还有更大的宽高比,以适应电影院的标准,如1.85或2.40(见图1-35)。2K或4K的数字电影放映机通常使用的就是1.85的宽高比(即17∶9),这也是4K2K的尺寸。图1-12 屏幕宽高比是画面宽度和高度的比例。普通屏幕的宽高比是4∶3,宽屏幕的宽高比是16∶9。

更多有关屏幕宽高比的内容请参见第2章。

色彩是怎样录制下来的

在人类的眼球中有一些视锥细胞,它们是让你看到色彩的天然传感器。有一种视锥细胞对红色敏感,另一种对蓝色敏感,还有一种对绿色敏感。当你环顾屋内的时候,你看到的所有颜色都是红色、绿色、蓝色以不同比率混合而成的。

同样的,摄像机中的传感器测量图像中红色、绿色、蓝色光相对的量。事实上,CCD或CMOS芯片只能“看到”黑色和白色(它们只测量光的亮度),但它们也能用于读取色彩。用在单芯片彩色摄像机中的一种方法是,在每个独立的像素上安装红、绿、蓝色的滤光器(见图1-13)。在三芯片彩色摄像机中,在镜头后面有一个分束偏光棱镜,它能把进来的画面分解为红、绿、蓝(RGB)的成分,然后把每种颜色传输到一个单独的传感器上(参见图1-14)。图1-13 在单芯片摄像机中,小小的彩色滤光器安装在单独的图素(像素)上,每个滤光器记录下红色、绿色或蓝色的光。上图是普遍使用的拜尔图形模式,绿色像素的数量为红色或蓝色的两倍。这些像素有点像组成马赛克的小瓷片,在看到画面前,传感器传送来的数据需要“去马赛克”(也称为“去拜尔”),以计算出每个像素完整的RGB色彩值。更多有关内容请查看第5章(Steven Ascher)【RGB、分量和复合色彩】采集彩色视频听上去很简单—就是通过传感器分别记录下红(R)、绿(G)、蓝(B)的信号。实际上,当计算机为CGI(computer-generated imagery)特效生成视频时,使用的就是RGB信号,三种色彩的信息可以通过三条独立的通道进行处理(见图5-14)。一些数字电影摄像机也可以用RGB色彩模式来拍摄(见下文)。图1-14 在三芯片摄像机中,光穿过镜头后照射在棱镜上,然后分解为红色、绿色和蓝色。每种光都被对应的传感器采集下来。(Steven Ascher)

大多数的数字摄像机使用的是另一种不同的捕捉色彩的方式,这种方式能回溯到模拟时代。黑白电视机有一种单独的表达明暗的信号:亮度(luminance),当彩色电视机出现时,两个称作色度(chrominance,或叫作色差)的信号被引入。如今的数字视频和数字摄像机(区别于数字电影摄像机以及其真RGB格式),采用的都是将摄像机原始的RGB信号编码为一个亮度信号和两个色度信号的技术。这三个编码后的信号称为分量(component)视频信号、视频格式,无论是模拟的还是数字的,只要可以保持这三种色彩信号分离,就称为分量视频。数字分量视频格式包括DV、DVCAM、DVCPRO、XDCAM、AVCHD和HDCAM。

RGB和分量视频都是用单独的通道来处理色彩信息的,这样可以获得最干净的色彩和最高的画面质量。数字广播、有线电视和卫星电视使用的都是分量信号。

复合视频(composite video)是传统NTSC和PAL制式模拟广播电视的基础。在复合视频中,三种分量视频信号组合(编码)成一个可以在单独通道上传输的信号。复合视频可看作是一碗“视频浓汤”,也就是说所有的色彩、亮度、声音、同步这些信号全都混合在一起成为单一的电子信号。很多数字摄像机和显示器还提供复合视频输入和输出功能以方便使用,但是使用复合视频也意味着质量会出现显著的降低。

有关复合视频和分量视频的更多信息请参看第5章。【缩减色彩数据】使用高端的数字电影摄像机,传感器采集下来的所有色彩信息都可以被录制下来并播放。索尼的F35和阿莱的Alexa都可以在不出现色彩数据损失的前提下输出未压缩的RGB信号,或做任意编码。这种色彩信号有时也称为RGB 4∶4∶4色彩。

RGB的缺点在于数据量非常巨大,处理和存储起来都比较困难。为了缩减数据量,数字摄像机基于这样的一个事实做出了调整:当查看细节的时候,相对于色彩来说,人眼对于亮度更为敏感。[7]因此高端的分量视频摄像机抛弃一半的色彩像素(这样一来,相对于亮度来说,色彩的细节和数据量都减少为原来的一半),但是大多数的观众都不会发现有什么不同—这就是我们观看数字视频时的感受。

这种抛弃色彩信息的技术叫作色彩采样(color sampling或color subsampling),记作4∶2∶2。视频的所有亮度信号都被录制下来(用4来代表),而两组色度信号均只有一半(2和2)录制了下来。拥有4∶2∶2色彩的格式是目前数字视频可达到的最高色彩水平(RGB 4︰4︰4不被看作是传统的视频)。

为了更大程度地缩减数据(和费用),还可以使用4∶1∶1或4∶2∶0色彩的格式,录制下的色彩信号只相当于亮度信号的四分之一。这种经济的方法运用于多种格式中,包括DV、DVCAM、DVCPRO、HDV、AVCHD和XDCAM EX。不过,在观看的时候,大多数的人仍然不会觉得有什么不同。事实上,DV的色值范围(the color gamut)和4∶2∶2的视频是一样的,只不过细节上的信息会比较少。不过,如果色彩采样率降低得再大一些,在做特殊效果(如绿屏)的时候就会出现困难了(见第5章)。

更多有关色彩采样率的内容请参见第5章。

视频格式的表达方式

你应该已经注意到了,在讨论视频时,提到非常多的数字和名词。它们很容易被弄混,特别是不同的人在讨论同一个东西的时候还会用到不同的表达方式。

现在,描述格式时用到的最普遍的标记法是:

·画面的纵向尺寸(如1080或480条扫描线)。

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载