或者如果您能访问YouTube,可以尝试点击此处观看更高码率的版本
转播技术细节
接下来就跟大家介绍一下这次转播的一些技术细节吧!
这次的转播其实是我的「多机位外景摄影」的作业。我一直都很想在大学毕业之前做一次正经的音乐现场的转播,因为我太爱音乐现场了!
前期筹备的时候其实有很多天马行空的方案,比如参考美国AMA或者Billboard的颁奖典礼这种现场,在户外架设机位在直升机(当然我们只有无人机)上来实现场内外的一个转换和「交代」,我们连如何把S楼前面的那块草坪打亮染色的方案都想好了
但实际上因为成本的限制而且没想好怎么给场外加入扭蛋的元素所以最终没有整这个活儿🥲
最终这次我们用到的设备如下
BlackMagic Design 1M/E切换台+BlackMagic Design TV Production切换台
Fx-6摄像机*2/ Z280-4K摄像机*4/A7s3摄影机*1/GoPro 7*1/
如影s稳定器无线图传*1/
x32数字调音台*1
各种格式转换器
Cue Pilot
各种各样的线
设备清单
这次的转播加入了CuePilot,这是一个业内领先因欧歌赛而闻名的系统。它的作用是代替掉人类导播的现场切换工作(要失业啦要失业啦),通过时间码系统自动触发来进行自动切换。实际上我认为这个系统的最佳应用场景是在音乐类和舞蹈类等节目当中,可以与音乐精确的节拍和情绪等做好匹配然后进行切换,以及调用一些高级的切换台功能来实现人工无法做到的一些现场特级切换的效果。
由于我们使用的学校的Blackmagic Design ATEM 1 M/E Production Studio 4K切换台支持的遥控协议是GVG这种古老的协议,因此能够被Cuepilot调用的功能非常的少。经过我自己的测试,实际上能被调用的只有
- PP层的Program和Preview
- UpStream Key 1/2 (尽管1 M/E配备了4个上游键但实际上只能调用前两个)
- 在设置好切换模式下的切换控制 (例如Mix等)
啊对的就这么少,并不像索尼的XVS-7000一样有着超级多的玩法,实际上功能非常受限。而且因为只有 1 M/E,因此所有的切换实际上都在PP完成了,在遇到紧急状况的时候没有备份的切换方案。
而且,在接上了RS422的控制单元之后,就会挡住附近的画分和Program输出接口,这个设计真的是菊中之痛 (Pain in my ass) 。就跟你买了个插线板然后你发现你必须要隔一个插座来插一样难受。
所以我们最终的线路图简化之后其实是这样的(难看的手绘开始)
由于我们租赁的CuePilot版本是Basic版,只支持5个机位的自动切换。
所以我就想了个损招:将剩余的机位接入到另一个切换台里面进行切换,将这个副切的节目信号送入主切换台的5号机,而自动切换到5号机为止。
在上面的线路图当中,你一定发现了一个奇怪的设备:BoxIO。这个设备实际上是尊正家的一个色彩管理设备,可用于后期制作时挂在监视器前进行调色或者现场调色,原理是直接将LUT加载进盒子里然后进行调色。我们在这次转播当中用这套设备实现了一些现场调色的效果,例如黑白和偏色来迎合歌曲的情感,在这里要大大的感谢陶学铠老师提供的设备支持以及余老师和韩老师到现场给我们进行调色😍
最终通过这套「复杂的系统」,我们顺利地实现了这次现场转播的切换,效果实际上还不错。
CuePilot虽然在现场代替了导播手工切换的工作,但实际上脚本都是在开始前编辑好的。传统中使用CuePilot是基于时间码在全流程的现场制作中的应用来完成的。但是这次的转播是一次音乐节,而各个乐队的现场又没有需要用到Program来演出,因此这次的自动切换其实全靠人工同步。前期的彩排非常少,我们编辑脚本基本都靠排练的录音和原唱的音乐来「脑补」脚本,在这里要感谢一下转播班的导播老师们的帮助,在紧张的时间和有限的条件里编辑好了很多个节目的脚本。最终播出时,同步主要靠在节目开始前靠鼓手的预备拍和实现编进脚本中的歌词来调整脚本运行的速度,最终来匹配现场音乐的速度。
在现场转播当中,摄像们的手机当中通过CueApp程序可以看到实时脚本的运行情况,并且有自己机位的提示和调度提示,从而可以给到导播想要的镜头。实际上这次转播因为设备故障的原因没有Tally,而且因为现场声压级很大通话是听不清楚的,CueApp和提前设定好的脚本变得至关重要。得益于CuePilot的应用,我们尝试了一些卡点和叠色的切换操作,最终出来的效果还可以,也算是一次比较成功的实验了。
音频系统
首先是现场的PA系统,这一部分交给曾老师来讲讲
系统设计
这一次的扩声系统是PM一体的设计(即在一张调音台上完成外场扩声和乐手返送混音)。主扩调音台采用了MIDAS M32数字调音台,主扩喇叭采用了SE美高的F3A小线阵,8+4的扬声器配置,4只超低音采用Aux Fed Sub配置由独立母线发送,可以根据需求对不同乐器的超低发送量进行调整。
返送方面,设备方提供了2只全频有源音箱和2套森海G3 IEM无线入耳监听,为了尽可能给更多乐手提供耳返且乐手没有立体声IEM的需求,这里将每套IEM切换至MIX模式,相当于4套独立的耳返使用。
由于这次音乐节使用的主扩系统是功能比较简单的有源线阵,并且没有配置专门的音箱处理器,所以我把主扩系统的输出做在了Matrix矩阵输出上面,PA信号混入LR+M主母线后送入矩阵再送至音箱。这样做的好处是我对扩声系统的调试的可以有最大的灵活度,在调音台上就可以完成均衡、分频、延时等调整。
这次的音频系统还要兼顾直播音频的信号,原先的想法是利用调音台空余的输出,对乐器和Vocal进行Direct Out或编组输出,以此给OB混音提供一定的灵活度,但是到达现场之后经过讨论决定改用AES50接口共享方案,所以这些输出最后没有用上。
编排通道和调音台工程
在确定好设备和乐队的设备需求之后,可以开始列写通道表。对于乐队这类有多种乐器、设备,多种拾音方式的扩声来说,清楚地列写所有的设备及相应的接口和通道对于前期后期的工作效率都是极大提升的。
在通道清单里面,由于已经预先规划好每路乐器所使用的接口和通道,到达现场之后只需要根据通道清单进行信号配接,可以大幅缩短信号测通的时间。除此之外,本次音乐节的OB音频信号是从主扩调音台接口共享而来,所有送往OB调音台的输入信号顺序都与扩声调音台的接口一致,在有通道清单的情况下可以更方便的跟OB混音师交接,OB混音师也可以根据自己的操作习惯在OB调音台上进行Routing的设置。
有了通道清单,就可以提前做调音台的工程了。提前做好工程的好处在于可以预先设置好通道名、布局、路由和接口,到达现场之后只要接好缐并把工程导入调音台,就可以开始试音,免去了对信号、逐个通道编辑名称等步骤。
系统调试
系统调试其实是音乐节现场扩声一个不起眼但非常重要的一个步骤,决定了你能把手上的设备发挥几成的功力。有人喜欢把混音的过程比喻作烹饪,那么调试系统这个步骤其实就是在烹饪前刷锅。把锅刷干净了,烹饪出了的菜肴才不会沾上不该有的味道。
系统调试之前一个非常重要的工作就是先把调试系统要用到的测试话筒作校准,一方面需要根据厂家提供的修正曲线作话筒频率响应的校准,另一方面是要借助声压校准器对声卡和软件的电平进行校准。这里我用的是Sonarworks XREF20 (没错就是Sonarwork Reference的那个)测试话筒和台湾CENTER 326的声压校准器。
考虑到音乐节现场的声压会比较高,所以声压的校准是以114dB SPL为参照的,调整声卡话放增益到合适值之后,在Smaart软件中设置当前声压为114dB SPL的参考值,这样测试话筒测量的声压与实际环境声压基本一致。
这次的扬声器调整实际上是简化的,一方面没有非常多的参数可以调整,另一方面是时间有限。我在每个Matrix输出上都插入了一个31段图示均衡器,用于校正音箱的频响,另外的参数均衡器则用于系统曲线的染色性调整。Smaart的传递函数功能可以很方便的看到测试点的声音信号与参考信号的频响和相位差别情况,借助这些可视化的参数可以很方便的调整均衡、延时来达到想要的效果。 (很可惜由于时间仓促,做好的系统没有把曲线保存下来,下次一定)。
一些个性化的事情
我个人其实是不太喜欢x32/M32自带的效果器的,因为音色总是差点意思,以混响为例,它就是那种推少点没感觉,推大点声音糊掉的音色。所以这次我给Vocal的主混响是来着LiquidSonics的Seventh Heaven第七天堂标准版,这个混响虽然没有Pro版的功能和预制库丰富,但音色对比xM32自带的Reverb已经相当不错。这个混响插件我采用了LiveProfessor2来运行,用了一张Focusrite的2i4来连接调音台,工作在128Samples的缓冲大小时能获得较好的延迟和稳定性之间的平衡,整场音乐节下来没有出现任何问题,呈现的音色也达到了我的预期。另外我还用了一个Plugin Alliance的Maag EQ2来对混响的高频做了一个提升以补偿一些空气感,Maag EQ2是我目前用下来高频听感最好的EQ,声音很清澈不刺耳,称之为空气净化器应该也不会太过分吧。
一些话
暂时能想到的也就这些了,整场活动下来还是出现了一些小问题,很感谢MIDI音乐社航总、音箱总监Damon,季老师周老师何老师的协助,也要感谢罗老板给我一个总结分享的机会,感谢演出的每一支乐队,到场的每一位观众,没有你们也不会有成功的一次音乐节,希望我们明年也能相聚吧!
而在OB音频方面,我们也做了一次创新
由于百灵达和Midas有着千丝万缕的关系,这两个厂商的调音台有着非常大的相似性
背景
正常来说,OB的音频系统应该和现场扩声的系统分开,从音分当中将信号一分为二。但可惜的是由于预算的原因我们并不能做到通过音分来拆分信号,原本的计划是通过将物理的XLR接口及音频线接入到调音台的bus输出来完成这项工作,但实际上这个输出可能会收到EQ和压缩的影响,使OB音频这边拿到的不再是干声,而且实际上算下来输出通道数量并不能支撑我们的这个想法,因为光是鼓组就用掉了将近10个通道
最后我们决定采用AES50来传输所有分轨的的音频信号。这是一种数字协议,只需要通过一根带屏蔽的6类网线,接入到两个调音台的AES50输出口,就可以将两个调音台的输入信号进行分享和同步。这里需要注意的是由于这是一个数字音频领域下的操作,就需要特别留心音频时钟的问题,两个调音台之间一定不能各自为政,必须要将主时钟设置为主调音台的时钟,而且采样率等的也要一致,不然可能会出现因为时钟锁不上导致爆音的问题。
这么一番操作下来,就能传输上来的信号就只会受到前级调音台话放增益的影响了,整个流程变得更加可控,也能为OB转播音频带来更好的质量。
不过在实际转播上我们也遇到了一个很严重问题:相位反转
由于现场环境不允许我们使用立体声监听音箱进行监听,我们没能识别出其中一条从调音台到切换台的音频线内部被焊反了,导致立体声中的其中一路信号相位反转了。这其实是一个很有趣的物理问题,当两个一样的声音中的其中一个相位被反转了之后,当中同样的声音就会被抵消。
做梦都没想到我们会借到一根劣质的不合格音频线。不过声音的相位问题经常困扰着各大视频制作者,从之前学校里很多次的转播和b站的视频,再到大如索尼官方新品发布会直播,都曾经遇到过这种相位问题。带来的直接影响就是「没有声音」
许多的安卓手机会在外放时将立体声合成为mono模式来播放,在这个过程中由于左右声道相位反转就会导致有观众声称声音很小。而苹果等品牌的手机外放时仍然采用立体声的形式播放,在这种情况下相位抵消的效果不明显,因此声音「听起来」是正常的。
之前很多次的「安卓手机声音小,苹果手机声音正常」的奇怪问题终于在这次被抓到了。实际上只要现场有一个立体声的监听音箱,大家都会在第一时间注意到令人不适的耳压感。这时将其中一条通道再次反相就能解决这个问题,或者把任何一个声道单独拿出来都会「听上去很正常」
针对这个问题我们建议大家能够在后级做好监听,如果实在没有条件使用立体声喇叭,可以尝试一下只戴一只Airpods或者打开辅助功能中的「单声道音频」的选项来做测试监听来排出问题。
总的来说这都是一次好玩有趣的实验,感谢MIDI音乐社的所有朋友给我们带来的精彩演出和晚会的视觉设计!
期待明年啦!
附:部分音频文件下载
发表评论