APP下载

基于互联网实现户外音频直播关键技术研究

2011-01-12吴嘉彦

贺州学院学报 2011年3期
关键词:现场直播音频广播

吴嘉彦

(广东省人民广播电台,广东 广州 510012)

基于互联网实现户外音频直播关键技术研究

吴嘉彦

(广东省人民广播电台,广东 广州 510012)

结合广播电台户外现场直播特点,基于互联网构建高质量实现户外音频直播系统。讨论音频信号硬件、软件编码的特点、设备物理网与互联网I/O瓶颈可能导致音频信号传送的延迟、音频信号数据流网络传输阻塞等关键问题。

互联网;户外直播;网络直播

前 言

时效性和现场感是广播电台户外直播的最显著特点。听众通过收听广播可近乎实时地感知现场事件的发生与进展,听众的现场感极强,如同近距离亲历现场,感同身受。可大大提高听众的参与现场意识。随着现代广播技术的不断进步,户外现场音频信号处理及传输载体亦日趋多样化。随着互联网的普及和网络技术的迅速发展,广播电台(特别是中小电台)完全可以通过现成的互联网传输音频信号应用于户外直播。此技术就是基于有线宽带互联网,用无线网桥延伸有线互联网解决传输通道。电台户外现场或直播车的音频信号传输采用无线网络结合有线宽带互联网代替传统的小型FM发射机。这样不但全部传输过程都是数字传输,而且几乎不受地域建筑物的阻挡限制。只要直播现场附近(半径在2000米范围内)有宽带互联网覆盖的地方均可进行直播活动。

以互联网为载体,构建如下图所示的现场与听众之间的高质量实时广播系统。目前现场音频信号采集技术、音频信号预处理技术、广电中心音频信号后端处理及发射技术已日趋成熟。要实现音频信号通过互联网高效率传输,音频信号的压缩编码、解码技术、音频信号频带高端扩展技术、音频信号在线有效实时传输技术的研究是基于有线宽带互联网实现户外音频直播的关键。

1 构建基于互联网实现户外音频直播系统

基于互联网的数字流媒体技术[1]随着现代数字电子技术、网络信息处理技术和网络多媒体技术的发展而快速发展。基于互联网载体构建的广播电台远程直播音频信息的广播系统,改变了广播电台传统的音频信号依靠微波、无线调频、ISDN、数字电话等的信号传输模式,实现传输成本低、广播音频质量高、实时效果较好的目标;通过将现场采集的音频信号进行均衡调节、数字压缩编码、网络协议加载、IP数据包的互联网络传输、广电中心的终端解码还原现场音频信号、经调制后实现广播无线调频、调幅发射或网上直播;并可实现广播节目的备份、网上点播等功能。

研究基于宽带互联网实现户外音频的直播系统,通过对采集的音频信号进行一定格式数字软件(或硬件)压缩编码、有线或无线接入互联网、经网上在线广电中心解码、制作完整广播系统信号、以无线电台广播方式或网络 IPAudio方式实现信息广播。系统应具有音频信号传输广播质量高、现场接入及网络传输成本低、广播节目可备份、点播、广播与听众双向互动音频广播、直播现场监控等特点。

现场音频直播系统的安全性,系统设计必须注重现场直播音频信号数据在网络上传输的数据安全性,系统须设置各级用户权限,各级管理员、操作员的分级管理制度,有效防止各种非法操作。

可靠性方面:由直播现场嵌入式操作系统的主控制器与基于UNIX或Linux或Windows操作系统的服务器实现音频信号前端硬件或软件信号数字处理,软硬数字处理方式实现前端双系统备份的大容量存储空间技术,通信网络实现高带宽、高可靠性和高性能的持续的高速数据读写传输要求,为确保直播信号的流畅性、现场直播前端系统的正常运行,构建现场直播前端监控系统,实现直播现场本地控制、远程监控功能。

系统基于现场直播的各种物理网与互联网具有高效的传输功能,现场直播音频信号实现传输距离无限,可运行在跨网关的局域网和互联网上,从直播现场到广电中心的集中控制广播,实现现场直播音频信号的快速、可靠的信息广播。

确保现场直播音频信号的高质量广播,现场直播音频信号广播输出流畅,播放音质达CD级,频响:20H-15KHz。采样率:32-96KHz。动态范围:数字:144dB。模拟:110dB4 THD。失真:<0.01%(20 - 1KHz) < 0.05%(15KHz), <0.02%(SMPTE)。系统隔离度:>55dB(20H-15KHz)。

现场直播音频信号管理系统具一定的可移植性。直播管理系统可采用ODBC和JDBC多种数据库且基于Java标准的三层结构的系列系统管理模式,对数据库中数据操作遵循SOL Server标准,使直播管理系统适用于多种数据库管理系统,尽可能降低系统运行的硬件平台要求、适用 UNIX、Linux、Windows的多操作系统及可在多种互联网络服务器管理平台上实现移植。

2 音频信号压缩编解码

一般的,人对于声音细节的分辨最佳效果为20Hz—20KHz。为实现较为理想的在线音乐效果,首先,对于音频信号的采样处理,可借鉴CD激光唱盘为提高音质而遵循Harry Nyquist采样理论,对直播现场音频信号的数字采样频率为40KHz,采用96dB双声道动态范围,采样频率高于输入信号最高频率两倍将有足够空间从采样信号重构直播现场原始音频信号,播放音质达CD级。基于音频信号必须流畅平滑直播的音质效果要求与信号互联网传输载体有限资源的矛盾,应用现代数字电子技术针对音频信号不论采用软件压缩编解码或是采用硬件压缩编解码方式,将面对音频数据流在线传输、播放可能出现的声音延时与间断、直播现场物理网与互联网接口I/O瓶颈数据流网络传输出现的数据包拥堵等关键技术问题。

利用硬件设备实现直播现场音频信号压缩编解码。直到2010年广州亚运会开幕之前,市面上已出现了类似于法国品牌的DIGIGRAM公司生产的PYKO系列基于IP网络音频传输的硬件设备,该品牌系列设备针对音频信号基于UDP传输协议实现编码与解码,频响效果达20Hz—20KHz,谐波失真小于-84dB。经现场实际应用发现,由于物理网所有设备的固有设计,还是未能解决设备网络音频信号压缩编解码与互联网带宽资源实时最优化解决接口I/O瓶颈数据包拥堵问题,硬件设备音频编解码作为现场直播实时备用方案。

直播现场音频信号软件方式压缩编解码,通过任何一种网络底层传输协议的使用,构建音频信号网络流媒体数据结构,将音频信号及同步信号、实时控制命令等打包组合为多媒体数据流信息,以互联网资源为载体,实现音频流媒体数据包的在线传输及经制作后的广播节目在线广播。然而,基于 TCP开发的网络音频信号广播管理系统,由于固有网络资源传输速度的限制,经常会导致音频信号数据包的连接占用很长时间,将出现在线连接失败,若在2—3秒内未能恢复建立连接,在线广播就失败了。通过改进在线广播系统程序中套接字的超时信息,视在线实时带宽资源的实际情况,先将套接字设置成非阻塞模式,系统在线连接时继续执行后面的指令集合,之后恢复套接字的阻塞模式,可实现较好效果的音频信号在线广播。Microsoft公司的Windows Media(*.wmv,*.asf)[2]、RealNetworks 公 司 的RealMedia(*.rm)和Apple公司的QuickTime是目前流媒体的主要工具。而微软公司的“Windows Media”的核心是 ASF(Advanced Stream Format),且ASF支持较大自由度的音频信号的压缩编解码方式。微软公司在用于网络在线应用开发主要工具SDK,基于SDK开发平台,可将直播现场采集到的音频信号进行压缩编码,以ASF标准数据格式构建流媒体数据包并与在线直播管理系统相集成。其中,由Windows Media Format SDK及Windows Media Servics SDK平台可开发在线IP单播或在线互联网一对多直播播管理系统,而微软公司提供的Windows Media Format SDK平台用于asf格式文件的读写、编辑应用程序开发,Windows Media Encoder SDK是作为系统配置及实现 Windows Media Encoder控制接口的开发平台。

2010 广州亚运会现场音频直播选用实时流式传输。针对现场采集的音频信号预处理后,由音频压缩编码系统对前端音频模拟信号进行数字化采样,数据流打包,再由直播现场的 Windows Media Services音频服务器中的Windows Media Encoder 9进行压缩编码,配置Windows Media Encoder 9 SDK系统支持 Windows Media Encoder,而由 Windows Media Encoder平台将直播现场音频信号进行数据流格式化,实现WMEncoder类的相关对象和方法描述。Windows Media Services音频服务器的Windows Server 2003与Windows Media Services将音频数据流对指定的IP进行有线或无线数据传输,最终实现音频数据流化处理,通过Windows Media Services进行音频数据流网络数据格式化,协议加载后由无线路由器传输到最近互联网IP端口,实现现场直播与互联网的音频数据压缩打包传输,广电中心利用Windows Media Player进行音频信号解压缩后实现广播。

基于 WindowsMediaFormatSDK编辑Windows Media格式音频脚本文件,以 Windows Media数据流格式进行音频信号的压缩编码,形成Windows Media格式的流媒体文件。同时基于Visual C++6.0利用Windows Media Format SDK进行直播音频信号管理系统的二次开发,在SDK中声明#include ”wmsdk.h”;头文件 ,包含 Wmvcore.lib 和WMStub.lib库文件,调用 WMCreateWriter来创建IWMWriter 对 象, 配 置 SetProfile、SetOutputFilename、BeginWriting、WriteSample、Flush、EndWriting,完成 Windows Media Script文件的写入;由URL脚本命令向Media Player浏览器发送URL。基于Windows Media Encoder SDK完成直播现场音频信号流媒体压缩编码任务,经实际直播应用,现场直播音频信号的高频端信号的压缩与解压处理音频质量仍有提高空间。

目前,网络数据通信技术的在快速发展,对声音及流媒体技术的要求在提高,而实际网络资源实难满足人们对高保真音频信号的追求,因此,对直播现场音频信号的压缩编解码处理,在现有网络载体资源的基础上可最大限度减少重构音频信号的音质损失将是实际存在的一对矛盾。随着现代网络技术、数字技术的不断发展,直播现场音频信号处理的压缩编解码的较为先进的有效算法还有待进一步研究。

3 互联网传输层关键技术

为解决数据流物理网与互联网各种实际存在的导致信号传送产生的延迟、数据流传输阻塞等 I/O瓶颈问题。实现现场音频信号实时顺畅的流式广播,Windows Media Services提供了控制协议插件支持Microsoft Media服务器端协议功能及实时音频信号数字流式传输协议,在线HTTP超文本传输协议。直播现场在对音频信号进行压缩处理之前对Windows Media Services音频信号处理系统服务器须进行系统配置。

首先,基于Windows Media Services的匿名验证方式配置 Windows Media Services的控制协议,然后,将WMS HTTP服务器的控制协议设置为禁止,配置 HTTP数据推送协议,最后,设置 Windows Media Services的 HTTP协议端口,设置为80端口,一般的网络防火墙对该端畅通。

4 高频扩展关键技术研究

针对音频信号进行压缩编码技术处理,传统习惯算法普遍依据低频端音频信号对人耳较高频端音频信号更敏感的现象,更多注重音频信号的压缩编码效率,简化音频数据流冗余,优化传播载体资源,着重音频信号低频信息的压缩编码,如MP3、MPEG-2 AAC编码方法[3],而忽视音频信号高频信息的压缩编码,系统对音频信号的最终解码还原质量不高。例如:基于音频数据信号的统计波形编码,PCM(Pulse Code Modulation),DPCM(Differential Pulse Code Modulation),APCM (Adaptive Pulse Code Modulation),ADPCM(Adaptive Differential Pulse Code Modulation),特点是适应环境资源性较强及语音还原质量较好,缺点是音频数据信号压缩比较小、音频信号数据包大;基于音频的滤波器、预测音频线性系数等声学参数编码,特点是音频信号的数据率较低,缺点是还原音频信号的质量较差;均未能较理想的实现音频信号的高质量重构。

为实现较理想的现场音频直播效果,实现最终现场直播音频信号的重构广播质量,必须解决现场音频信号采集、压缩编解码、网络传输、音频信号解码重构及功率放大广播整个链路的音频带宽扩展技术问题,必须解决音频信号的高频扩展关键技术问题。音频信号高频端带宽重构是由于预处理直播现场音频信号时所构建的音频数所包中忽略了音频信号的高频端信号,通过一定算法,最终由解码重构音频信号的低频信息构建音频信号的高频端信息,实现音频解码信号质量的提高。目前,较为行之有效的音频信号高频端带宽恢复的方法有:非盲目式[4]音频信号高频端重构法和盲目式[5]音频信号高频端重构法。非盲目式音频信号高频端重构法,由音频信号压缩编码系统对音频信号的低频端信号、高、低频相关关系参数、高频端谐波/噪声关系、音频信号高频端的能量包络函数等信息进行系统编码,最终由音频信号的低频端信息及各种音频信号高频端信号的关系重构音频信号的高频端信息;盲目式音频信号高频端带宽重构法,音频信号解码系统直接用音频信号的低频端带宽信息重构音频信号的高频端内容。

实现音频信号解码还原高频端扩展的非盲目式算法主要有:PlusV音频带高端扩展重构法、SBR的音频带复制扩展法、SPBE音频带宽扩展法、BBSM音频谱高端扩展建模法、最小熵音频带高频端扩展算法等。

实现音频信号解码还原高频端扩展的盲目式算法主要有:LE音频带高端线性扩展算法、EHBE音频带高频端带宽扩展算法、HSE混合音频信号扩展算法等。

5 交互式直播技术、直播现场监控系统研究

基于互联网的广播电台户外现场直播系统以网络作为新的传播媒介,将音频直播与互联网相融合,改革传统广播理念,依托现代互联网资源优势,实现直播系统资源的二次挖掘:实现广播与听众互动的双向交互式直播模式;实现广播内容备份;广告的插播;广播电台的广播模式向网络多媒体或超媒体的方向发展。

利用基于互联网的广播电台户外现场直播系统实现直播现场本地控制、远程监控功能。如下图所示。由摄像头采集直播现场的实时视频信息,通过互联网将广电中心服务器端及客户端构建一直播现场监控系统,实现直播现场监控。例如,利用Windows Media Server软件可以较理想的实现以上功能。

6 实际应用效果分析、改进设想

在2010年广州亚运会中,电台现场直播使用的是Windows media编码器、无线路由器等构建了基于互联网的亚运会现场直播系统,注重直播现场音频信号的高频端扩展补偿。经过频响曲线以及延时测试,该系统稳定性及延时方面都可以达到播出要求。

[1]张丽.流媒体技术大全[M].北京:中国青年出版社,2001.

[2]Microsoft Corporation.Windows Media Encoder 9 Series SDK Documentation[EB/DK].2003.

[3]潘政彦.节省参数并提升音质之改良式高频重建方法[D].台湾:大叶大学,2005.PAN Jeng-yan.A Solution of High Frequency Reconstruc-tion for Saving more Parameters and Improving Quality[D].Taiwan:Da-Yeh University,2005.(in Chinese)

[4]ISO/IEC 11172-3,Codingof moving pictures and associated audio for digital storage media at up to about 1.5Mbit/s—Part 3 Audio[S].

[5]ISO/IEC 13818-7,Information technology-Generic coding of moving pictures and associated audio information-Part 7:Advanced Audio Coding(AAC)[S].

A Study on the Key Technologies of the Internet-based Broadcasting

WU Jia-yan
(Radio Guangdong,Guangzhou 510012)

This study probes into the construction of a high-quality Internet-based radio outside broadcast system with regards to the characteristics of live broadcast.It discusses the key issues such as audio hardware,software coding features,the transmission delays resulting from the I/O bottlenecks between the physical network and the Internet,and the transmission congestions in audio data streaming,etc.

the internet;outside broadcast;webcast

G229.24

A

1673-8861(2011)03-0136-04

2011-07-21

吴嘉彦(1985-),男,广西梧州市人,广东人民广播电台任助理工程师,硕士。主要研究方向:转播直播技术。

猜你喜欢

现场直播音频广播
Waves SoundGrid系统在广播电视现场直播中的应用
陕西眉县首届猕猴桃园现场直播分享会成功举办
必须了解的音频基础知识 家庭影院入门攻略:音频认证与推荐标准篇
基于Daubechies(dbN)的飞行器音频特征提取
广播发射设备中平衡输入与不平衡输入的转换
2017数博会“现场直播”
音频分析仪中低失真音频信号的发生方法
电视新闻现场直播的思考
网络在现代广播中的应用
Pro Tools音频剪辑及修正