赞
踩
车身数字音频总线是最新的车载电子发展的成果,传统的车载音频接口采用的是点对点模式,系统架构复杂、车身线缆多提升了组装成本及线缆成本。车身数字音频总线采用环型或者菊花链型总线,降低了系统架构的复杂度,减少了车身线缆,降低了组装成本及线缆成本。
A2B:Automotive Audio Bus 汽车音频总线是ADI推出的一项创新技术,支持串联拓扑,即单个主机最多连接10个菊花链形式的从机。
A2B针对音频应用进行优化,速度为50Mbps。通过使用非屏蔽双绞线(UTP),大幅简化连接,线束的总重量减少高达75%。节点之间的距离可达15米,最大网络长度为40米。同样的UTP传输电源(幻象供电)最高可达300mA,非常适合数字麦克风。
总线支持双向通信,主机至从机、从机至主机,最多可32个通道下行和上行(12、16、24位)。最重要的是,可以保证延时最多2个时钟周期,为ANC/RNC这样的延时敏感型应用提供确定性。A2B总线可以传输I2C消息,支持在从机节点上远距离配置ADC/DAC等外设。
A2B总线用于连接车辆中的音频设备,如MIC(Microphone缩写而来的词语,指麦克风)、功放(AMP)、多媒体主机(Head Unit)和T-BOX等。通过一条低成本的非屏蔽双绞线UTP,进行跨距离传输音频数据(I2S/TDM)、控制信号(I2C)、时钟和电源。数字接口能省去外围的DAC/ADC转换,为音频设计提供更简单、更方便的解决方案,同时提高燃油效率。
A2B是一个单主多从系统,其中主控制器上的收发器是主控制器。主节点为所有从节点生成时钟、同步和帧。主A2B收发器通过控制端口(I2C)可编程,用于配置和读取。A2B数据流中嵌入了控制端口协议的扩展,该协议允许直接访问从收发器上的寄存器和状态信息,以及远距离的I2C到I2C通信。
收发器可以通过多通道I2S/TDM接口直接连接到通用数字信号处理器(DSP)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、麦克风、模数转换器(ADC)、数字到模拟转换器(DAC)和编解码器。它还提供了一个脉冲密度调制(PDM)接口,可直接连接多达四个PDM数字话筒。
最后,收发器还支持A2B总线供电功能,其中主节点通过与通信链路相同的菊花链双绞线电缆向从节点提供电压和电流。
浅谈车载A2B音频总线
MOST(Media Oriented System Transport) 面向媒体的系统传输总线。MOST总线利用光脉冲传输数据。采用环形结构,在环形总线内只能朝着一个方向传输数据。数据传输率可达24.8Mbps。与以前的铜缆相比具有减轻重量和减小电磁干扰的优势。
有如下特点:
保证低成本的条件下,可以达到24. 8 Mbit/s的数据传输速度;
支持声音和压缩图像的实时处理;
支持数据的同步和异步传输;
发送/接收器嵌有虚拟网络管理系统;
支持多种网络连接方式,提供MOST设备标准,方便、简洁地应用系统界面;
通过采用MOST,不仅可以减轻连接各部件的线束的质量、降低噪声,而且可以减轻系统开发技术人员的负担,最终在用户处实现各种设备的集中控制;
光纤网络不会受到电磁辐射干扰与搭铁环的影响。
MOST相对专利和光线收发器的成本较高,基本常见于高端BBA车型等。A2B音频总线的门槛较低,兼顾成本和性能的优势,在接下来的信息娱乐域中将有较多应用。
以太网音视频桥接技术 AVB(Audio/Vedio Bridge)。由于传统的以太网并不是时间精确的,不适合实时应用。为了传输音视频信号,可以对以太网进行改进,从而提供时间关键的数据传输。
Talker:输出音视频数据的终端节点,也称为Source,例如麦克风等。
Listener:接收音视频数据的终端节点,也称为Sink,例如扬声器等。有些设备既可以是Talker,也可以同时是Listener,例如智能座舱SOC。
AV Bridge:支持AVB协议的音视频网关,例如以太网交换机等。
AVB的协议栈如下图所示:
AVB能够解决智能座舱音频播放中的2个主要问题:
1.延时问题:
网络传输存在延时,或者不同来源的网络流存在竞争性关系。AVB通过预留带宽和QOS设置,保证传输延时小,实时性好。
2.同步问题:
媒体时钟同步:不同的媒体设备具有不一样的时钟源。例如,AVB中的talker和listener是不同的设备,它们的参考时钟源可能并不相同。如何保证它们具有相同的采样频率?通过802.1AS(gPTP协议),所有这些媒体设备的时钟源都映射到相同的gPTP时间,这样就实现了媒体时钟同步。从而保证talker和listener设备可以使用相同的采样率进行采集和播放。
播放时间同步:talker可以指示接收方在未来的某个时间点播放。当AVB系统中具有多个listener时,可以合理安排好各设备的播放时间,使得它们可以在未来的同一时刻同时播放。
AVB在智能座舱中的一个实际应用场景,是智能座舱中有多个扬声器。CDC通过AVB传输音频信号到各扬声器,由于gPTP协议保证了所有扬声器的时钟是同步的,而后通过播放时间同步,使得各扬声器同时进行播放。
车载娱乐系统音频模块之间常用的数据传输的数字音频接口有:PCM、I2S、PDM、SPDIF。数字音频接口相较于模拟音频接口优点有抗干扰能力强、噪声低、高保真;缺点是辐射强、接口相对复杂。
这里提到数字音频接口全部是硬件接口,即同一个PCB板上IC芯片和IC芯片之间的通讯协议。
这一章节的内容不是音频数据的编码格式。编码格式是指模拟信号数字化的过程。
常见的音频编码格式有PCM、PDM,和本文数字音频接口的名称相同,请注意区分。
I2S和PCM(TDM)接口传输的数据是PCM编码格式的音频数据。
PDM接口传输的数据是PDM编码格式的音频数据。
为直观的展示,下图简单列举了数字音频接口硬件接线的一般场景。
I2S: Inter-IC Sound。 又称集成电路内置音频总线,是飞利浦公司为数字音频设备之间的音频数据传输而制定的一种总线标准。用于在系统内器件之间传输数字音频接口,如编解码器CODEC、DSP、数字输入/输出接口、ADC、DAC和数字滤波器等。
标准的I2S是由3根串行导线组成的:Serial data (SD)数据线;Word select (WS)字选择线;Continuous serial clock (SCK)时钟线。
生成SCK和WS的设备是主设备。
IIS的采样率有:8KHz - 192 KHz
IIS的采样位宽有:16、20、24、32 Bit
IIS按编码方式分为:I2S格式、左对齐格式、右对齐格式。
如下第一种,发送器生成SCK和WS,为master。
如下第二种,接收器生成SCK和WS,为master。
如下第三种,由独立的控制器生成SCK和WS,为master。
SCK 时钟信号,Serial Clock,也可能称BCLK/Bit Clock或SCL/Serial Clock。
SD 串行数据信号,Serial Data,也可能称SDATA、SDIN、SDOUT、DACDAT、ADCDAT等。
WS 左右声道选择信号,Word Select,也称Word clock (WCLK,帧时钟),也可能称LRCLK/Left Right Clock。
• WS = 0; channel 1 (left); 当LRCLK为低时,左声道数据被传输。
• WS = 1; channel 2 (right).当LRCLK为高时,右声道数据被传输;
注:
标准左对齐和标准右对齐模式的LRCK/WS高低电平对应的左右声道与标准I2S模式的规定恰好相反!标准左右对齐LRCK/WS高电平对应左声道,LRCK/WS低电平对应右声道;而I2S低电平对应左声道,LRCK/WS高电平对应右声道!
BCLK和LRCLK外,CODEC经常还需要控制器提供MCLK (Master Clock),这是由CODEC内部基于Delta-Sigma (ΔΣ)的架构设计要求使然。其主要原因是因为这类的CODEC没有所谓提供芯片的工作时钟晶振电路。它需要外部的时钟提供内部PLL。MCLK时钟频率一般为采样频率的256倍或384倍,具体参考特定器件手册。
I2S接口定义,注意这里的数据分输入跟输出,然后SCK跟WS也都是双向的,所以模块既可以做主,也可以做从。Codec也是双向的,既可以做主,也可以做从。
如下为标准I2S格式数据波形。
如下为左对齐格式数据波形
如下为右对齐格式数据波形
I2S数据时钟(SCK)频率计算
例如:设声音的采样频率为44.1 kHz,即声道选择信号(帧时钟)WS的频率必须也为44.1 kHz;左/右2个声道的量化深度均为16 bit,则I2S的SCK的频率为:44.1 kHz×16×2=1.4112 MHz
如果需要传输20 bit、24 bit或32 bit的左右声道的数据,可以提高SCK的频率,由上式可以计算出需要的SCK的频率。
PCM是英文Pulse-code modulation的缩写(脉冲编码调制)。PCM就是要把声音从模拟转换成数字信号的一种技术,原理是利用一个固定的频率对模拟信号进行采样,采样后的信号在波形上看就像一串连续的幅值不一的脉冲,把这些脉冲的幅值按一定的精度进行量化生成数字音频。
PCM的采样率有:8KHz - 192 KHz
PCM的采样位宽有:16、20、24 、32 Bit
PCM按照编码方式分为:短同步PCM模式、长同步PCM模式
PCM数字音频接口,即说明接口上传输的音频数据通过PCM方式采样得到的,以区别于PDM方式。在音频领域,PCM接口常用于板级音频数字信号的传输,与I2S相似。PCM和I2S的区别于数据相对于帧时钟(FSYNC/WS)的位置、时钟的极性和帧的长度。其实,I2S上传输的也是PCM类型的数据,因此可以说I2S不过是PCM接口的特例。
相比于I2S接口,PCM接口应用更加灵活。通过时分复用(TDM, Time Division Multiplexing)方式,PCM接口支持同时传输多达N个(N>8)声道的数据,减少了管脚数目(实际上是减少I2S的“组”数,因为每组I2S只能传输两声道数据嘛)。TDM不像I2S有统一的标准,不同的IC厂商在应用TDM时可能略有差异,这些差异表现在时钟的极性、声道配置的触发条件和对闲置声道的处理等。
TDM/PCM数字音频接口的硬件拓扑结构也与I2S相近。下图表示应用DSP作为主设备控制ADC和DAC间数字音频流的例子。
综合不少厂商的数据手册,笔者发现,在应用PCM音频接口传输单声道数据(如麦克风)时,其接口名称为PCM;双声道经常使用I2S;而TDM则表示传输两个及以上声道的数据,同时区别于I2S特定的格式。
由此可见,TDM本质上是基于PCM接口的技术,可以用TDM指代PCM。
像现在最流行的语音智能音箱的7麦克风矩阵,一般都是用TDM来传的数据,同时可以传输7路麦克风输入和3路以上的音频反馈信号。
PCM接口定义,一般用于蓝牙音频数据传输。
如下为短同步PCM模式数据波形。
如下为长同步PCM模式数据波形。
时钟(PCM_CLK)频率的计算
FSYNC的频率等于音频的采样率(例如44.1 kHz,48 kHz等)。Frame每次传输包括所有声道的数据。PCM采样音频数据量化深度一般在16-32bit(最常见为16/24bit)。那么对于8声道,每个声道32bit音频数据,采样率48kHz的系统,TDM的系统时钟速率为:8 × 32 × 48kHz = 12.288 MHz。
在器件Datasheet中可以见到TDM128/TDM256/TDM384/TDM512等说法,数字的含义为单个TDM数据帧包含数据的比特数(即帧长)。如上例8声道(Channels)32bit的音频数据,亦称为TDM256(=8*32)。TDM系统时钟速率就可以简单地用采样率乘以TDM帧长计算得出。相同的例子,TDM系统时钟速率:48kHz × 256 = 12.288 MHz。
下表3列出系统时钟SCK/BCLK和采样率fs及TDM帧长的关系:
PDM(Pulse Density Modulation,脉冲密度调制),是一种用数字信号表示模拟信号的调制方法。同为将模拟量转换为数字量的方法,PCM使用等间隔采样方法,将每次采样的模拟分量幅度表示为N位的数字分量(N = 量化深度),因此PCM方式每次采样的结果都是N bit字长的数据。PDM则使用远高于PCM采样率的时钟采样调制模拟分量,只有1位输出,要么为0,要么为1。因此通过PDM方式表示的数字音频也被称为Oversampled 1-bit Audio。相比PDM一连串的0和1,PCM的量化结果更为直观简单。
在以PDM方式作为模数转换方法的应用接收端,需要用到抽取滤波器(Decimation Filter)将密密麻麻的0和1代表的密度分量转换为幅值分量,而PCM方式得到的就已经是幅值相关的数字分量。下图示意为通过PDM方式数字化的正弦波。
PCM方式的逻辑更加简单,但需要用到数据时钟,采样时钟和数据信号三根信号线;PDM方式的逻辑相对复杂,但它只需要两根信号线,即时钟和数据。PDM在诸如手机和平板等对于空间限制严格的场合有着广泛的应用前景。在数字麦克风领域,应用最广的就是PDM接口,其次为I2S接口。
通过PDM接口方式,传输双声道数据只要用到两根信号线。如下图18示意两个PDM接口的发送设备与同一个接收设备(通常为Processor,codec,amplifier)的连接情况,比如Source 1/2分别作为左右声道的麦克风,通过这种方式可以将采集到的双声道数据传送到接收设备。主设备(此例中作为接收设备)为两个从设备提供时钟,分别在时钟的上升沿和下降沿触发选择Source 1/2作为数据输入。图19为Maxim的Class-D类型功放MAX98358对PDM接口时序的要求,可以看到它在PDM_CLK的上升沿采样左声道数据,在PDM_CLK下降沿采样右声道数据。
数字音频接口(I2S,PCM/TDM,PDM)
SPDIF严格的写法是S/PDIF,是“SONY/PHILIPS Digital Interface Format” 索尼和飞利浦数字接口的缩写,可以传输LPCM流和Dolby Digital(杜比数字)、DTS(Digital Theatre System,数字化影院系统)这类数字音频信号。其标准的输出电平是0.5Vpp(发送器负载75Ω),输入和输出阻抗为75Ω(0.7-3MHz频宽)。常用的SPDIF接口有光纤、RCA和BNC。可以单信号线进行传输,因此其在长距离传输的应用场景有很强的成本优势。
SPDIF的最高速率有:24.576MHz
SPDIF的采样位宽有:16、20、24 Bit
1)按声电转换原理分为:电动式(动圈式、铝带式),电容式(直流极化式)、压电式(晶体式、陶瓷式)、以及电磁式、碳粒式、半导体式等。
2)按声场作用力分为:压强式、压差式、组合式、线列式等。
3)按电信号的传输方式分为:有线、无线(无线麦克风分为三个频段,FM段。VHF段,和UHF段。)。
4)按用途分为:测量话筒、人声话筒、乐器话筒、录音话筒等。
5)按指向性分为:心型、锐心型、超心型、双向(8字型)、无指向(全向型)。
6)驻极体传声器体积小巧,成本低廉,在电话、手机等设备中广泛使用。
7)硅微麦克风基于CMOSMEMS技术,体积更小。其一致性将比驻极体电容器麦克风的一致性好4倍以上,所以MEMS麦克风特别适合高性价比的麦克风阵列应用,其中,匹配得更好的麦克风将改进声波形成并降低噪声。
8)激光传声器在窃听中使用。
车载常见有两种:
驻极体电容器麦克风(ECM,Electret Capacitance Microphone),ECM 的工作原理是利用具有永久电荷隔离的聚合材料振动膜。
微机电系统麦克风(MEMS,micro-electro-mechanical systems),微机电麦克风(简称 MEMS)是驻极体设计的演变,并开始在一些手机和耳机中取代它。MEMS 麦克风可以做得比驻极体更小,只有几毫米宽。在这个狭小的空间内有一个微芯片,其中包含机械声音隔膜、一个用于传输以电流形式收集的声音的电容器、一个用于增强电流信号的放大器,以及一个用于将其转换为可供智能手机和计算机使用的音频数据的数字转换器。
目前的汽车降噪方式大致有三种:
▎从结构分析下手,对骨架钣金件结构方进行CAE仿真分析;–被动降噪
▎从材料下手,提高隔音材料的隔音性,或增加隔音材料的使用面积;–被动降噪
▎从噪音传播特性下手,利用“互反”叠加抵消,降低噪音强度,这项技术通常被称为ANC主动降噪。
降低噪音通常所采用的三种降噪措施,即在声源处降噪、在传播过程中降噪及在人耳处降噪,都是被动的。
被动降噪(Passive Noise Isolation)也就是物理降噪,好似有人捂住了你的耳朵,这样你就听不见外面的噪音了!捂的越紧那听到的噪音就越少。是指利用物理特性将外部噪声与耳朵隔绝开,主要通过耳机的头梁设计得紧一些、耳罩腔体进行声学优化、耳罩内部放上吸声材料……等等来实现耳机的物理隔音。被动降噪对高频率声音(如人声)的隔绝非常有效,一般可使噪声降低大约为15-20dB;对于一些低频率的噪音隔绝效果不好,在车内或者机舱等环境中,被动降噪的效果会降低。因此被动降噪并不是消除噪音,而是通过物理结构来抑制噪音!
为了主动地消除噪声,人们发明了“有源消声”这一技术。ANC是Active Noise Cancellation的缩写,译为主动降噪,常应用在耳机降噪中。
众所周知,声波在空气中传输时会相互干涉。当两个频率和振动方向相同且步调一致的声源发出的声波相互叠加时就会产生干涉现象。如果两个声源的相位相反,两个声波叠加后幅度减小声压减弱。若两个声波的幅度相等,那么就会完全抵消。
ANC正是利用了声波相消干涉的现象,其工作原理为耳机根据采集到的噪声生成一个与之频率和幅度相等,但相位相反的声波,并由扬声器在耳道内播放。最终人耳听到的即是环境噪声和反相了的环境噪声叠加的结果。因此,听起来感觉噪声变小了。ANC主要降低环境中的中低频噪声。从而使消费者即使是在嘈杂的环境中,不需要提高音量,依然可以欣赏音乐。
主动式降噪耳机带有与外界噪声抗衡的降噪电路,为了透过硬件机制达到降噪效果,内部组成为拾音器(环境噪音)、处理芯片(分析噪音)、扬声器(产生反相声波),以便完成整个降噪过程。通过在隔音耳罩内部很接近耳机内部的扬声器处放置一个麦克风,如下图所示,该麦克风可对人耳听到的噪声进行采样,在经过反向、放大后驱动扬声器产生一个“反噪声”,用来消外界通过耳罩传给人的噪声,只要合理选择放大器的增益,就可获得良好的噪声抵消效果。同时,为避免自激震荡,系统还必须有很高的信噪比
主动降噪耳机对于低频噪音环境的声音可产生很好的降噪效果,如:汽车的嗡嗡声、空调、地铁运行声音等。。
目前市面上最常见的降噪方案有3种:
第一种 - 前馈式降噪 (Feed Forward ANC);第二种 - 反馈式降噪(Feedback ANC);第三种 - 复合式降噪 (Hybrid ANC)
抗噪耳机通常使用ANC 消除低频噪音,以主动方式消除高频噪音效果不佳(也就是人声的部分)。因为人耳所能听到的频率是20HZ-20KHZ,人声的频率范围是100HZ-8KHZ,大部分环境和车辆噪音是在100HZ-1KHZ范围内,市面上的主动降噪耳机降噪频段是100HZ-1KHZ,即使一些好的降噪耳机,最多提升个几百HZ,覆盖不了语音的全频段,因此对于语音的降噪效果达不到环境音的降噪效果。所以高频噪音仍然得依靠传统隔音机制(即被动抗噪),同时这也可简化复杂的电子电路装置。真正要完全消除高频噪音,传感器和麦克风必须置放于听者鼓膜旁,因此技术上来说目前还无法实现,再者,深度降噪耳机会使部分人产生头晕、胸闷、耳鸣等生理不适,因此深度主动降噪耳机也不是所有人都适用。
主动降噪是锦上添花,不是雪中送炭,要达到完美的NVH,仍然需要止震板和隔音棉。
阿维塔搭载的RNC(Road Noice Cancellation)主动降噪技术就是一种新兴的路躁消除技术。相较于针对单一发动机的ANC主动降噪,RNC降噪技术则是“多面手“,实现难度更大。这种难度在于,除了车辆自身的机械噪音外,RNC主动降噪技术还需要对轮胎接触的坑洼路面、减速带、破损路面和环境噪音做到“一对多”的信息读取、处理和干预,这就对车辆的信息探测、数据处理和响应能力,提出了极高要求。
据了解,整车约有 1/3 的故障问题是和车辆的 NVH(Noise 噪声 Vibration 振动 Harshness 声振粗糙度)问题有关系。ANC 和 RNC 需要面对的技术难点完全不同,在 RNC 前有 5 个主要的技术难题。
完全随机性、极高实时性、三维空间性、范围宽广性、复杂传递性
在音频处理时要先把音频的模拟信号变成数字信号,即A/D转换。要把音频的模拟信号变成数字信号,就需要采样(抽样)。把音频播放出来时则需要把数字信号转换成模拟信号,即D/A转换。
采样频率:一秒钟内采样的次数。
根据奈奎斯特采样定理,要想重建原始信号,采样频率必须大于信号中最高频率的两倍。采样频率越高,采样点之间的间隔就越小,越接近原始信号,数字化后得到的声音就越逼真,但是也加大了运算处理的复杂度。人能感受到的频率范围为 20HZ–20kHZ, 一般音乐的采样频率为44.1kHZ(根据奈奎斯特采样定理,采样频率大于信号中最高频率的两倍), 更高的可以是48kHZ和96kHZ,不过一般人用耳听感觉不出差别了。
语音主要是以沟通为主,不需要像音乐那样清晰,分窄带和宽带。窄带频率范围为300Hz–3400Hz,相应的采样频率为8000Hz; 宽带频率范围为50Hz–7000Hz,相应的采样频率为16000Hz,用16k采样的语音就称为高清语音了。现在主流的语音采样频率为16kHz。
数字信号是用0和1来表示的。采样位数就是采样值用多少位0和1来表示,也叫采样精度/采样位宽/量化深度,用的位数越多就越接近真实声音。如用8位表示,采样值取值范围就是-128–127,如用16位表示,采样值取值范围就是-32768–32767。现在一般都用16位采样位数。
通常语音只用一个声道。而对于音乐来说,既可以是单声道(mono),也可以是双声道(即左声道右声道,叫立体声stereo),还可以是多声道,叫环绕立体声,多用于影院中。
不经过压缩,声音数据量的计算公式为:
数据量(字节/秒)= (采样频率(Hz)× 采样位数(bit) × 声道数)/ 8
一般用专门的芯片(codec芯片)采集音频,做A/D转换,然后把数字信号通过I2S总线(主流用I2S总线,也有如PCM总线)送给CPU处理(也有的会把codec芯片与CPU芯片集成在一块芯片中)。当要播放时CPU会把音频数字信号通过I2S总线送给codec芯片,然后做D/A转换得到模拟信号再播放出来。这部分对语音和音乐是通用的,只是用的采样率有可能不一样,音乐的采样率用的高一些。
如果把采样值直接保存或者发送,会占用很大的存储空间或者很大的流量。以16kHz采样率16位采样位数单声道为例,一秒钟就有32000(2字节*16000)字节。通常需要把采样后的数字信号压缩后才保存或者发送。把采样值压缩——编码(encode),形成比特流(bitstream)。 把比特流还原出采样值——解码(decode),统称编解码(codec)。
音频解码器分硬解码器和软解码器二种。软解码器是以软件的方式实现解码,如计算机中安装的音频播放软件中就带着软解码器。而硬解码器则是将解码的工作交给特定的解码芯片来完成。
通常也把音频采样过程叫脉冲编码调制编码,即PCM(Pulse Code Modulation)编码,采样值称PCM值。为了节省保存空间或者发送流量,会对PCM值压缩。目前主要有三大技术标准组织制定压缩标准:
(1)ITU,主要制定有线语音的压缩标准(g系列),有g711/g722/g726/g729等。
(2)3GPP,主要制定无线语音的压缩标准(amr系列等), 有amr-nb/amr-wb。后来ITU吸纳了amr-wb,形成了g722.2。
(3)MPEG,主要制定音乐的压缩标准,有11172-3,13818-3/7,14496-3等。
把PCM数据压缩后无任何损伤叫无损压缩,不过压缩程度不高。把PCM数据压缩后有损伤叫有损压缩,最多可以压到几十分之一,不过音频质量差些。
音频处理是指对PCM数据(也叫线性数据)进行处理,从而达到想要的效果,如回声消除。对音频编码前的PCM数据进行处理叫音频前处理,主要用于语音中,来去除各种干扰,使声音更清晰,主要有回声消除、噪声抑制、增益控制等。
对音频解码后的PCM数据进行处理叫音频后处理,主要用于音乐中,来产生各种音效,使音乐更动听,主要有均衡器、混响等。
这里主要是指网络传输,通过网络把音频数据传给对方。语音和音乐两种场景下有明显的区别。对于语音来说,实时性要求很高,主要用RTP/UDP做承载,由于UDP是不可靠传输,会丢包乱序等,影响语音质量,所以要采取相应的措施,主要有PLC(丢包补偿)、FEC(前向纠错)、重传、jitter buffer等。
对于音乐来说,以前是播放本地音乐文件,近些年随着网络带宽的加大,可以播放云端的音乐文件了。播放时要把音乐文件传给播放器,一般是边播放边下载,播放音乐对实时性要求不高,一般用HTTP/TCP做承载,也就不存在丢包乱序等问题了。
1.WAV文件
WAV是Microsoft/IBM共同开发的PC波形文件。因未经压缩,文件数据量很大。
特点:声音层次丰富,还原音质好
2.MP3文件
MP3(MPEG Audio layer3)是一种按MPEG标准的音频压缩技术制作的音频文件。
特点:高压缩比(11:1),优美音质
3.WMA文件
WMA(Windows Media Audio)是Windows Media格式中的一个子集(音频格式)。
特点:压缩到MP3一半
4.MIDI文件
MIDI(乐器数字接口)是由一组声音或乐器符号的集合。
特点:数据量很小,缺乏重现自然音
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。