赞
踩
OHAudio是系统在API version 10中引入的一套C API,此API在设计上实现归一,同时支持普通音频通路和低时延通路。仅支持PCM格式,适用于依赖Native层实现音频输出功能的场景。
开发者要使用OHAudio提供的播放或者录制能力,需要添加对应的头文件。
target_link_libraries(sample PUBLIC libohaudio.so)
开发者通过引入<[native_audiostreambuilder.h]>和<[native_audiorenderer.h]>头文件,使用音频播放相关API。
#include <ohaudio/native_audiorenderer.h>
#include <ohaudio/native_audiostreambuilder.h>
OHAudio提供OH_AudioStreamBuilder接口,遵循构造器设计模式,用于构建音频流。开发者需要根据业务场景,指定对应的[OH_AudioStream_Type] 。
OH_AudioStream_Type包含两种类型:
使用[OH_AudioStreamBuilder_Create]创建构造器示例:
OH_AudioStreamBuilder* builder;
OH_AudioStreamBuilder_Create(&builder, streamType);
在音频业务结束之后,开发者应该执行[OH_AudioStreamBuilder_Destroy]接口来销毁构造器。
OH_AudioStreamBuilder_Destroy(builder);
详细的API说明请参考[OHAudio API参考]
开发者可以通过以下几个步骤来实现一个简单的播放功能。
OH_AudioStreamBuilder* builder;
OH_AudioStreamBuilder_Create(&builder, AUDIOSTREAM_TYPE_RENDERER);
配置音频流参数
创建音频播放构造器后,可以设置音频流所需要的参数,可以参考下面的案例。
// 设置音频采样率
OH_AudioStreamBuilder_SetSamplingRate(builder, 48000);
// 设置音频声道
OH_AudioStreamBuilder_SetChannelCount(builder, 2);
// 设置音频采样格式
OH_AudioStreamBuilder_SetSampleFormat(builder, AUDIOSTREAM_SAMPLE_S16LE);
// 设置音频流的编码类型
OH_AudioStreamBuilder_SetEncodingType(builder, AUDIOSTREAM_ENCODING_TYPE_RAW);
// 设置输出音频流的工作场景
OH_AudioStreamBuilder_SetRendererInfo(builder, AUDIOSTREAM_USAGE_MUSIC);
注意,播放的音频数据要通过回调接口写入,开发者要实现回调接口,使用OH_AudioStreamBuilder_SetRendererCallback设置回调函数。回调函数的声明请查看[OH_AudioRenderer_Callbacks]) 。
设置音频回调函数
多音频并发处理可参考[多音频播放的并发策略],仅接口语言差异。
// 自定义写入数据函数 int32_t MyOnWriteData( OH_AudioRenderer* renderer, void* userData, void* buffer, int32_t length) { // 将待播放的数据,按length长度写入buffer return 0; } // 自定义音频流事件函数 int32_t MyOnStreamEvent( OH_AudioRenderer* renderer, void* userData, OH_AudioStream_Event event) { // 根据event表示的音频流事件信息,更新播放器状态和界面 return 0; } // 自定义音频中断事件函数 int32_t MyOnInterruptEvent( OH_AudioRenderer* renderer, void* userData, OH_AudioInterrupt_ForceType type, OH_AudioInterrupt_Hint hint) { // 根据type和hint表示的音频中断信息,更新播放器状态和界面 return 0; } // 自定义异常回调函数 int32_t MyOnError( OH_AudioRenderer* renderer, void* userData, OH_AudioStream_Result error) { // 根据error表示的音频异常信息,做出相应的处理 return 0; } OH_AudioRenderer_Callbacks callbacks; // 配置回调函数 callbacks.OH_AudioRenderer_OnWriteData = MyOnWriteData; callbacks.OH_AudioRenderer_OnStreamEvent = MyOnStreamEvent; callbacks.OH_AudioRenderer_OnInterruptEvent = MyOnInterruptEvent; callbacks.OH_AudioRenderer_OnError = MyOnError; //设置输出音频流的回调 OH_AudioStreamBuilder_SetRendererCallback(builder, callbacks, nullptr);
为了避免不可预期的行为,在设置音频回调函数时,请确保[OH_AudioRenderer_Callbacks]的每一个回调都被自定义的回调方法或空指针初始化。
// 自定义写入数据函数 int32_t MyOnWriteData( OH_AudioRenderer* renderer, void* userData, void* buffer, int32_t length) { // 将待播放的数据,按length长度写入buffer return 0; } // 自定义音频中断事件函数 int32_t MyOnInterruptEvent( OH_AudioRenderer* renderer, void* userData, OH_AudioInterrupt_ForceType type, OH_AudioInterrupt_Hint hint) { // 根据type和hint表示的音频中断信息,更新播放器状态和界面 return 0; } OH_AudioRenderer_Callbacks callbacks; // 配置回调函数,如果需要监听,则赋值 callbacks.OH_AudioRenderer_OnWriteData = MyOnWriteData; callbacks.OH_AudioRenderer_OnInterruptEvent = MyOnInterruptEvent; // (必选)如果不需要监听,使用空指针初始化 callbacks.OH_AudioRenderer_OnStreamEvent = nullptr; callbacks.OH_AudioRenderer_OnError = nullptr;
OH_AudioRenderer* audioRenderer;
OH_AudioStreamBuilder_GenerateRenderer(builder, &audioRenderer);
使用音频流
音频流包含下面接口,用来实现对音频流的控制。
接口 | 说明 |
---|---|
OH_AudioStream_Result OH_AudioRenderer_Start(OH_AudioRenderer* renderer) | 开始播放 |
OH_AudioStream_Result OH_AudioRenderer_Pause(OH_AudioRenderer* renderer) | 暂停播放 |
OH_AudioStream_Result OH_AudioRenderer_Stop(OH_AudioRenderer* renderer) | 停止播放 |
OH_AudioStream_Result OH_AudioRenderer_Flush(OH_AudioRenderer* renderer) | 释放缓存数据 |
OH_AudioStream_Result OH_AudioRenderer_Release(OH_AudioRenderer* renderer) | 释放播放实例 |
释放构造器
构造器不再使用时,需要释放相关资源。
OH_AudioStreamBuilder_Destroy(builder);
当设备支持低时延通路时,开发者可以使用低时延模式创建播放器,获得更高质量的音频体验。
开发流程与普通播放场景一致,仅需要在创建音频流构造器时,调用[OH_AudioStreamBuilder_SetLatencyMode()]设置低时延模式。
开发示例
OH_AudioStreamBuilder_SetLatencyMode(builder, AUDIOSTREAM_LATENCY_MODE_FAST);
播放音频文件时,可以通过设置音频的声道布局信息,指定渲染或播放时的扬声器摆位,使得渲染和播放效果更佳,获得更高质量的音频体验。
开发流程与普通播放场景一致,仅需要在创建音频流构造器时,调用[OH_AudioStreamBuilder_SetChannelLayout()]设置声道布局信息。
当声道布局与声道数不匹配时,创建音频流会失败。建议在设置声道布局时,确认下发的声道布局信息是正确的。
如果不知道准确的声道布局信息,或者开发者需要使用默认声道布局,可以不调用设置声道布局接口,或者下发CH_LAYOUT_UNKNOWN,以使用基于声道数的默认声道布局。
对于HOA格式的音频,想要获得正确的渲染和播放效果,必须指定声道布局信息。
开发示例
OH_AudioStreamBuilder_SetChannelLayout(builder, CH_LAYOUT_STEREO);
播放AudioVivid格式音频文件时,需要使用与普通播放不同的数据写入回调函数,该回调可以同时写入PCM数据与元数据。
开发流程与普通播放场景一致,仅需要在创建音频流构造器时,调用[OH_AudioStreamBuilder_SetWriteDataWithMetadataCallback()]设置PCM数据与元数据同时写入的回调函数,同时调用[OH_AudioStreamBuilder_SetEncodingType()]设置编码类型为AUDIOSTREAM_ENCODING_TYPE_AUDIOVIVID。
在播放AudioVivid时,帧长是固定的,不可通过[OH_AudioStreamBuilder_SetFrameSizeInCallback()]设置回调帧长。同时,在设置播放声道数和声道布局时,需要将写入音源的声床数和对象数相加后进行设置。
开发示例
// 自定义同时写入PCM数据和元数据函数 int32_t MyOnWriteDataWithMetadata( OH_AudioRenderer* renderer, void* userData, void* audioData, int32_t audioDataSize, void* metadata, int32_t metadataSize) { // 将待播放的PCM数据和元数据,分别按audioDataSize和metadataSize写入buffer return 0; } // 设置编码类型 OH_AudioStreamBuilder_SetEncodingType(builder, AUDIOSTREAM_ENCODING_TYPE_AUDIOVIVID); // 配置回调函数 OH_AudioRenderer_WriteDataWithMetadataCallback metadataCallback = MyOnWriteDataWithMetadata; // 设置同时写入PCM数据和元数据的回调 OH_AudioStreamBuilder_SetWriteDataWithMetadataCallback(builder, metadataCallback, nullptr);
很多开发朋友不知道需要学习那些鸿蒙技术?鸿蒙开发岗位需要掌握那些核心技术点?为此鸿蒙的开发学习必须要系统性的进行。
而网上有关鸿蒙的开发资料非常的少,假如你想学好鸿蒙的应用开发与系统底层开发。你可以参考这份资料,少走很多弯路,节省没必要的麻烦。由两位前阿里高级研发工程师联合打造的《鸿蒙NEXT星河版OpenHarmony开发文档》里面内容包含了(ArkTS、ArkUI开发组件、Stage模型、多端部署、分布式应用开发、音频、视频、WebGL、OpenHarmony多媒体技术、Napi组件、OpenHarmony内核、Harmony南向开发、鸿蒙项目实战等等)鸿蒙(Harmony NEXT)技术知识点
如果你是一名Android、Java、前端等等开发人员,想要转入鸿蒙方向发展。可以直接领取这份资料辅助你的学习。下面是鸿蒙开发的学习路线图。
针对鸿蒙成长路线打造的鸿蒙学习文档。话不多说,我们直接看详细鸿蒙(OpenHarmony )手册(共计1236页)与鸿蒙(OpenHarmony )开发入门视频,帮助大家在技术的道路上更进一步。
鸿蒙—作为国家主力推送的国产操作系统。部分的高校已经取消了安卓课程,从而开设鸿蒙课程;企业纷纷跟进启动了鸿蒙研发。
并且鸿蒙是完全具备无与伦比的机遇和潜力的;预计到年底将有 5,000 款的应用完成原生鸿蒙开发,未来将会支持 50 万款的应用。那么这么多的应用需要开发,也就意味着需要有更多的鸿蒙人才。鸿蒙开发工程师也将会迎来爆发式的增长,学习鸿蒙势在必行! 自↓↓↓拿
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。