当前位置:   article > 正文

鸿蒙(API 12 Beta2版)媒体开发【使用OHAudio开发音频播放功能(C/C++)】

鸿蒙(API 12 Beta2版)媒体开发【使用OHAudio开发音频播放功能(C/C++)】

OHAudio是系统在API version 10中引入的一套C API,此API在设计上实现归一,同时支持普通音频通路和低时延通路。仅支持PCM格式,适用于依赖Native层实现音频输出功能的场景。

使用入门

开发者要使用OHAudio提供的播放或者录制能力,需要添加对应的头文件。

在 CMake 脚本中链接动态库

target_link_libraries(sample PUBLIC libohaudio.so)
  • 1

添加头文件

开发者通过引入<[native_audiostreambuilder.h]>和<[native_audiorenderer.h]>头文件,使用音频播放相关API。

#include <ohaudio/native_audiorenderer.h>
#include <ohaudio/native_audiostreambuilder.h>
  • 1
  • 2

音频流构造器

OHAudio提供OH_AudioStreamBuilder接口,遵循构造器设计模式,用于构建音频流。开发者需要根据业务场景,指定对应的[OH_AudioStream_Type] 。

OH_AudioStream_Type包含两种类型:

  • AUDIOSTREAM_TYPE_RENDERER
  • AUDIOSTREAM_TYPE_CAPTURER

使用[OH_AudioStreamBuilder_Create]创建构造器示例:

OH_AudioStreamBuilder* builder;
OH_AudioStreamBuilder_Create(&builder, streamType);
  • 1
  • 2

在音频业务结束之后,开发者应该执行[OH_AudioStreamBuilder_Destroy]接口来销毁构造器。

OH_AudioStreamBuilder_Destroy(builder);
  • 1

开发步骤及注意事项

详细的API说明请参考[OHAudio API参考]

开发者可以通过以下几个步骤来实现一个简单的播放功能。

  1. 创建构造器
OH_AudioStreamBuilder* builder;
OH_AudioStreamBuilder_Create(&builder, AUDIOSTREAM_TYPE_RENDERER);
  • 1
  • 2
  1. 配置音频流参数

    创建音频播放构造器后,可以设置音频流所需要的参数,可以参考下面的案例。

// 设置音频采样率
OH_AudioStreamBuilder_SetSamplingRate(builder, 48000);
// 设置音频声道
OH_AudioStreamBuilder_SetChannelCount(builder, 2);
// 设置音频采样格式
OH_AudioStreamBuilder_SetSampleFormat(builder, AUDIOSTREAM_SAMPLE_S16LE);
// 设置音频流的编码类型
OH_AudioStreamBuilder_SetEncodingType(builder, AUDIOSTREAM_ENCODING_TYPE_RAW);
// 设置输出音频流的工作场景
OH_AudioStreamBuilder_SetRendererInfo(builder, AUDIOSTREAM_USAGE_MUSIC);
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

注意,播放的音频数据要通过回调接口写入,开发者要实现回调接口,使用OH_AudioStreamBuilder_SetRendererCallback设置回调函数。回调函数的声明请查看[OH_AudioRenderer_Callbacks]) 。

  1. 设置音频回调函数

    多音频并发处理可参考[多音频播放的并发策略],仅接口语言差异。

// 自定义写入数据函数
int32_t MyOnWriteData(
    OH_AudioRenderer* renderer,
    void* userData,
    void* buffer,
    int32_t length)
{
    // 将待播放的数据,按length长度写入buffer
    return 0;
}
// 自定义音频流事件函数
int32_t MyOnStreamEvent(
    OH_AudioRenderer* renderer,
    void* userData,
    OH_AudioStream_Event event)
{
    // 根据event表示的音频流事件信息,更新播放器状态和界面
    return 0;
}
// 自定义音频中断事件函数
int32_t MyOnInterruptEvent(
    OH_AudioRenderer* renderer,
    void* userData,
    OH_AudioInterrupt_ForceType type,
    OH_AudioInterrupt_Hint hint)
{
    // 根据type和hint表示的音频中断信息,更新播放器状态和界面
    return 0;
}
// 自定义异常回调函数
int32_t MyOnError(
    OH_AudioRenderer* renderer,
    void* userData,
    OH_AudioStream_Result error)
{
    // 根据error表示的音频异常信息,做出相应的处理
    return 0;
}

OH_AudioRenderer_Callbacks callbacks;
// 配置回调函数
callbacks.OH_AudioRenderer_OnWriteData = MyOnWriteData;
callbacks.OH_AudioRenderer_OnStreamEvent = MyOnStreamEvent;
callbacks.OH_AudioRenderer_OnInterruptEvent = MyOnInterruptEvent;
callbacks.OH_AudioRenderer_OnError = MyOnError;

//设置输出音频流的回调
OH_AudioStreamBuilder_SetRendererCallback(builder, callbacks, nullptr);
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48

为了避免不可预期的行为,在设置音频回调函数时,请确保[OH_AudioRenderer_Callbacks]的每一个回调都被自定义的回调方法空指针初始化。

// 自定义写入数据函数
int32_t MyOnWriteData(
    OH_AudioRenderer* renderer,
    void* userData,
    void* buffer,
    int32_t length)
{
    // 将待播放的数据,按length长度写入buffer
    return 0;
}
// 自定义音频中断事件函数
int32_t MyOnInterruptEvent(
    OH_AudioRenderer* renderer,
    void* userData,
    OH_AudioInterrupt_ForceType type,
    OH_AudioInterrupt_Hint hint)
{
    // 根据type和hint表示的音频中断信息,更新播放器状态和界面
    return 0;
}
OH_AudioRenderer_Callbacks callbacks;

// 配置回调函数,如果需要监听,则赋值
callbacks.OH_AudioRenderer_OnWriteData = MyOnWriteData;
callbacks.OH_AudioRenderer_OnInterruptEvent = MyOnInterruptEvent;

// (必选)如果不需要监听,使用空指针初始化
callbacks.OH_AudioRenderer_OnStreamEvent = nullptr;
callbacks.OH_AudioRenderer_OnError = nullptr;
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  1. 构造播放音频流
OH_AudioRenderer* audioRenderer;
OH_AudioStreamBuilder_GenerateRenderer(builder, &audioRenderer);
  • 1
  • 2
  1. 使用音频流

    音频流包含下面接口,用来实现对音频流的控制。

    接口说明
    OH_AudioStream_Result OH_AudioRenderer_Start(OH_AudioRenderer* renderer)开始播放
    OH_AudioStream_Result OH_AudioRenderer_Pause(OH_AudioRenderer* renderer)暂停播放
    OH_AudioStream_Result OH_AudioRenderer_Stop(OH_AudioRenderer* renderer)停止播放
    OH_AudioStream_Result OH_AudioRenderer_Flush(OH_AudioRenderer* renderer)释放缓存数据
    OH_AudioStream_Result OH_AudioRenderer_Release(OH_AudioRenderer* renderer)释放播放实例
  2. 释放构造器

    构造器不再使用时,需要释放相关资源。

    OH_AudioStreamBuilder_Destroy(builder);
    
    • 1

设置低时延模式

当设备支持低时延通路时,开发者可以使用低时延模式创建播放器,获得更高质量的音频体验。

开发流程与普通播放场景一致,仅需要在创建音频流构造器时,调用[OH_AudioStreamBuilder_SetLatencyMode()]设置低时延模式。

开发示例

OH_AudioStreamBuilder_SetLatencyMode(builder, AUDIOSTREAM_LATENCY_MODE_FAST);
  • 1

设置音频声道布局

播放音频文件时,可以通过设置音频的声道布局信息,指定渲染或播放时的扬声器摆位,使得渲染和播放效果更佳,获得更高质量的音频体验。

开发流程与普通播放场景一致,仅需要在创建音频流构造器时,调用[OH_AudioStreamBuilder_SetChannelLayout()]设置声道布局信息。

当声道布局与声道数不匹配时,创建音频流会失败。建议在设置声道布局时,确认下发的声道布局信息是正确的。

如果不知道准确的声道布局信息,或者开发者需要使用默认声道布局,可以不调用设置声道布局接口,或者下发CH_LAYOUT_UNKNOWN,以使用基于声道数的默认声道布局。

对于HOA格式的音频,想要获得正确的渲染和播放效果,必须指定声道布局信息。

开发示例

OH_AudioStreamBuilder_SetChannelLayout(builder, CH_LAYOUT_STEREO);
  • 1

播放AudioVivid格式音源

播放AudioVivid格式音频文件时,需要使用与普通播放不同的数据写入回调函数,该回调可以同时写入PCM数据与元数据。

开发流程与普通播放场景一致,仅需要在创建音频流构造器时,调用[OH_AudioStreamBuilder_SetWriteDataWithMetadataCallback()]设置PCM数据与元数据同时写入的回调函数,同时调用[OH_AudioStreamBuilder_SetEncodingType()]设置编码类型为AUDIOSTREAM_ENCODING_TYPE_AUDIOVIVID。

在播放AudioVivid时,帧长是固定的,不可通过[OH_AudioStreamBuilder_SetFrameSizeInCallback()]设置回调帧长。同时,在设置播放声道数和声道布局时,需要将写入音源的声床数和对象数相加后进行设置。

开发示例

// 自定义同时写入PCM数据和元数据函数
int32_t MyOnWriteDataWithMetadata(
    OH_AudioRenderer* renderer,
    void* userData,
    void* audioData,
    int32_t audioDataSize,
    void* metadata,
    int32_t metadataSize)
{
    // 将待播放的PCM数据和元数据,分别按audioDataSize和metadataSize写入buffer
    return 0;
}

// 设置编码类型
OH_AudioStreamBuilder_SetEncodingType(builder, AUDIOSTREAM_ENCODING_TYPE_AUDIOVIVID);
// 配置回调函数
OH_AudioRenderer_WriteDataWithMetadataCallback metadataCallback = MyOnWriteDataWithMetadata;
// 设置同时写入PCM数据和元数据的回调
OH_AudioStreamBuilder_SetWriteDataWithMetadataCallback(builder, metadataCallback, nullptr);
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19

最后呢

很多开发朋友不知道需要学习那些鸿蒙技术?鸿蒙开发岗位需要掌握那些核心技术点?为此鸿蒙的开发学习必须要系统性的进行。

而网上有关鸿蒙的开发资料非常的少,假如你想学好鸿蒙的应用开发与系统底层开发。你可以参考这份资料,少走很多弯路,节省没必要的麻烦。由两位前阿里高级研发工程师联合打造的《鸿蒙NEXT星河版OpenHarmony开发文档》里面内容包含了(ArkTS、ArkUI开发组件、Stage模型、多端部署、分布式应用开发、音频、视频、WebGL、OpenHarmony多媒体技术、Napi组件、OpenHarmony内核、Harmony南向开发、鸿蒙项目实战等等)鸿蒙(Harmony NEXT)技术知识点

如果你是一名Android、Java、前端等等开发人员,想要转入鸿蒙方向发展。可以直接领取这份资料辅助你的学习。下面是鸿蒙开发的学习路线图。

在这里插入图片描述

针对鸿蒙成长路线打造的鸿蒙学习文档。话不多说,我们直接看详细鸿蒙(OpenHarmony )手册(共计1236页)与鸿蒙(OpenHarmony )开发入门视频,帮助大家在技术的道路上更进一步。

  • 《鸿蒙 (OpenHarmony)开发学习视频》
  • 《鸿蒙生态应用开发V2.0白皮书》
  • 《鸿蒙 (OpenHarmony)开发基础到实战手册》
  • OpenHarmony北向、南向开发环境搭建
  • 《鸿蒙开发基础》
  • 《鸿蒙开发进阶》
  • 《鸿蒙开发实战》

在这里插入图片描述

总结

鸿蒙—作为国家主力推送的国产操作系统。部分的高校已经取消了安卓课程,从而开设鸿蒙课程;企业纷纷跟进启动了鸿蒙研发。

并且鸿蒙是完全具备无与伦比的机遇和潜力的;预计到年底将有 5,000 款的应用完成原生鸿蒙开发,未来将会支持 50 万款的应用。那么这么多的应用需要开发,也就意味着需要有更多的鸿蒙人才。鸿蒙开发工程师也将会迎来爆发式的增长,学习鸿蒙势在必行! 自↓↓↓拿

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小舞很执着/article/detail/950960
推荐阅读
相关标签
  

闽ICP备14008679号