赞
踩
获取解封装后的数据,送入解码器中,使用解码器获取PCM和Metadata元数据。
target_link_libraries(sample PUBLIC
libnative_media_codecbase.so libnative_media_core.so
libnative_media_acodec.so libnative_media_avdemuxer.so libnative_media_avsource.so
)
//解封装头文件
#include "multimedia/player_framework/native_avdemuxer.h"
// 解封装解码传递信息结构体
struct AudioSampleInfo {
std::string audioCodecMime = "";
int32_t audioSampleForamt = 0;
int32_t audioSampleRate = 0;
int32_t audioChannelCount = 0;
int64_t audioChannelLayout = 0;
uint8_t audioCodecConfig[100] = {0};
size_t audioCodecSize = 0;
};
AudioSampleInfo info;
定义CodecBufferInfo
解码码流的属性定义,为后面传给播放的码流数据封装。
struct CodecBufferInfo { uint32_t bufferIndex = 0; uintptr_t *buffer = nullptr; uint8_t *bufferAddr = nullptr; OH_AVCodecBufferAttr attr = {0, 0, 0, AVCODEC_BUFFER_FLAGS_NONE}; CodecBufferInfo(uint8_t *addr) : bufferAddr(addr){}; CodecBufferInfo(uint8_t *addr, int32_t bufferSize) : bufferAddr(addr), attr({0, bufferSize, 0, AVCODEC_BUFFER_FLAGS_NONE}){}; CodecBufferInfo(uint32_t argBufferIndex, OH_AVMemory *argBuffer, OH_AVCodecBufferAttr argAttr) : bufferIndex(argBufferIndex), buffer(reinterpret_cast<uintptr_t *>(argBuffer)), attr(argAttr){}; CodecBufferInfo(uint32_t argBufferIndex, OH_AVMemory *argBuffer) : bufferIndex(argBufferIndex), buffer(reinterpret_cast<uintptr_t *>(argBuffer)){}; CodecBufferInfo(uint32_t argBufferIndex, OH_AVBuffer *argBuffer) : bufferIndex(argBufferIndex), buffer(reinterpret_cast<uintptr_t *>(argBuffer)) { OH_AVBuffer_GetBufferAttr(argBuffer, &attr); }; };
定义解码工作队列
class CodecUserData { public: SampleInfo *sampleInfo = nullptr; // 输入帧数 uint32_t inputFrameCount_ = 0; // 输入队列锁,防止多线程同时操作输入队列 std::mutex inputMutex_; // 输入线程的条件变量,当输入队列为空时用于阻塞输入线程 std::condition_variable inputCond_; // 输入buffer队列,存放编解码器传给用户用来写入输入数据的buffer std::queue<CodecBufferInfo> inputBufferInfoQueue_; // 输出帧数 uint32_t outputFrameCount_ = 0; // 输出队列锁,防止多线程同时操作输出队列 std::mutex outputMutex_; // 输出线程的条件变量,当输出队列为空时用于阻塞输出线程 std::condition_variable outputCond_; std::mutex renderMutex_; std::condition_variable renderCond_; // 输出buffer队列,存放编解码器传给用户用来存放输出数据的buffer std::queue<CodecBufferInfo> outputBufferInfoQueue_; std::shared_ptr<AudioDecoder> audioCodec_; std::queue<unsigned char> renderQueue_; void ClearQueue() { { std::unique_lock<std::mutex> lock(inputMutex_); auto emptyQueue = std::queue<CodecBufferInfo>(); inputBufferInfoQueue_.swap(emptyQueue); } { std::unique_lock<std::mutex> lock(outputMutex_); auto emptyQueue = std::queue<CodecBufferInfo>(); outputBufferInfoQueue_.swap(emptyQueue); } } };
定义回调函数
class SampleCallback { public: // 报错回调函数,当编解码器内部报错时调用,返回给用户相应错误码 static void OnCodecError(OH_AVCodec *codec, int32_t errorCode, void *userData); // 参数修改回调函数,当编解码器参数被修改时调用,返回给用户被修改后的format参数 static void OnCodecFormatChange(OH_AVCodec *codec, OH_AVFormat *format, void *userData); // 输入回调函数,当编解码器需要输入时调用,返回给用户用来写入输入数据的buffer及其对应的index static void OnNeedInputBuffer(OH_AVCodec *codec, uint32_t index, OH_AVBuffer *buffer, void *userData); // 输出回调函数,当编解码器生成新的输出数据时调用,返回给用户用来存放输出数据的buffer及其对应的index static void OnNewOutputBuffer(OH_AVCodec *codec, uint32_t index, OH_AVBuffer *buffer, void *userData); }; void SampleCallback::OnCodecError(OH_AVCodec *codec, int32_t errorCode, void *userData) { (void)codec; (void)errorCode; (void)userData; } void SampleCallback::OnCodecFormatChange(OH_AVCodec *codec, OH_AVFormat *format, void *userData) { } void SampleCallback::OnNeedInputBuffer(OH_AVCodec *codec, uint32_t index, OH_AVBuffer *buffer, void *userData) { if (userData == nullptr) { return; } (void)codec; CodecUserData *codecUserData = static_cast<CodecUserData *>(userData); std::unique_lock<std::mutex> lock(codecUserData->inputMutex_); // 将输入buffer存放到输入队列中 codecUserData->inputBufferInfoQueue_.emplace(index, buffer); // 通知输入线程开始运行 codecUserData->inputCond_.notify_all(); } void SampleCallback::OnNewOutputBuffer(OH_AVCodec *codec, uint32_t index, OH_AVBuffer *buffer, void *userData) { if (userData == nullptr) { return; } (void)codec; CodecUserData *codecUserData = static_cast<CodecUserData *>(userData); std::unique_lock<std::mutex> lock(codecUserData->outputMutex_); // 将输出buffer存放到输出队列中 codecUserData->outputBufferInfoQueue_.emplace(index, buffer); // 通知输出线程开始运行 codecUserData->outputCond_.notify_all(); }
// 创建解码器 OH_AVCodec * decoder = OH_AudioCodec_CreateByMime(info.audioCodecMime,false); // 参数配置 OH_AVFormat *format = OH_AVFormat_Create(); OH_AVFormat_SetIntValue(format, OH_MD_KEY_AUDIO_SAMPLE_FORMAT, SAMPLE_S16LE); //或者S24LE OH_AVFormat_SetIntValue(format, OH_MD_KEY_AUD_CHANNEL_COUNT, sampleInfo.audioChannelCount); OH_AVFormat_SetIntValue(format, OH_MD_KEY_AUD_SAMPLE_RATE, sampleInfo.audioSampleRate); OH_AVFormat_SetIntValue(format, OH_MD_KEY_AAC_IS_ADTS, 1); OH_AVFormat_SetLongValue(format, OH_MD_KEY_BITRATE, 96422);//码率,当前作为参考,解封装也可以获取到 OH_AVFormat_SetBuffer(format, OH_MD_KEY_CODEC_CONFIG, sampleInfo.audioCodecConfig, sampleInfo.audioCodecSize); bool res = OH_AVFormat_SetLongValue(format, OH_MD_KEY_CHANNEL_LAYOUT, sampleInfo.audioChannelLayout); ret = OH_AudioCodec_Configure(decoder, format); OH_AVFormat_Destroy(format); format = nullptr; // 设置回调,用于输入输出buffer准备完毕后由系统回调出来 int32_t ret = OH_AudioCodec_RegisterCallback(decoder, {SampleCallback::OnCodecError, SampleCallback::OnCodecFormatChange, SampleCallback::OnNeedInputBuffer, SampleCallback::OnNewOutputBuffer},codecUserData); // 准备回调和参数设置完毕后通知系统解码器准备好了,下一步准备启动。 ret = OH_AudioCodec_Prepare(decoder)
int32_t PushInputData(CodecBufferInfo &info)
{
int32_t ret = OH_AVBuffer_SetBufferAttr(reinterpret_cast<OH_AVBuffer *>(info.buffer), &info.attr);
ret = OH_AudioCodec_PushInputBuffer(decoder, info.bufferIndex);
return 0;
}
int32_t AudioDecoder::FreeOutputData(uint32_t bufferIndex)
{
int32_t ret = 0;
ret = OH_AudioCodec_FreeOutputBuffer(decoder, bufferIndex);
return ret ;
}
CodecUserData*audioDecContext_ = new CodecUserData; void AudioDecInputThread() { while (true) { if(!isStarted_){ return; } std::unique_lock<std::mutex> lock(audioDecContext_->inputMutex_); // 阻塞输入线程,直接程序运行结束,或者输入队列不为空 bool condRet = audioDecContext_->inputCond_.wait_for( lock, 5s, [this]() { return !isStarted_ || !audioDecContext_->inputBufferInfoQueue_.empty(); }); if(!isStarted_ || audioDecContext_->inputBufferInfoQueue_.empty()){ return; } // 获取输入buffer CodecBufferInfo bufferInfo = audioDecContext_->inputBufferInfoQueue_.front(); audioDecContext_->inputBufferInfoQueue_.pop(); audioDecContext_->inputFrameCount_++; lock.unlock(); // 从解封装器中读取一帧数据写入输入buffer demuxer_->ReadSample(demuxer_->GetAudioTrackId(), reinterpret_cast<OH_AVBuffer *>(bufferInfo.buffer), bufferInfo.attr); int32_t ret = audioDecoder_->PushInputData(bufferInfo); if(ret != 0){ return; } if(bufferInfo.attr.flags & AVCODEC_BUFFER_FLAGS_EOS){ return; } } // StartRelease(); }
void AudioDecOutputThread() { while (true) { if(!isStarted_){ return; } std::unique_lock<std::mutex> lock(audioDecContext_->outputMutex_); // 阻塞输出线程,直接程序运行结束,或者输出队列不为空 bool condRet = audioDecContext_->outputCond_.wait_for( lock, 5s, [this]() { return !isStarted_ || !audioDecContext_->outputBufferInfoQueue_.empty(); }); if(!isStarted_ || audioDecContext_->outputBufferInfoQueue_.empty()){ return; } // 获取输出buffer CodecBufferInfo bufferInfo = audioDecContext_->outputBufferInfoQueue_.front(); audioDecContext_->outputBufferInfoQueue_.pop(); if(bufferInfo.attr.flags & AVCODEC_BUFFER_FLAGS_EOS){ return; } audioDecContext_->outputFrameCount_++; // 获取解码后的pcm数据 uint8_t *source = OH_AVBuffer_GetAddr(reinterpret_cast<OH_AVBuffer *>(bufferInfo.buffer)); OH_AVFormat * format = OH_AVBuffer_GetParameter(data); uint8_t * metadata; size_t size; // 获取元数据 OH_AVFormat_GetBuffer(format, OH_MD_KEY_AUDIO_VIVID_METADATA, &metadata, &size); #ifdef DEBUG_DECODE if (audioOutputFile_.is_open()) { audioOutputFile_.write((const char*)OH_AVBuffer_GetAddr(reinterpret_cast<OH_AVBuffer *>(bufferInfo.buffer)), bufferInfo.attr.size); } #endif lock.unlock(); int32_t ret = audioDecoder_->FreeOutputData(bufferInfo.bufferIndex); if(ret != 0){ return; } } }
启动解码。
int ret = OH_AudioCodec_Start(decoder);
停止和释放实例。
OH_AudioCodec_Stop(decoder);
OH_AudioCodec_Destroy(decoder);
decoder = nullptr;
很多开发朋友不知道需要学习那些鸿蒙技术?鸿蒙开发岗位需要掌握那些核心技术点?为此鸿蒙的开发学习必须要系统性的进行。
而网上有关鸿蒙的开发资料非常的少,假如你想学好鸿蒙的应用开发与系统底层开发。你可以参考这份资料,少走很多弯路,节省没必要的麻烦。由两位前阿里高级研发工程师联合打造的《鸿蒙NEXT星河版OpenHarmony开发文档》里面内容包含了(ArkTS、ArkUI开发组件、Stage模型、多端部署、分布式应用开发、音频、视频、WebGL、OpenHarmony多媒体技术、Napi组件、OpenHarmony内核、Harmony南向开发、鸿蒙项目实战等等)鸿蒙(Harmony NEXT)技术知识点
如果你是一名Android、Java、前端等等开发人员,想要转入鸿蒙方向发展。可以直接领取这份资料辅助你的学习。下面是鸿蒙开发的学习路线图。
针对鸿蒙成长路线打造的鸿蒙学习文档。话不多说,我们直接看详细鸿蒙(OpenHarmony )手册(共计1236页)与鸿蒙(OpenHarmony )开发入门视频,帮助大家在技术的道路上更进一步。
鸿蒙—作为国家主力推送的国产操作系统。部分的高校已经取消了安卓课程,从而开设鸿蒙课程;企业纷纷跟进启动了鸿蒙研发。
并且鸿蒙是完全具备无与伦比的机遇和潜力的;预计到年底将有 5,000 款的应用完成原生鸿蒙开发,未来将会支持 50 万款的应用。那么这么多的应用需要开发,也就意味着需要有更多的鸿蒙人才。鸿蒙开发工程师也将会迎来爆发式的增长,学习鸿蒙势在必行! 自↓↓↓拿
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。