赞
踩
在之前完成的实战项目【FFmpeg音视频播放器】属于拉流范畴,接下来将完成推流工作,通过RTMP实现推流,即直播客户端。简单的说,就是将手机采集的音频数据和视频数据,推到服务器端。
直播客户端系列:
接下来的RTMP直播客户端系列,主要实现红框和紫色部分:
本节主要内容:
1.Java层音频编码工作。
2.FAAC库导入。
3.Native层音频编码器工作。
4.Native层音频推流编码工作。
源码:
一、Java层音频编码
在上一节Java层视频编码工作中,MainActivity已经把用户操作页面相关功能分发给NdkPusher.java,现在只需要通过NdkPusher,把音频相关的事件分发给AudioChannel.java处理;
1)NdkPusher:
中转站,分发MainActivity事件和和Native层打交道;
NdkPusher初始化时,主要是的三件事,
①:初始化native层需要的加载,
②:实例化视频通道并传递基本参数(宽高,fps,码率等),
③:实例化音频通道
上节已完成①、②;本节只要是未完成③:实例化音频通道;
- /**
- * 此中转站的构造,主要是的三件事,
- * ①:初始化native层需要的加载,
- * ②:实例化视频通道并传递基本参数(宽高,fps,码率等),
- * ③:实例化音频通道
- */
- public NdkPusher(Activity activity, int cameraId, int width, int height, int fps, int bitrate) {
- native_init();
- // 将this传递给VideoChannel,方便VideoChannel操控native层
- mVideoChannel = new VideoChannel(this, activity, cameraId, width, height, fps, bitrate);
- mAudioChannel = new AudioChannel(this);
- }
开始直播,调用native层开始直播工作,分发给视频通道AudioChannel开始直播
- public void startLive(String path) {
- native_start(path);
- mVideoChannel.startLive();
- mAudioChannel.startLive();
- }
停止直播,调用native层停止直播工作,分发给视频通道AudioChannel停止直播
- public void stopLive() {
- mVideoChannel.stopLive();
- mAudioChannel.stopLive();
- native_stop();
- }
释放工作,释放native层数据和视频通道AudioChannel
- public void release() {
- mVideoChannel.release();
- mAudioChannel.release(); // audioRecord释放工作
- native_release();
- }
获取音频通道需要样本数(faac的编码器,输出样本 的样本数,才是标准)
- public int getInputSamples() {
- return native_getInputSamples(); // native层-->从faacEncOpen中获取到的样本数
- }
与native层通讯音频函数
- // 下面是音频独有
- public native void native_initAudioEncoder(int sampleRate, int numChannels); // 初始化faac音频编码器
- public native int native_getInputSamples(); // 获取faac编码器 样本数
- public native void native_pushAudio(byte[] bytes); // 把audioRecord采集的原始数据,给native层 编码-->入队---> 发给流媒体服务器
2)AudioChannel
音频通道,处理NdkPusher分发下来的事件和将AudioRecord采集录制音频数据推送到native层。
调用构造函数时,初始化Native层faac音频编码器,初始化AudioRecord麦克风;
- public AudioChannel(NdkPusher ndkPusher) {
- this.mNdkPusher = ndkPusher;
- executorService = Executors.newSingleThreadExecutor(); // 单例线程池
- int channelConfig;
- if (channels == 2) {
- channelConfig = AudioFormat.CHANNEL_IN_STEREO; // 双声道
- } else {
- channelConfig = AudioFormat.CHANNEL_IN_MONO; // 单声道
- }
- // 初始化faac音频编码器
- mNdkPusher.native_initAudioEncoder(44100, channels);
-
- // (getInputSamples单通道样本数1024 * 通道数2)=2048 * 2(一个样本16bit,2字节) = 4096
- inputSamples = mNdkPusher.getInputSamples() * 2;
-
- // AudioRecord.getMinBufferSize 得到的minBufferSize 能大不能小,最好是 * 2
- int minBufferSize = AudioRecord.getMinBufferSize(44100, channelConfig, AudioFormat.ENCODING_PCM_16BIT) * 2;
-
- audioRecord = new AudioRecord(MediaRecorder.AudioSource.MIC, // 安卓手机的麦克风
- 44100, // 采样率
- channelConfig, // 声道数 双声道
- AudioFormat.ENCODING_PCM_16BIT, // 位深 16位 2字节
- Math.max(inputSamples, minBufferSize)); // 缓冲区大小(以字节为单位):max在两者中取最大的,内置缓冲buffsize大一些 没关系的,能大 但是不能小
- }
开始直播,修改标记 让其可以进入while 完成音频数据推送, 并开启子线程,子线程:AudioRecord采集录制音频数据,再把此数据传递给 --> native层(进行编码) --> 封包(RTMPPacket) --> 发送
- public void startLive() {
- isLive = true;
- executorService.submit(new AudioTask()); // 子线程启动 Runnable(AudioTask)
- }
-
- private class AudioTask implements Runnable {
- @Override
- public void run() {
- audioRecord.startRecording(); // 开始录音(调用Android的API录制手机麦克风的声音)
-
- // 单通道样本数:1024
- // 位深: 16bit位 2字节
- // 声道数:双声道
- // 以上规格:之前说过多遍了,经验值是4096
- // 1024单通道样本数 * 2 * 2 = 4096
- byte[] bytes = new byte[inputSamples]; // 接收录制声音数据的 byte[]
- // 读取数据
- while (isLive) {
- // 每次读多少数据要根据编码器来定!
- int len = audioRecord.read(bytes, 0, bytes.length);
- if (len > 0) {
- // 成功采集到音频数据了
- // 对音频数据进行编码并发送(将编码后的数据push到安全队列中)
- mNdkPusher.native_pushAudio(bytes);
- }
- }
- audioRecord.stop(); // 停止录音
- }
- }
停止直播,只修改标记 让其可以不要进入while 就不会再数据推送了
- public void stopLive() {
- isLive = false;
- }
AudioRecord的释放工作
- public void release() {
- if (audioRecord != null) {
- audioRecord.release();
- audioRecord = null;
- }
- }
二、FAAC库导入
高级音频编码(Advanced Audio Coding),出现于1997年,基于MPEG-2的音频编码技术,目的是取代MP3格式。2000年,MPEG-4标准出现后,AAC重新集成了其特性,为了区别于传统的MPEG-2 AAC又称为MPEG-4 AAC。相对于mp3,AAC格式的音质更佳,文件更小。
1)复制交叉编译后的faac库/头文件到cpp目录下
2)在CMakeLists导入faac库路径
三、Native层音频编码器
1)初始化faac编码器
在Java层AudioChannel构造函数,通过中转站NdkPusher调用到Native层;
native-lib.cpp:
- extern "C"
- JNIEXPORT void JNICALL
- Java_com_ndk_push_NdkPusher_native_1initAudioEncoder(JNIEnv *env, jobject thiz, jint sample_rate,
- jint num_channels) {
- if (audioChannel) {
- audioChannel->initAudioEncoder(sample_rate, num_channels);
- }
- }
AudioChannel.cpp:
- void AudioChannel::initAudioEncoder(int sample_rate, int channels) {
- this->mChannels = channels; // 通道数量 2
- /**
- * 44100 采样率
- * 两个声道
- * 16bit 2个字节
- *
- * 上面的规格:
- * 单通道样本数:1024 * 2 = 2048
- *
- * inputSamples = 1024 如果没有 channels 的设计,应该是这个值
- *
- * inputSamples = 2048
- */
-
- /**
- * 第一步:打开faac编码器
- */
- audioEncoder = faacEncOpen(sample_rate, channels, &inputSamples, &maxOutputBytes);
- if (!audioEncoder) {
- LOGE("打开音频编码器失败");
- return;
- }
-
- /**
- * 第二步:配置编码器参数
- */
- faacEncConfigurationPtr config = faacEncGetCurrentConfiguration(audioEncoder);
-
- config->mpegVersion = MPEG4; // mpeg4标准 acc音频标准
-
- config->aacObjectType = LOW; // LC标准: https://zhidao.baidu.com/question/1948794313899470708.html
-
- config->inputFormat = FAAC_INPUT_16BIT; // 16bit
-
- // 比特流输出格式为:Raw
- config->outputFormat = 0;
-
- // 1发送的时候,就消除 最好的, 2结束后消除回音(复杂)
- // 工作中:最麻烦的就是,(开启降噪, 噪声控制)
- config->useTns = 1;
- config->useLfe = 0;
-
- /**
- * 第三步:把三面的配置参数,传入进去给faac编码器, audioEncoder==faac编码器 真正的编码器,可以用的
- */
- int ret = faacEncSetConfiguration(audioEncoder, config);
- if (!ret) { // ret == 0 失败 和 x264 设计 一样
- LOGE("音频编码器参数配置失败");
- return;
- }
-
- LOGE("FAAC编码器初始化成功...");
- // 输出缓冲区定义
- buffer = new u_char(maxOutputBytes);
- }
2)获取 faac的样本数给Java层
native-lib.cpp:
- extern "C"
- JNIEXPORT jint JNICALL
- Java_com_ndk_push_NdkPusher_native_1getInputSamples(JNIEnv *env, jobject thiz) {
- if (audioChannel) {
- return audioChannel->getInputSamples();
- }
- return 0;
- }
AudioChannel.cpp:
- // 获取faac的样本数
- int AudioChannel::getInputSamples() {
- return inputSamples;
- }
四、Native层音频推流编码
1)初始化AudioChannel音频通道,并设置 AudioRecord采集录制音频数据推送到native层,audioChannel编码后数据,通过callback回调到native-lib.cpp,加入队列;
native-lib.cpp:
- extern "C"
- JNIEXPORT void JNICALL
- Java_com_ndk_push_NdkPusher_native_1init(JNIEnv *env, jobject thiz) {
- // 初始化 VideoChannel 视频通道
- videoChannel = new VideoChannel();
- // 设置 Camera预览画面的数据推送到native层,videoChannel编码后数据,通过callback回调到native-lib.cpp,加入队列
- videoChannel->setVideoCallback(callback);
- // 初始化 AudioChannel 音频通道
- audioChannel = new AudioChannel();
- // 设置 AudioRecord采集录制音频数据推送到native层,audioChannel编码后数据,通过callback回调到native-lib.cpp,加入队列
- audioChannel->setAudioCallback(callback);
- // 设置 队列的释放工作 回调
- packets.setReleaseCallback(releasePackets);
- }
2)使用faac编码器,编码,封包,入队,使用start线程发送给流媒体服务器
在Java层AudioChannel子线程:AudioRecord采集录制音频数据,调用至此;
native-lib.cpp:
- extern "C"
- JNIEXPORT void JNICALL
- Java_com_ndk_push_NdkPusher_native_1pushAudio(JNIEnv *env, jobject thiz, jbyteArray data_) {
- if (!audioChannel || !readyPushing) {
- return;
- }
- jbyte *data = env->GetByteArrayElements(data_, nullptr); // 此data数据就是AudioRecord采集到的原始数据
- audioChannel->encodeData(data); // 核心函数:对音频数据 【进行faac的编码工作】
- env->ReleaseByteArrayElements(data_, data, 0); // 释放byte[]
- }
AudioChannel.cpp:
- // 使用faac去编码,你必须把上面的告诉人家, signed char 有符号(在所有音视频里面,最好用 无符号 uint8_t)
- void AudioChannel::encodeData(int8_t *data) {
- LOGE("faac编码");
- /**
- * 开始编码
- * 参数1,初始化好的faac编码器
- * 参数2,音频原始数据(无符号的事情)
- * 参数3,初始化好的样本数
- * 参数4,接收成果的 输出 缓冲区
- * 参数5,接收成果的 输出 缓冲区 大小
- * @return:返回编码后数据字节长度
- */
- int byteLen = faacEncEncode(audioEncoder, reinterpret_cast<int32_t *>(data), inputSamples,
- buffer, maxOutputBytes);
- if (byteLen > 0) {
- LOGE("faac编码 byteLen");
- RTMPPacket *packet = new RTMPPacket;
- // 根据协议设置压缩包数据长度
- int body_size = 2 + byteLen; // 后面的byteLen:我们实际数据编码后的长度
- RTMPPacket_Alloc(packet, body_size); // 堆区实例化里面的成员 packet
-
- // AF == AAC编码器,44100采样率,位深16bit,双声道
- // AE == AAC编码器,44100采样率,位深16bit,单声道
- packet->m_body[0] = 0xAF; // 双声道
- if (mChannels == 1) {
- packet->m_body[0] = 0xAE; // 单声道
- }
-
- // 这里是编码出来的音频数据,所以都是 01, 非序列/非头参数
- packet->m_body[1] = 0x01;
-
- // 音频数据 Copy进去
- memcpy(&packet->m_body[2], buffer, byteLen);
-
- // 封包处理
- packet->m_packetType = RTMP_PACKET_TYPE_AUDIO; // 包类型,音频
- packet->m_nBodySize = body_size;
- packet->m_nChannel = 11; // 通道ID,随便写一个,注意:不要写的和rtmp.c(里面的m_nChannel有冲突 4301行)
- packet->m_nTimeStamp = -1; // 帧数据有时间戳
- packet->m_hasAbsTimestamp = 0; // 一般都不用
- packet->m_headerType = RTMP_PACKET_SIZE_LARGE; // 大包的类型,如果是头信息,可以给一个小包
-
- // 把数据包放入队列
- audioCallback(packet);
- }
- }
音频编码数据(压缩数据)加入队列后,上一节实现的循环从队列中获取压缩包数据推送到服务端;
- void *task_start(void *args) {
- //...
- do {
- //...
- // 从队列里面获取压缩包(视频或音频),直接发给服务器
- while (readyPushing) {
- packets.pop(packet); // 阻塞式
- if (!readyPushing) {
- break;
- }
- // 取不到数据,重新取,可能还没生产出来
- if (!packet) {
- continue;
- }
- // 到这里就是成功的获取队列的ptk了,可以发送给流媒体服务器
- packet->m_nInfoField2 = rtmp->m_stream_id;// 给rtmp的流id
- // 成功取出数据包,发送
- result = RTMP_SendPacket(rtmp, packet, 1); // 1==true 开启内部缓冲
- // packet 你都发给服务器了,可以大胆释放
- releasePackets(&packet);
- if (!result) { // result == 0 和 ffmpeg不同,0代表失败
- LOGE("rtmp 失败 自动断开服务器");
- break;
- }
- }
- releasePackets(&packet); // 只要跳出循环,就释放
- } while (false);
- // =...
- return nullptr;
- }
源码:
至此,RTMP直播客户端项目已完成。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。