当前位置:   article > 正文

Android 音视频深入 四 Android原生API录视频MP4,有缺陷,没有设置时长(附源码下载)_initmuxer

initmuxer

本篇项目地址,求star

https://github.com/979451341/Audio-and-video-learning-materials/tree/master/%E5%BD%95%E9%9F%B3%E8%A7%86%E9%A2%91%EF%BC%88%E6%9C%89%E6%92%AD%E6%94%BE%E5%99%A8%E4%B8%8D%E8%83%BD%E6%94%BE%EF%BC%8C%E8%80%8C%E4%B8%94%E6%B2%A1%E6%9C%89%E6%97%B6%E9%95%BF%E6%98%BE%E7%A4%BA%EF%BC%89

1.MediaMuxer说明


MediaMuser:将封装编码后的视频流和音频流到mp4容器中,说白了能够将音视频整合成一个MP4文件,MediaMuxer最多仅支持一个视频track和一个音频track,所以如果有多个音频track可以先把它们混合成为一个音频track然后再使用MediaMuxer封装到mp4容器中。

 

  1. MediaMuxer muxer = new MediaMuxer("temp.mp4", OutputFormat.MUXER_OUTPUT_MPEG_4);
  2. // More often, the MediaFormat will be retrieved from MediaCodec.getOutputFormat()
  3. // or MediaExtractor.getTrackFormat().
  4. MediaFormat audioFormat = new MediaFormat(...);
  5. MediaFormat videoFormat = new MediaFormat(...);
  6. int audioTrackIndex = muxer.addTrack(audioFormat);
  7. int videoTrackIndex = muxer.addTrack(videoFormat);
  8. ByteBuffer inputBuffer = ByteBuffer.allocate(bufferSize);
  9. boolean finished = false;
  10. BufferInfo bufferInfo = new BufferInfo();
  11. muxer.start();
  12. while(!finished) {
  13. // getInputBuffer() will fill the inputBuffer with one frame of encoded
  14. // sample from either MediaCodec or MediaExtractor, set isAudioSample to
  15. // true when the sample is audio data, set up all the fields of bufferInfo,
  16. // and return true if there are no more samples.
  17. finished = getInputBuffer(inputBuffer, isAudioSample, bufferInfo);
  18. if (!finished) {
  19. int currentTrackIndex = isAudioSample ? audioTrackIndex : videoTrackIndex;
  20. muxer.writeSampleData(currentTrackIndex, inputBuffer, bufferInfo);
  21. }
  22. };
  23. muxer.stop();
  24. muxer.release();

 

2.录视频过程

我先贴个图,因为我觉得我后面会把自己绕晕,整理一下

先将Camera收集的数据显示在SurfaceView

 

  1. surfaceHolder = surfaceView.getHolder();
  2. surfaceHolder.addCallback(this);
  3. @Override
  4. public void surfaceCreated(SurfaceHolder surfaceHolder) {
  5. Log.w("MainActivity", "enter surfaceCreated method");
  6. // 目前设定的是,当surface创建后,就打开摄像头开始预览
  7. camera = Camera.open();
  8. try {
  9. camera.setPreviewDisplay(surfaceHolder);
  10. camera.startPreview();
  11. } catch (IOException e) {
  12. e.printStackTrace();
  13. }
  14. }


然后开始录视频,开启两个线程分别处理音视频数据

 

 

 

 

  1. private void initMuxer() {
  2. muxerDatas = new Vector<>();
  3. fileSwapHelper = new FileUtils();
  4. audioThread = new AudioEncoderThread((new WeakReference<MediaMuxerThread>(this)));
  5. videoThread = new VideoEncoderThread(1920, 1080, new WeakReference<MediaMuxerThread>(this));
  6. audioThread.start();
  7. videoThread.start();
  8. try {
  9. readyStart();
  10. } catch (IOException e) {
  11. Log.e(TAG, "initMuxer 异常:" + e.toString());
  12. }
  13. }


将两个track加入MediaMuxer

mediaMuxer.writeSampleData(track, data.byteBuf, data.bufferInfo);

我们再来看看视频数据如何处理的
MediaCodec初始化和配置

 

 

  1. mediaFormat = MediaFormat.createVideoFormat(MIME_TYPE, this.mWidth, this.mHeight);
  2. mediaFormat.setInteger(MediaFormat.KEY_BIT_RATE, BIT_RATE);
  3. mediaFormat.setInteger(MediaFormat.KEY_FRAME_RATE, FRAME_RATE);
  4. mediaFormat.setInteger(MediaFormat.KEY_COLOR_FORMAT, MediaCodecInfo.CodecCapabilities.COLOR_FormatYUV420SemiPlanar);
  5. mediaFormat.setInteger(MediaFormat.KEY_I_FRAME_INTERVAL, IFRAME_INTERVAL);
  6. 开启MediaCodec
  7. mMediaCodec = MediaCodec.createByCodecName(mCodecInfo.getName());
  8. mMediaCodec.configure(mediaFormat, null, null, MediaCodec.CONFIGURE_FLAG_ENCODE);
  9. mMediaCodec.start();

然后SurfaceView传入视频数据数据导入

 

 

  1. @Override
  2. public void onPreviewFrame(byte[] bytes, Camera camera) {
  3. MediaMuxerThread.addVideoFrameData(bytes);
  4. }
  5. 这个数据MediaMuxerThread又传给MediaThread
  6. public void add(byte[] data) {
  7. if (frameBytes != null && isMuxerReady) {
  8. frameBytes.add(data);
  9. }
  10. }

然后循环从frameBytes里取数据

  1. if (!frameBytes.isEmpty()) {
  2. byte[] bytes = this.frameBytes.remove(0);
  3. Log.e("ang-->", "解码视频数据:" + bytes.length);
  4. try {
  5. encodeFrame(bytes);
  6. } catch (Exception e) {
  7. Log.e(TAG, "解码视频(Video)数据 失败");
  8. e.printStackTrace();
  9. }

取出的数据哪去转换,也就是说mFrameData这个数据才是最后编码出视频

  1. // 将原始的N21数据转为I420
  2. NV21toI420SemiPlanar(input, mFrameData, this.mWidth, this.mHeight);
  3. private static void NV21toI420SemiPlanar(byte[] nv21bytes, byte[] i420bytes, int width, int height) {
  4. System.arraycopy(nv21bytes, 0, i420bytes, 0, width * height);
  5. for (int i = width * height; i < nv21bytes.length; i += 2) {
  6. i420bytes[i] = nv21bytes[i + 1];
  7. i420bytes[i + 1] = nv21bytes[i];
  8. }
  9. }

MediaCodec获取数据从mFrameData

mMediaCodec.queueInputBuffer(inputBufferIndex, 0, mFrameData.length, System.nanoTime() / 1000, 0);


然后又拿出数据给muxer

 

 

 

mediaMuxer.addMuxerData(new MediaMuxerThread.MuxerData(MediaMuxerThread.TRACK_VIDEO, outputBuffer, mBufferInfo));

 


啊啊啊啊啊啊啊,疯了,代码可能看起来很糊,很多,但是绝大多数代码是为了协调为了判断当前还在录视频,但是真正的在录视频的代码的运行情况就是两条线,MediaCodec使用queueInputBuffer获取数据,然后进行编码dequeueOutputBuffer给MediaMuxer,AudioCodec也是一样的套路

 

 

源码地址在文章首部,各位多多研究,对了这个代码有问题,没有显示时长,有一些播放器不能用,手机自带应该没问题

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/683456
推荐阅读
相关标签
  

闽ICP备14008679号