当前位置:   article > 正文

Ffmpeg的使用_go ffmpeg -vn

go ffmpeg -vn

介绍

FFmpeg是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序。采用LGPL或GPL许可证。它提供了录制、转换以及流化音视频的完整解决方案。它包含了非常先进的音频/视频编解码库libavcodec,为了保证高可移植性和编解码质量,libavcodec里很多code都是从头开发的。框图下图所示
image-20210828114100261

基础知识

封装格式

所谓封装格式是指音视频的组合格式,例如最常见的封装格式有mp4、mp3、flv等。简单来说,我们平时接触到的带有后缀的音视频文件都是一种封装格式。不同的封装格式遵循不同的协议标准。有兴趣的可以自行扩展。

编码格式

以mp4为例,通常应该包含有视频和音频。视频的编码格式为YUV420P,音频的编码格式为PCM。再以YUV420编码格式为例。我们知道通常图像的显示为RGB(红绿蓝三原色),在视频压缩的时候会首先将代表每一帧画面的RGB压缩为YUV,再按照关键帧(I帧),过渡帧(P帧或B帧)进行运算和编码。解码的过程正好相反,解码器会读到I帧,并根据I帧运算和解码P帧以及B帧。并最终根据视频文件预设的FPS还原每一帧画面的RGB数据。最后推送给显卡。所以通常我们说的编码过程就包括:画面采集、转码、编码再封装。

视频解码和音频解码有什么区别

FPS是图像领域中的定义,是指画面每秒传输帧数,通俗来讲就是指动画或视频的画面数。FPS太低画面会感觉闪烁不够连贯,FPS越高需要显卡性能越好。一些高速摄像机的采集速度能够达到11000帧/秒,那么在播放这类影片的时候我们是否也需要以11000帧/秒播放呢?当然不是,通常我们会按照25帧/秒或者60帧/秒设定图像的FPS值。但是由于视频存在关键帧和过渡帧的区别,关键帧保存了完整的画面而过渡帧只是保存了与前一帧画面的变化部分,需要通过关键帧计算获得。因此我们需要对每一帧都进行解码,即获取画面的YUV数据。同时只对我们真正需要显示的画面进行转码,即将YUV数据转换成RGB数据,包括计算画面的宽高等。但是音频则不然,音频的播放必须和采集保持同步。提高或降低音频的播放速度都会让音质发生变化,这也是变声器的原理。因此在实际开发中为了保证播放的音视频同步,我们往往会按照音频的播放速度来控制视频的解码转码速度。

go-ffmpeg的项目应用

下面是使用go-ffmpeg去编码视频的例子,语言是go语言,项目仓库地址

package main

import (
	"image"
	"log"

	"os"

	"github.com/alexdogonin/go-ffmpeg"
)

func main() {
	const (
		framerate   = 25
		codecID     = ffmpeg.CodecIDMPEG4
		resultName  = "result.avi"
		videoWidth  = 704
		videoHeight = 576
		durationSec = 8
	)

	f, err := os.Create(resultName)
	if err != nil {
		log.Fatalf("create result file error, %s", err)
	}
	defer f.Close()

	codec, err := ffmpeg.CodecByID(codecID)
	if err != nil {
		log.Fatalf("find codec %d error, %s", codecID, err)
	}

	codecCtx, err := ffmpeg.NewVideoCodecContext(codec, videoWidth, videoHeight, ffmpeg.YUV420P,
		ffmpeg.WithGopSize(10),
	)
	if err != nil {
		log.Fatalf("initialize codec context error, %s", err)
	}
	defer codecCtx.Release()

	frame, err := ffmpeg.NewVideoFrame(videoWidth, videoHeight, ffmpeg.YUV420P)
	if err != nil {
		log.Fatalf("initialize frame error, %s", err)
	}
	defer frame.Release()

	frameImg := image.NewYCbCr(image.Rect(0, 0, videoWidth, videoHeight), image.YCbCrSubsampleRatio420)

	packet, err := ffmpeg.NewPacket()
	if err != nil {
		log.Fatalf("initialize packet error, %s", err)
	}
	defer packet.Release()

	totalFrames := framerate * durationSec
	for i := 0; i < totalFrames; i++ {
		fillFakeImg(frameImg, i)

		if err = frame.FillYCbCr(frameImg); err != nil {
			log.Fatalf("fill frame error, %s", err)
		}

		frame.SetPts(i)

		if err = codecCtx.SendFrame(frame); err != nil {
			log.Fatalf("send frame to encoding error, %s", err)
		}

		for codecCtx.ReceivePacket(packet) {
			if _, err := f.Write(packet.Data()); err != nil {
				log.Fatalf("write file error, %v", err)
			}

			packet.Unref()
		}

		if err = codecCtx.Err(); err != nil {
			log.Fatalf("receive packet error, %s", err)
		}
	}

	// flush
	if err = codecCtx.SendFrame(nil); err != nil {
		log.Fatalf("send frame to encoding error, %s", err)
	}

	for codecCtx.ReceivePacket(packet) {
		if _, err := f.Write(packet.Data()); err != nil {
			log.Fatalf("write file error, %v", err)
		}

		packet.Unref()
	}

	if err = codecCtx.Err(); err != nil {
		log.Fatalf("receive packet error, %s", err)
	}
}

func fillFakeImg(img *image.YCbCr, i int) {
	/* prepare a dummy image */
	/* Y */
	for y := 0; y < img.Bounds().Max.Y; y++ {
		for x := 0; x < img.Bounds().Max.X; x++ {
			img.Y[y*img.YStride+x] = uint8(x + y + i*3)
		}
	}

	/* Cb and Cr */
	for y := 0; y < img.Bounds().Max.Y/2; y++ {
		for x := 0; x < img.Bounds().Max.X/2; x++ {
			img.Cb[y*img.CStride+x] = uint8(128 + y + i*2)
			img.Cr[y*img.CStride+x] = uint8(64 + x + i*5)
		}
	}
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114
  • 115
  • 116

原生安装使用

安装方式

windows安装

linux安装

mac安装

命令格式:

ffmpeg [global_options] {[input_file_options] -i input_url} ... {[output_file_options] output_url} ...

ffmpeg -i [输入文件名] [参数选项] -f [格式] [输出文件] 

参数选项: 
(1) -an: 去掉音频 
(2) -vn: 去掉视频 
(3) -acodec: 设定音频的编码器,未设定时则使用与输入流相同的编解码器。音频解复用在一般后面加copy表示拷贝 
(4) -vcodec: 设定视频的编码器,未设定时则使用与输入流相同的编解码器,视频解复用一般后面加copy表示拷贝 
(5) –f: 输出格式(视频转码)
(6) -bf: B帧数目控制 
(7) -g: 关键帧间隔控制(视频跳转需要关键帧)
(8) -s: 设定画面的宽和高,分辨率控制(352*278)
(9) -i:  设定输入流
(10) -ss: 指定开始时间(0:0:05(11) -t: 指定持续时间(0:05(12) -b: 设定视频流量,默认是200Kbit/s
(13) -aspect: 设定画面的比例
(14) -ar: 设定音频采样率
(15) -ac: 设定声音的Channel数
(16)  -r: 提取图像频率(用于视频截图)
(17) -c:v:  输出视频格式
(18) -c:a:  输出音频格式
(18) -y:  输出时覆盖输出目录已存在的同名文件
-vcoder 设定视频的编码器,未设定时则使用与输入流相同的编解码器
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25

其他命令可通过 ffmpeg -h 查看,如下

image-20210828112614177

用例

  • 将某个视频循环播放并将流推送到某个地址:
$ ffmpeg -re  -stream_loop -1 -i test.h264 -vcodec copy -acodec copy -f flv -y rtmp://ip:port/live/test
  • 1
  • 视频压缩
将视频压缩指定大小
ffmpeg  -i  Desktop/input.mp4  -fs 10MB  Desktop/output.mp4
-fs 10 : 表示文件大小最大值为10MB

设置视频的帧率为20fps
ffmpeg  -i  Desktop/input.mp4  -r 20  Desktop/output.mp4
-r 20:表示帧率设置为 20fps

设置视频的码率
ffmpeg  -i  Desktop/input.mp4  -b:v 1M  Desktop/output.mp4
-b:v :指定视频的码率
-b:a : 指定音频的码率
1M:码率的值 1M 表示 1Mb/s

设置视频的分辨率
ffmpeg  -i  Desktop/input.mp4  -s 1920x1080  Desktop/output.mp4
-s 1920x1080表示分辨率为1920x1080

可以结合上面的命令一起来使用
ffmpeg  -i  Desktop/input.mp4  -s 1920x1080  -b:v 1M  -r 20  Desktop/output.mp4
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 修改视频帧率:
$ ffmpeg -i input.avi -r 24 output.avi  // 强制把输出视频文件帧率改为 24 fps: -r 帧率 
  • 1
  • 截图命令:
    截取一张352x240尺寸大小,格式为jpg的图片
$ ffmpeg -i input_file -y -f image2 -t 0.001 -s 352x240 output.jpg 
  • 1
  • 把视频的前30帧转换成一个Animated Gif
ffmpeg -i input_file -vframes 30 -y -f gif output.gif
  • 1
  • 在视频的第8.01秒出截取230x240的缩略图
ffmpeg -i input_file -y -f mjpeg -ss 8 -t 0.001 -s 320x240 output.jpg
  • 1
  • 每隔一秒截一张图
ffmpeg -i out.mp4 -f image2 -vf fps=fps=1 out%d.png
  • 1
  • 每隔20秒截一张图
ffmpeg -i out.mp4 -f image2 -vf fps=fps=1/20 out%d.png
  • 1
  • 多张截图合并到一个文件里(2x3)每隔一千帧(秒数=1000/fps25)即40s截一张图
ffmpeg -i out.mp4 -frames 3 -vf "select=not(mod(n\,1000)),scale=320:240,tile=2x3" out.png
  • 1
  • 从视频中生成GIF图片
ffmpeg -i out.mp4 -t 10 -pix_fmt rgb24 out.gif
  • 1
  • 从视频截选指定长度的内容生成GIF图片
ffmpeg -ss 3 -t 5 -i input.mp4 -s 480*270 -f gif out.gif
  • 1
  • 转换视频为图片(每帧一张图)
ffmpeg -i out.mp4 out%4d.png
  • 1
  • 图片转换为视频
ffmpeg -f image2 -i out%4d.png -r 25 video.mp4
  • 1
  • 切分视频并生成M3U8文件
ffmpeg -i input.mp4 -c:v libx264 -c:a aac -strict -2 -f hls -hls_time 20 -hls_list_size 0 -hls_wrap 0 output.m3u8
  • 1
  • 分离视频音频流
ffmpeg -i input_file -vcodec copy -an output_file_video    //分离视频流
ffmpeg -i input_file -acodec copy -vn output_file_audio    //分离音频流
  • 1
  • 2
  • 视频解复用
ffmpeg -i test.mp4 -vcoder copy -an -f m4v test.264
ffmpeg -i test.avi -vcoder copy -an -f m4v test.264
  • 1
  • 2
  • 视频转码
ffmpeg -i test.mp4 -vcoder h264 -s 352*278 -an -f m4v test.264    //转码为码流原始文件
ffmpeg -i test.mp4 -vcoder h264 -bf 0 -g 25 -s 352-278 -an -f m4v test.264    //转码为码流原始文件
ffmpeg -i test.avi -vcoder mpeg4 -vtag xvid -qsame test_xvid.avi    //转码为封装文件 -bf B帧数目控制, -g 关键帧间隔控制, -s 分辨率控制
  • 1
  • 2
  • 3
  • 视频封装
ffmpeg -i video_file -i audio_file -vcoder copy -acodec copy output_file
  • 1
  • 视频剪切
ffmpeg -i test.avi -r 1 -f image2 image.jpeg //视频截图
ffmpeg -i input.avi -ss 0:1:30 -t 0:0:20 -vcoder copy -acoder copy output.avi //剪切视频 -r 提取图像频率, -ss 开始时间, -t 持续时间
  • 1
  • 2
  • 视频录制
ffmpeg -i rtsp://hostname/test -vcoder copy out.avi
  • 1
  • 内容反转(reverse)
// For video only
ffmpeg -i input-file.mp4 -vf reverse output.mp4

// For audio and video:
ffmpeg -i input-file.mp4 -vf reverse -af areverse output.mp4
  • 1
  • 2
  • 3
  • 4
  • 5

参考文档

ffmpeg官网

FFmpeg 视频处理入门教程

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小桥流水78/article/detail/950094
推荐阅读
相关标签
  

闽ICP备14008679号