赞
踩
FFmpeg是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序。采用LGPL或GPL许可证。它提供了录制、转换以及流化音视频的完整解决方案。它包含了非常先进的音频/视频编解码库libavcodec,为了保证高可移植性和编解码质量,libavcodec里很多code都是从头开发的。框图下图所示
所谓封装格式是指音视频的组合格式,例如最常见的封装格式有mp4、mp3、flv等。简单来说,我们平时接触到的带有后缀的音视频文件都是一种封装格式。不同的封装格式遵循不同的协议标准。有兴趣的可以自行扩展。
以mp4为例,通常应该包含有视频和音频。视频的编码格式为YUV420P,音频的编码格式为PCM。再以YUV420编码格式为例。我们知道通常图像的显示为RGB(红绿蓝三原色),在视频压缩的时候会首先将代表每一帧画面的RGB压缩为YUV,再按照关键帧(I帧),过渡帧(P帧或B帧)进行运算和编码。解码的过程正好相反,解码器会读到I帧,并根据I帧运算和解码P帧以及B帧。并最终根据视频文件预设的FPS还原每一帧画面的RGB数据。最后推送给显卡。所以通常我们说的编码过程就包括:画面采集、转码、编码再封装。
FPS是图像领域中的定义,是指画面每秒传输帧数,通俗来讲就是指动画或视频的画面数。FPS太低画面会感觉闪烁不够连贯,FPS越高需要显卡性能越好。一些高速摄像机的采集速度能够达到11000帧/秒,那么在播放这类影片的时候我们是否也需要以11000帧/秒播放呢?当然不是,通常我们会按照25帧/秒或者60帧/秒设定图像的FPS值。但是由于视频存在关键帧和过渡帧的区别,关键帧保存了完整的画面而过渡帧只是保存了与前一帧画面的变化部分,需要通过关键帧计算获得。因此我们需要对每一帧都进行解码,即获取画面的YUV数据。同时只对我们真正需要显示的画面进行转码,即将YUV数据转换成RGB数据,包括计算画面的宽高等。但是音频则不然,音频的播放必须和采集保持同步。提高或降低音频的播放速度都会让音质发生变化,这也是变声器的原理。因此在实际开发中为了保证播放的音视频同步,我们往往会按照音频的播放速度来控制视频的解码转码速度。
下面是使用go-ffmpeg去编码视频的例子,语言是go语言,项目仓库地址
package main import ( "image" "log" "os" "github.com/alexdogonin/go-ffmpeg" ) func main() { const ( framerate = 25 codecID = ffmpeg.CodecIDMPEG4 resultName = "result.avi" videoWidth = 704 videoHeight = 576 durationSec = 8 ) f, err := os.Create(resultName) if err != nil { log.Fatalf("create result file error, %s", err) } defer f.Close() codec, err := ffmpeg.CodecByID(codecID) if err != nil { log.Fatalf("find codec %d error, %s", codecID, err) } codecCtx, err := ffmpeg.NewVideoCodecContext(codec, videoWidth, videoHeight, ffmpeg.YUV420P, ffmpeg.WithGopSize(10), ) if err != nil { log.Fatalf("initialize codec context error, %s", err) } defer codecCtx.Release() frame, err := ffmpeg.NewVideoFrame(videoWidth, videoHeight, ffmpeg.YUV420P) if err != nil { log.Fatalf("initialize frame error, %s", err) } defer frame.Release() frameImg := image.NewYCbCr(image.Rect(0, 0, videoWidth, videoHeight), image.YCbCrSubsampleRatio420) packet, err := ffmpeg.NewPacket() if err != nil { log.Fatalf("initialize packet error, %s", err) } defer packet.Release() totalFrames := framerate * durationSec for i := 0; i < totalFrames; i++ { fillFakeImg(frameImg, i) if err = frame.FillYCbCr(frameImg); err != nil { log.Fatalf("fill frame error, %s", err) } frame.SetPts(i) if err = codecCtx.SendFrame(frame); err != nil { log.Fatalf("send frame to encoding error, %s", err) } for codecCtx.ReceivePacket(packet) { if _, err := f.Write(packet.Data()); err != nil { log.Fatalf("write file error, %v", err) } packet.Unref() } if err = codecCtx.Err(); err != nil { log.Fatalf("receive packet error, %s", err) } } // flush if err = codecCtx.SendFrame(nil); err != nil { log.Fatalf("send frame to encoding error, %s", err) } for codecCtx.ReceivePacket(packet) { if _, err := f.Write(packet.Data()); err != nil { log.Fatalf("write file error, %v", err) } packet.Unref() } if err = codecCtx.Err(); err != nil { log.Fatalf("receive packet error, %s", err) } } func fillFakeImg(img *image.YCbCr, i int) { /* prepare a dummy image */ /* Y */ for y := 0; y < img.Bounds().Max.Y; y++ { for x := 0; x < img.Bounds().Max.X; x++ { img.Y[y*img.YStride+x] = uint8(x + y + i*3) } } /* Cb and Cr */ for y := 0; y < img.Bounds().Max.Y/2; y++ { for x := 0; x < img.Bounds().Max.X/2; x++ { img.Cb[y*img.CStride+x] = uint8(128 + y + i*2) img.Cr[y*img.CStride+x] = uint8(64 + x + i*5) } } }
ffmpeg [global_options] {[input_file_options] -i input_url} ... {[output_file_options] output_url} ... ffmpeg -i [输入文件名] [参数选项] -f [格式] [输出文件] 参数选项: (1) -an: 去掉音频 (2) -vn: 去掉视频 (3) -acodec: 设定音频的编码器,未设定时则使用与输入流相同的编解码器。音频解复用在一般后面加copy表示拷贝 (4) -vcodec: 设定视频的编码器,未设定时则使用与输入流相同的编解码器,视频解复用一般后面加copy表示拷贝 (5) –f: 输出格式(视频转码) (6) -bf: B帧数目控制 (7) -g: 关键帧间隔控制(视频跳转需要关键帧) (8) -s: 设定画面的宽和高,分辨率控制(352*278) (9) -i: 设定输入流 (10) -ss: 指定开始时间(0:0:05) (11) -t: 指定持续时间(0:05) (12) -b: 设定视频流量,默认是200Kbit/s (13) -aspect: 设定画面的比例 (14) -ar: 设定音频采样率 (15) -ac: 设定声音的Channel数 (16) -r: 提取图像频率(用于视频截图) (17) -c:v: 输出视频格式 (18) -c:a: 输出音频格式 (18) -y: 输出时覆盖输出目录已存在的同名文件 -vcoder 设定视频的编码器,未设定时则使用与输入流相同的编解码器
其他命令可通过 ffmpeg -h 查看,如下
$ ffmpeg -re -stream_loop -1 -i test.h264 -vcodec copy -acodec copy -f flv -y rtmp://ip:port/live/test
将视频压缩指定大小 ffmpeg -i Desktop/input.mp4 -fs 10MB Desktop/output.mp4 -fs 10 : 表示文件大小最大值为10MB 设置视频的帧率为20fps ffmpeg -i Desktop/input.mp4 -r 20 Desktop/output.mp4 -r 20:表示帧率设置为 20fps 设置视频的码率 ffmpeg -i Desktop/input.mp4 -b:v 1M Desktop/output.mp4 -b:v :指定视频的码率 -b:a : 指定音频的码率 1M:码率的值 1M 表示 1Mb/s 设置视频的分辨率 ffmpeg -i Desktop/input.mp4 -s 1920x1080 Desktop/output.mp4 -s 1920x1080表示分辨率为1920x1080 可以结合上面的命令一起来使用 ffmpeg -i Desktop/input.mp4 -s 1920x1080 -b:v 1M -r 20 Desktop/output.mp4
$ ffmpeg -i input.avi -r 24 output.avi // 强制把输出视频文件帧率改为 24 fps: -r 帧率
$ ffmpeg -i input_file -y -f image2 -t 0.001 -s 352x240 output.jpg
ffmpeg -i input_file -vframes 30 -y -f gif output.gif
ffmpeg -i input_file -y -f mjpeg -ss 8 -t 0.001 -s 320x240 output.jpg
ffmpeg -i out.mp4 -f image2 -vf fps=fps=1 out%d.png
ffmpeg -i out.mp4 -f image2 -vf fps=fps=1/20 out%d.png
ffmpeg -i out.mp4 -frames 3 -vf "select=not(mod(n\,1000)),scale=320:240,tile=2x3" out.png
ffmpeg -i out.mp4 -t 10 -pix_fmt rgb24 out.gif
ffmpeg -ss 3 -t 5 -i input.mp4 -s 480*270 -f gif out.gif
ffmpeg -i out.mp4 out%4d.png
ffmpeg -f image2 -i out%4d.png -r 25 video.mp4
ffmpeg -i input.mp4 -c:v libx264 -c:a aac -strict -2 -f hls -hls_time 20 -hls_list_size 0 -hls_wrap 0 output.m3u8
ffmpeg -i input_file -vcodec copy -an output_file_video //分离视频流
ffmpeg -i input_file -acodec copy -vn output_file_audio //分离音频流
ffmpeg -i test.mp4 -vcoder copy -an -f m4v test.264
ffmpeg -i test.avi -vcoder copy -an -f m4v test.264
ffmpeg -i test.mp4 -vcoder h264 -s 352*278 -an -f m4v test.264 //转码为码流原始文件
ffmpeg -i test.mp4 -vcoder h264 -bf 0 -g 25 -s 352-278 -an -f m4v test.264 //转码为码流原始文件
ffmpeg -i test.avi -vcoder mpeg4 -vtag xvid -qsame test_xvid.avi //转码为封装文件 -bf B帧数目控制, -g 关键帧间隔控制, -s 分辨率控制
ffmpeg -i video_file -i audio_file -vcoder copy -acodec copy output_file
ffmpeg -i test.avi -r 1 -f image2 image.jpeg //视频截图
ffmpeg -i input.avi -ss 0:1:30 -t 0:0:20 -vcoder copy -acoder copy output.avi //剪切视频 -r 提取图像频率, -ss 开始时间, -t 持续时间
ffmpeg -i rtsp://hostname/test -vcoder copy out.avi
// For video only
ffmpeg -i input-file.mp4 -vf reverse output.mp4
// For audio and video:
ffmpeg -i input-file.mp4 -vf reverse -af areverse output.mp4
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。