参考文章:https://www.jianshu.com/p/b30f07055e2e

下面命令行的作用时,拼接两个视频,一个视频为17秒,一个视频为4秒,将其拼接为视频会议模式(即一个视频源始终存在,另一个视频源在10秒后接入,持续4秒后挂断)期间第二个视频源位置为黑屏

ffmpeg -y -i C:\Users\Li\Desktop\rtc-1000008.webm -i C:\Users\Li\Desktop\rtc-1000009.webm 
-filter_complex  
"color=color=Black:size=1280x480:d=17.625,format=pix_fmts=yuv420p[bg];
color=color=Black:size=640x480:d=17.625,format=pix_fmts=yuv420p[n0-0-bg];
movie='C\:/Users/Li/Desktop/rtc-1000008.webm':stream_index=0,scale=w='iw*min(640/iw,480/ih)':h='ih*min(640/iw,480/ih)'[n0-0-fg];
[n0-0-bg][n0-0-fg]overlay=x=(W-w)/2:y=(H-h)/2[n0-0];
[n0-0]concat=n=1:v=1:a=0[s-0-0];
color=color=Black:size=640x480:d=10.343,fifo[s-0-1-hd];
color=color=Black:size=640x480:d=4.279,format=pix_fmts=yuv420p[n1-0-bg];
movie='C\:/Users/Li/Desktop/rtc-1000009.webm':stream_index=0,scale=w='iw*min(640/iw,480/ih)':h='ih*min(640/iw,480/ih)'[n1-0-fg];
[n1-0-bg][n1-0-fg]overlay=x=(W-w)/2:y=(H-h)/2[n1-0];
[n1-0]concat=n=1:v=1:a=0[s-0-1-bd];[s-0-1-hd][s-0-1-bd]concat,fifo[s-0-1];
[bg][s-0-0]overlay=x='0+(640-w)/2':y='0+(480-h)/2':eof_action=pass[bg+s-0-0];
[bg+s-0-0][s-0-1]overlay=x='640+(640-w)/2':y='0+(480-h)/2':eof_action=pass" 
-filter_complex 
"aevalsrc=0|0:d=0.0[a0b];[0:1]aresample=48000:async=1,afifo[a0-s0];[a0-s0]anull[a0m];aevalsrc=0|0:d=0.0[a0e];[a0b][a0m][a0e]concat=n=3:v=0:a=1,afifo[a0];aevalsrc=0|0:d=10.343[a1b];[1:1]aresample=48000:async=1,afifo[a1-s0];[a1-s0]anull[a1m];aevalsrc=0|0:d=3.3[a1e];[a1b][a1m][a1e]concat=n=3:v=0:a=1,afifo[a1];[a0][a1]amerge,pan=stereo|c0<c0+c1|c1<c2+c3,dynaudnorm=n=0:g=15:r=1.0"
 -c:v libx264 -preset superfast -crf 28 -r 15 -movflags +faststart -c:a aac C:\Users\Li\Desktop\20190624180636-000000004.mp4

每一个 -i [input]都作为一个输入流,在filter_-i image1.png//第一个水印图片中为 [0:v] [1:v] [2:v]…
对于 -i 与 0:v… 的解释 通过下面加水印的例子可以清楚:

ffmpeg -i input.mp4 -i image1.png -i image2.png -filter_complex [1:v]scale=100:100[img1];[2:v]scale=1280:720[img2];[0:v][img1]overlay=(main_w-overlay_w)/2:(main_h-overlay_h)/2[bkg];[bkg][img2]overlay=0:0 -y output.mp4

我们把他拆开,其实他由以下部分组成:

//1.起始

ffmpeg

//2.输入

-i input.mp4//这个是原始文件
-i image1.png//第一个水印图片
-i image2.png//第二个水印图片

//3.滤镜

-filter_complex [1:v]scale=100:100[img1];[2:v]scale=1280:720[img2];0:voverlay=(main_w-overlay_w)/2:(main_h-overlay_h)/2[bkg];bkgoverlay=0:0

//4.输出

-y output.mp4//输出文件

1、2、4部分的含义一目了然。3里头的scale和overlay也是字面的意思,不难理解。

然而,-filter_complex滤镜的参数结构就不是那么好理解了,比如说那一坨[]里头的东西是什么?

一个个解释

[1:v]这个里头两个参数,1表示的是操作对象的编号。在本例中0就是原始视频文件input.mp4,1就是image1.png,2就是image2.png,3就是output.mp4。而另一个参数v表示操作对象里的视频信息。

[img1]是这个操作过滤器的名字。(当然名字可以随便起)

所以这头一句[1:v]scale=100:100[img1]的意思就是对图片imagei.png进行调节尺寸的操作,并将这个操作的结果命名为img1。

后面的[2:v]和[img2]也是一个意思。

我们继续,overlay前面0:v凑一起是什么意思呢。

0自然就是指的原始视频,这句的意思就是将[img1]叠加到0对象的视频上。本例中就是把image1.png叠加到input.mp4上。

这里需要注意的就是顺序:后一个对象叠加到前一个上,后一个对象在上层。

如果写成img1,那相对本例其实就是把视频叠加到图片imge1.png上。这样的话一般来说由于视频通常是全屏,等于用视频覆盖了图片,水印完全看不到了。

好,我们又把这个操作的结果命名为[bkg],那么接下来bkg的意思就很明了了。就是把image2.png再叠加上去,image2.png是在最上层的,如果位置重合的话,他会遮盖 image1.png的水印。

NOTE: 在对封装格式的视频处理后,一定指明音频怎么处理,否则ffmpeg报错(未测出)

Cannot find a matching stream for unlabeled input pad 0 on filter
Parsed_drawtext_4

下面时正确的操作:

ffmpeg -i input.mp4 -filter_complex “movie=input.mp4:stream_index=0,scale=1280:480[ss];drawtext=fontfile=simhei.ttf:x=650:y=10:fontsize=24:text=‘easemob’:fontcolor=yellow:enable=‘between(t,10.343,14.622)’,scale=1280:480[a];[a]drawtext=fontfile=simhei.ttf:x=10:y=10:fontsize=24:text=‘easemob’:fontcolor=yellow,scale=1280:480[b];[ss][b]overlay=0:0” -c:v libx264 -preset superfast -crf 28 -r 15 -movflags +faststart -c:a aac -y C:\Users\Li\Desktop\20190624180636-000000005.mp4

使用filter_complex时,一定要保证多于两个视频或者音频源。否则不建议使用

filter_complex 部分参数说明:

  • color 是一种幕布,可以作为一个视频源,在文章一开始给的例子中,就作为一个视频源使用,它可以通过 d 参数设定它的持续时间。
  • movie 导入视频源,可以视频视频或者图片作为视频源。
  • overlay 叠加视频,可以指定叠加视频的相对位置
  • concat 拼接视频,可以将视频进行拼接
  • fifo 队列,用于排列视频,与concat 一同使用
  • scale=100:100 缩放
  • colorchannelmixer

为视频设置透明度的几种方案

format=yuva444p,colorchannelmixer=aa=0.5

ffmpeg -i a2.mp4 -i a3.mp4 -filter_complex [0:v]format=yuva444p,colorchannelmixer=aa=0.5[valpha];[1:v][valpha]overlay=(W-w)/2:(H-h)/2 -ss 0 -t 5  -y overlay4.mp4
# 将两个视频完全叠加在一起,上一层的视频透明度全透明(看不见)
ffmpeg -i a2.mp4 -i a3.mp4 -filter_complex "[1:v]format=yuva444p,colorchannelmixer=aa=0[hid];[0:v][hid]overlay=0:0" -y overlay4.mp4

对图片有效,经过测试

ffmpeg -i in4.png -i a3.mp4 -filter_complex [0:v]geq=a='122':lum='lum(X,Y)':cb='cb(X,Y)':cr='cr(X,Y)'[topV];[1:v][topV]overlay=(W-w)/2:(H-h)/2 -ss 0 -t 5 -y overlay3.mp4

同方案二,只是先将视频转换成一张张帧序列然后再使用方案二

此处经过测试,同样在ffmpeg 4.13下。Windows,Android,iOS 只有IOS下可以对视频进行geq,所以其他平台只能先转换成图片序列,然后再做geq

//此处经过测试,同样在ffmpeg 4.13下。Windows,Android,iOS 只有IOS下可以对视频进行geq
ffmpeg -i a2.mp4 -i a3.mp4 -filter_complex [0:v]geq=a='122':lum='lum(X,Y)':cb='cb(X,Y)':cr='cr(X,Y)'[topV];[1:v][topV]overlay=(W-w)/2:(H-h)/2 -ss 0 -t 5 -y overlay2.mp4

水印的移动:

这里需要用到时间参数。
比如:overlay=0+t*20:0
这里在x坐标上加上了+t*10,于是水印就会慢慢向右边移动。

特定时间显示水印:

这次不仅要用到时间参数,还要用上条件语句。

overlay=x='if(gte(t,2),10,NAN)':(main_h-overlay_h)/2

if条件语句的基本结构就是

if(条件,条件为true时的值,条件为false时的值)

再来看看计算表达式。
这里用到了表达式gte(x,y)。如果x大于等于y则表达式的值为1,反之为0。

所以if(gte(t,2),10,NAN)的意思就是,当时间大于等于2秒时,水印x位置为10,反之不显示水印。(或者你也可以用lte来判断“小于或等于”)

要了解所有表达式的话,可以去啃一下ffmpeg官方文档的Expression Evaluation部分。

标签: none

添加新评论