1. 从rtsp流种取出一帧:
ffmpeg -stimeout 10000000 -rtsp_transport tcp -loglevel quiet -y -i $rtsp -vframes 1 /home/xx/xx/snapshot/.$mac\_snapshot_tmp.jpg; mv -f /home/xx/xx/.$mac\_snapshot_tmp.jpg /home/xx/xx/snapshot/$mac\_snapshot.jpg
2.从mp4、ts里取出一帧:
ffmpeg -loglevel quiet -y -i 1.ts/1.mp4 -vframes 1 snapshot_tmp.jpg
3.拉流
ffmpeg硬编解码:强行转1280x720p, 5帧,码率512K
在ubuntu18.04.3上,直接安装aac这个库: sudo apt install libfdk-aac1
在ubunut20.4上,需要升级内核,步骤如下:
1. sudo apt install linux-oem-20.04
2. sudo apt install libfdk-aac1
3. sudo usermod -a -G video, render cue ---添加用户权限
4. reboot后:
codec:
h264_qsv h264
hevc_qsv h265
ffmpeg -stimeout 10000000 -rtsp_transport tcp -loglevel quiet -hwaccel qsv -c:v h264_qsv -i rtsp://admin:admin@192.168.1.103/h264/ch2/sub/av_stream -vf vpp_qsv=framerate=5,scale_qsv=w=1280:h=720 -c:v h264_qsv -b:v 512K -g 10 -f flv -an rtmp://127.0.0.1/cams/C7387555012982394
ffmpeg -stimeout 10000000 这个超时是读rtsp流的超时参数
最近遇到问题,使用硬件加速ffmpeg
1. 看直播,画面是慢放,解决方式:vpp_qsv=framerate=5 =====> fps=fps=5.
这个https://github.com/Intel-Media-SDK/MediaSDK/issues/1768
2. ts切边不生成了,拉流报错。
暂时解决方式:a 方式 参考 https://blog.csdn.net/Kami_Jiang/article/details/115733588
ffmpeg -stimeout 10000000 -rtsp_transport tcp -loglevel quiet -hwaccel qsv -c:v h264_qsv -i rtsp://admin:admin@192.168.1.103/h264/ch2/sub/av_stream -vf vpp_qsv=framerate=5,scale_qsv=w=1280:h=720 -c:v h264_qsv -b:v 512K -g 10 -rw_timeout 5000000 -f flv -an rtmp://127.0.0.1/cams/C7387555012982394
加了-rw_timeout 5000000 写超时的参数
b方式 这是错误日志 av_interleaved_write_frame(): Broken pipe
Error writing trailer of rtmp://127.0.0.1/cams/C6ba802bbacecb67e: Broken pipe
然后在ffmpeg代码这处,加直接退出代码,然后重新编译ffmpeg
c. 直接写个守护脚本,定时查看有没有ts文件生成,没有的话,重启进程。
3. 使用media sdk的ffmpeg硬编解码,如果rtsp流的分辨率是1280x720 ---->1280x720的,有绿条
解决措施:参数修改
scale_qsv filter would always try to encode video even the resolution is same.
vpp_qsv filtere will bypass upon same resolution
5.1韩国摄像头,在h264_qsv报错了
这种摄像头是h264 high profile,普通摄像头是main profile,qsv对high profile支持不好
解决措施:就是先转 -f mpegts格式,再管道过去再执行:
/home/cue/ffmpeg_qsv/ffmpeg -timeout 10000000 -rtsp_transport tcp -i "rtsp://xxxx:xxxxx@10.255.255.8/stream1" -vcodec copy -an -f mpegts -| /home/cue/ffmpeg_qsv/ffmpeg -hwaccel qsv -c:v h264_qsv -f mpegts -i pipe: -vf fps=fps=5,vpp_qsv=w=1280:h=720,format=yuv420p -c:v h264_qsv -b:v 1M -g 10 -rw_timeout 5000000 -f flv -an "rtmp://127.0.0.1/cams/tt"
5.2. ffmpep报错:av_interleaved_write_frame(): Broken pipe :https://blog.csdn.net/qq_23282479/article/details/107579597
运行3路ffmpeg正常,一超过3路,就报上面的错误
应该是网络带宽问题, 网络只协商出10M带宽,所以无法拉超过3路,改2路
还有也解决措施:就是修改客户的相机参数,将码率(比特率)调低点
5.3 : 拉流报错
升级了jelly-fin ffmpeg版本,(https://trac.ffmpeg.org/ticket/9970)
5.4 [ rtsp @ 0x583870055c00] method SETUP failed: 500 Internal Server Error
rtsp://xx:xx@ip/ddwqqwe: Server returned 5XX Server Error reply
问题: 摄像头上的rtsp server 问题
处理: 将拉流进程停止个适当的时间,然后就拉流正常一会(大几个小时),也没其它办法应该。或者重启摄像头试试。
6.相机有的用户名或者密码有特殊字符的,需要url编码下,我的进程是用supervidord管理的,配置文件里有url编码过的,supervisord不识别,就是不识别%,而supervisord的转义是用%,所以需要再%前再加一个%转义
7. 将相机的编码类型改为变码率,视频流,即可拉到流,具体原因没弄清楚
反正是各种poc项目,各种问题,各种的摄像头厂商,现场各种网络问题
https://www.jianshu.com/p/3964b332e954 ffmpeg 使用arm rockship的硬件加速,没有交叉编译,直接在arm上编译的
使用rockship的ffmpeg 硬件加速,使用supervisorctl stop进程(之前使用ffmpeg的管道的时候),产生孤儿进程:
需要再进程配置文件里配置这2个参数
stopasgroup=true, 进程被杀,是否向进程组发送stop信号,包括子进程
killasgroup=true 向进程组发送kill信号,包括子进程
正常 的copy:
ffmpeg -stimeout 10000000 -rtsp_transport tcp -loglevel quiet -i rtsp://admin:admin@192.168.1.109/h264/ch2/main/av_stream -c copy -f flv -an rtmp://127.0.0.1/cams/C95d94d6a3ced8e31
usb可见光相机使用ffmpeg推流:
dev=/dev/videoX; res=1920x1080
多使用参数:
-f v4l2 -----v4l2框架
-pix_fmt yuv420p ---- 像素格式
exec nice -n 10 /usr/bin/ffmpeg -f v4l2 -s "$res" -r $rate -loglevel quiet -i $dev -g $gop -pix_fmt yuv420p -c:v libx264 -b:v 800K -maxrate 1000K -bufsize 800K -preset ultrafast -f flv "rtmp://127.0.0.1/cams/$camid" >/dev/null 2>&1
使用h265的:
4.合成视频
file.txt
file '/path/to/video1.mp4'
file '/path/to/video1.mp4'
file '/path/to/video1.mp4'
ffmpeg -f concat -i file.txt -c copy output.mp4
ffmpeg -y -loglevel quiet -i $FILE_OUTPUT -vcodec copy -c copy -an $MP4_OUTPUT
FILE_OUPUT:m3u8文件
5 视频转化
ffmpeg -i 1.avi -c copy -map O video.mp4
6. 移动侦测
exec nice -n 10 /usr/bin/ffmpeg -y -f x11grab -s "$res" -r $rate -loglevel quiet -i :0.0 -vcodec libx264 -preset ultrafast -vf "scale=iw*$scale:ih*$scale,select=gt(scene\,0.003),setpts=N/($rate*TB)" -g $gop -f hls -start_number 0 -hls_flags append_list -hls_time $seg_size -hls_list_size $seg_list -an -use_localtime 1 -hls_segment_filename "$hls_dir/%s000.ts" $hls_dir/index.m3u8 >/dev/null 2>&1
帧变化值,慢慢调式来的
移动侦测: 比较2帧前后的变化,变化大了,就开始录屏
https://blog.csdn.net/xuheazx/article/details/51969535?utm_medium=distribute.pc_relevant.none-task-blog-2~default~baidujs_baidulandingword~default-8.queryctr&spm=1001.2101.3001.4242.5&utm_relevant_index=11 这个很全ffmpeg参数使用说明
https://www.cnblogs.com/Finley/p/8646711.html
https://www.xiebruce.top/1159.html
此链接是ffmpeg学习
在视频上加时间戳
ffmpeg -t 5 -i input.mp4 -vf “drawtext=fontsize=160:text=’%{pts:hms}’” -c:v libx264 -an -f mp4 output.mp4 -y
-re 以本地帧频读数据,主要用于模拟捕获设备
视频是h264格式的,ffmpeg命令能拉取rtsp流,保存为h264的裸码流 ffmpeg -re -i rtsp://xxx/xx/xxx out.h264
参考:https://blog.csdn.net/leixiaohua1020/article/details/12751349
https://github.com/0voice/ffmpeg_develop_doc 推荐个零声学院的ffmpeg文档
https://juejin.cn/post/7034411980316213256 arm