内核ffmpeg除了支持本地文件、网络文件、各种视频流播放以外,还支持打开本地摄像头,和正常的解析流程一致,唯一的区别就是在avformat_open_input第三个参数传入个AVInputFormat参数,这个参数用于指定输入设备的格式,不同系统对应不同的格式名称,windows上是dshow或者vfwcap,linux上是video4linux2或者v4l2,mac上是avfoundation。同时本地摄像头涉及到分辨率帧率等参数的设置,这个需要在最开始调用av_dict_set的时候就设置好,用video_size来设置分辨率,格式是 640x480 这样,用framerate来设置帧率,以上的几个参数成功生效的前提是要设备本身支持对应的分辨率帧率等,比如设备本身只有720P你硬是要设置个1080P的分辨率那肯定不行的,应该会打印I/O error这类错误提示。
这里有个插曲要说下,老早以前就用ffmpeg打开了本地摄像头解析,是在windows上实现的,尽管其他系统也设置了对应的格式,但是始终无法打开,要注意两点,第一点就是必须用动态库,静态库的ffmpeg中默认无法继承本地摄像头的支持,所以在编译期间就会报错。第二点就是填入的url地址是不需要video=开头的,在windows上需要用video=开头,所以要做个区分处理,比如windows上是 video=USB Video Device,而linux上直接是 /dev/video0 。
公众号:Qt实战,各种开源作品、经验整理、项目实战技巧,专注Qt/C++软件开发,视频监控、物联网、工业控制、嵌入式软件、国产化系统应用软件开发。
公众号:Qt入门和进阶,专门介绍Qt/C++相关知识点学习,帮助Qt开发者更好的深入学习Qt。多位Qt元婴期大神,一步步带你从入门到进阶,走上财务自由之路。



void CameraThreadFFmpeg::initCamera()
{
//https://blog.csdn.net/weixin_37921201/article/details/120357826
//命令行打开 ffplay -f dshow -i video="USB Video Device" -s 1280x720 -framerate 30
//启动计时
timer.restart();
//参数字典
AVDictionary *options = NULL;
//设置分辨率
QString size = QString("%1x%2").arg(videoWidth).arg(videoHeight);
av_dict_set(&options, "video_size", size.toUtf8().constData(), 0);
//设置帧率
if (frameRate > 0) {
av_dict_set(&options, "framerate", QString::number(frameRate).toUtf8().constData(), 0);
}
//设置输入格式(前提是要对应设备对应平台支持)
//av_dict_set(&options, "input_format", "mjpeg", 0);
//设置图像格式(有些设备设置了格式后帧率上不去)
//av_dict_set(&options, "pixel_format", "yuyv422", 0);
//打印设备列表
//FFmpegHelper::showDevice();
//打印设备参数
//FFmpegHelper::showOption(cameraName);
//实例化格式处理上下文
formatCtx = avformat_alloc_context();
AVInputFormatx *ifmt = NULL;
QByteArray url = cameraName.toUtf8();
#if defined(Q_OS_WIN)
//ifmt = av_find_input_format("vfwcap");
ifmt = av_find_input_format("dshow");
url = QString("video=%1").arg(cameraName).toUtf8();
#elif defined(Q_OS_LINUX)
//ifmt = av_find_input_format("v4l2");
ifmt = av_find_input_format("video4linux2");
#elif defined(Q_OS_MAC)
ifmt = av_find_input_format("avfoundation");
#endif
int result = avformat_open_input(&formatCtx, url.data(), ifmt, &options);
av_dict_free(&options);
if (result < 0) {
debug("打开地址", "错误: 打开出错 " + FFmpegHelper::getError(result));
return;
}
//获取流信息
result = avformat_find_stream_info(formatCtx, NULL);
if (result < 0) {
debug("打开地址", "错误: 找流失败 " + FFmpegHelper::getError(result));
return;
}
//获取最佳流索引
AVCodecx *videoCodec;
videoIndex = av_find_best_stream(formatCtx, AVMEDIA_TYPE_VIDEO, -1, -1, NULL, 0);
if (videoIndex < 0) {
debug("打开地址", "错误: 未找到视频流");
return;
}
//获取视频流
AVStream *videoStream = formatCtx->streams[videoIndex];
//查找视频解码器(如果上面av_find_best_stream第五个参数传了则这里不需要)
AVCodecID codecID = FFmpegHelper::getCodecID(videoStream);
videoCodec = avcodec_find_decoder(codecID);
//videoCodec = avcodec_find_decoder_by_name("h264");
if (!videoCodec) {
debug("打开地址", "错误: 查找视频解码器失败");
return;
}
//创建视频流解码器上下文
videoCodecCtx = avcodec_alloc_context3(videoCodec);
if (!videoCodecCtx) {
debug("打开地址", "错误: 创建视频解码器上下文失败");
return;
}
result = FFmpegHelper::copyContext(videoCodecCtx, videoStream, false);
if (result < 0) {
debug("打开地址", "错误: 设置视频解码器参数失败");
return;
}
//设置解码器参数
videoCodecCtx->flags |= AV_CODEC_FLAG_LOW_DELAY;
videoCodecCtx->flags |= AV_CODEC_FLAG_GLOBAL_HEADER;
videoCodecCtx->flags2 |= AV_CODEC_FLAG2_FAST;
//打开视频解码器
result = avcodec_open2(videoCodecCtx, videoCodec, NULL);
if (result < 0) {
debug("打开地址", "错误: 打开视频解码器失败 " + FFmpegHelper::getError(result));
return;
}
//获取实际分辨率大小
FFmpegHelper::getResolution(videoStream, videoWidth, videoHeight);
//如果没有获取到宽高则返回
if (videoWidth <= 0 || videoHeight <= 0) {
debug("打开地址", "错误: 获取宽度高度失败");
return;
}
//获取最终真实的帧率
frameRate = av_q2d(videoStream->r_frame_rate);
QString msg = QString("索引: %1 解码: %2 帧率: %3 宽高: %4x%5").arg(videoIndex).arg(videoCodec->name).arg(frameRate).arg(videoWidth).arg(videoHeight);
debug("视频信息", msg);
openCamera();
}