这里提供一个基本的Qt视频显示实验代码,使用了OpenCV库来捕获并处理视频帧,并在Qt界面上进行显示。你可以根据自己的需要进行修改和扩展。
#include <QApplication>
#include <QWidget>
#include <QLabel>
#include <opencv2/opencv.hpp>
int main(int argc, char *argv[])
{
QApplication app(argc, argv);
// 创建一个QWidget窗口
QWidget *widget = new QWidget();
widget->setFixedSize(640, 480); // 设置窗口大小
// 创建一个QLabel控件用于显示视频帧
QLabel *label = new QLabel(widget);
label->setGeometry(0, 0, 640, 480); // 设置标签位置和大小
// 打开摄像头
cv::VideoCapture cap(0);
if (!cap.isOpened()) {
qDebug() << "Failed to open camera!";
return -1;
}
while (true) {
cv::Mat frame;
cap >> frame; // 捕获一帧视频
if (frame.empty()) break;
// 进行颜色空间转换(将BGR格式转换为RGB格式)
cv::cvtColor(frame, frame, cv::COLOR_BGR2RGB);
// 将OpenCV图像数据转换为Qt图像数据
QImage img(frame.data, frame.cols, frame.rows,
static_cast<int>(frame.step), QImage::Format_RGB888);
// 在标签上显示图像
label->setPixmap(QPixmap::fromImage(img));
qApp->processEvents(); // 处理事件,避免界面卡死
}
// 释放摄像头资源
cap.release();
return app.exec();
}
上面的代码中,我们使用了一个无限循环来不断捕获视频帧,并进行处理和显示。在每次循环中,我们都将捕获到的视频帧转换为Qt图像数据,并在标签上显示出来。同时,我们也需要调用processEvents()
函数来及时处理事件,以避免界面卡死。
这只是一个简单的Qt视频显示实验代码示例。如果你想进一步扩展功能,可以考虑添加控件或按钮以便用户控制摄像头和视频播放等操作,或者对视频帧进行更复杂的处理和分析。