苗嘉惠 发表于 2025-8-15 07:14:54

VideoPipe中集成多模态大模型做视频(图片)分析

VideoPipe是一个用于视频分析和结构化的框架,采用 C++ 编写、依赖少、易上手。它像管道一样,其中每个节点相互独立并可自行搭配,VideoPipe可用来构建不同类型的视频分析应用,适用于视频结构化、图片搜索、人脸识别、交通/安防领域的行为分析(如交通事件检测)等场景。

VideoPipe项目仓库中已经提供了50多个集成传统AI算法模型的Sample源码,涉及到车牌识别、人脸识别、违章检测、图搜、OCR、AI变脸、目标检测、图像分类、图像分割等各个领域。在大模型逐渐成为主流的今天(多模态大模型赋能传统AI视觉算法领域中表现优秀),VideoPipe也支持大模型集成啦,这次重点介绍VideoPipe如何集成多模态大模型来完成视频(图片)分析相关任务。
快速开始
下面基于VideoPipe和阿里云qwen-vl多模态大模型实现一个简单的图片理解的功能:从本地磁盘读取图片序列(现实场景中可以从网络获取图片或视频数据),大模型根据事先定义的Prompt提示词,对图片进行识别理解,依次对图片进行标签化,然后将标签化结果叠加到图片下方,最后显示结果。
1、创建VideoPipe节点类型(事先准备好aliyun大模型服务api_key)
2、将节点串起来,组成Pipeline管道
3、启动管道(一共55行代码)
1 #include "../nodes/vp_image_src_node.h"
2 #include "../nodes/infers/vp_mllm_analyser_node.h"
3 #include "../nodes/osd/vp_mllm_osd_node.h"
4 #include "../nodes/vp_screen_des_node.h"
5 #include "../nodes/vp_rtmp_des_node.h"
6
7 #include "../utils/analysis_board/vp_analysis_board.h"
8
9 /*
10 * ## mllm_analyse_sample_openai ##
11 * image(frame) analyse based on Multimodal Large Language Model(from aliyun or other OpenAI-compatible api services).
12 * read images from disk and analyse the image using MLLM using the prepared prompt.
13 */
14 int main() {
15   VP_SET_LOG_INCLUDE_CODE_LOCATION(false);
16   VP_SET_LOG_INCLUDE_THREAD_ID(false);
17   VP_SET_LOG_LEVEL(vp_utils::vp_log_level::INFO);
18   VP_LOGGER_INIT();
19
20   // create nodes
21   auto image_src_0 = std::make_shared<vp_nodes::vp_image_src_node>("image_file_src_0",
22                                                                     0,
23                                                                     "./vp_data/test_images/llm/understanding/%d.jpg",
24                                                                     2,
25                                                                     0.5);
26   auto writing_prompt = "给图片打标签,要求包含:\n"
27                           "1. 先仔细观察图片内容,为图片赋予适合的标签\n"
28                           "2. 给出的标签最多不超过10个\n"
29                           "3. 输出按以下格式:\n"
30                           "通过仔细观察图片,可以为图片赋予这些标签:['标签1', '标签2', '标签3']。";
31   auto mllm_analyser_0 = std::make_shared<vp_nodes::vp_mllm_analyser_node>("mllm_analyser_0",// node name
32                           "qwen-vl-max",                                       // mllm model name (support image as input)
33                           writing_prompt,                                    // prompt
34                           "https://dashscope.aliyuncs.com/compatible-mode/v1", // api base url
35                           "sk-XXX",                                          // api key (from aliyun)
36                           llmlib::LLMBackendType::OpenAI);                     // backend type
37   auto mllm_osd_0 = std::make_shared<vp_nodes::vp_mllm_osd_node>("osd_0",
38                         "./vp_data/font/NotoSansCJKsc-Medium.otf");
39   auto screen_des_0 = std::make_shared<vp_nodes::vp_screen_des_node>("screen_des_0", 0);
40
41   // construct pipeline
42   mllm_analyser_0->attach_to({image_src_0});
43   mllm_osd_0->attach_to({mllm_analyser_0});
44   screen_des_0->attach_to({mllm_osd_0});
45
46   image_src_0->start();
47
48   // for debug purpose
49   vp_utils::vp_analysis_board board({image_src_0});
50   board.display(1, false);
51
52   std::string wait;
53   std::getline(std::cin, wait);
54   image_src_0->detach_recursively();
55 }运行效果
管道运行起来之后,大模型分析节点根据事先定义好的参数(模型名称、提示词、api_key)访问大模型服务,并解析大模型输出,随后显示节点将大模型输出绘制到图片中,并在控制台实时打印。VideoPipe目前支持的大模型后端有:OpenAI协议兼容服务、Ollama/vLLM本地部署服务。(视频效果参见官网)


来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
页: [1]
查看完整版本: VideoPipe中集成多模态大模型做视频(图片)分析