以下是一些视频理解能力较好的模型:
[heading4]Qwen2.5-VL模型-AI视觉智能体能力大幅增强[content]版本:3B、7B和72B三个尺寸版本主要优势:视觉理解能力:在13项权威评测中夺得视觉理解冠军,全面超越GPT-4o与Claude3.5。视频理解能力:支持超1小时的视频理解,无需微调即可变身为AI视觉智能体,实现多步骤复杂操作。万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的JSON格式输出。全面的文字识别和理解:提升OCR识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。Qwen特色文档解析:设计了更全面的文档解析格式,称为QwenVL HTML格式,能够精准还原文档中的版面布局。增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。开源平台:Huggingface:https://huggingface.co/collections/Qwen/qwen25-vl-6795ffac22b334a837c0f9a5Modelscope:https://modelscope.cn/collections/Qwen25-VL-58fbb5d31f1d47Qwen Chat:https://chat.qwenlm.ai
第四,大语言模型最牛的是,它不是填空机,而是能完整地理解这个世界的知识。这次很多人从技术上、从产品体验上分析Sora,强调它能输出60秒视频,保持多镜头的一致性,模拟自然世界和物理规律,实际这些都比较表象,最重要的是Sora的技术思路完全不一样。因为这之前我们做视频做图用的都是Diffusion,你可以把视频看成是多个真实图片的组合,它并没有真正掌握这个世界的知识。现在所有的文生图、文生视频都是在2D平面上对图形元素进行操作,并没有适用物理定律。但Sora产生的视频里,它能像人一样理解坦克是有巨大冲击力的,坦克能撞毁汽车,而不会出现汽车撞毁坦克这样的情况。所以我理解这次OpenAl利用它的大语言模型优势,把LLM和Diffusion结合起来训练,让Sora实现了对现实世界的理解和对世界的模拟两层能力,这样产生的视频才是真实的,才能跳出2D的范围模拟真实的物理世界。这都是大模型的功劳。这也代表未来的方向。有强劲的大模型做底子,基于对人类语言的理解,对人类知识和世界模型的了解,再叠加很多其他的技术,就可以创造各个领域的超级工具,比如生物医学蛋白质和基因研究,包括物理、化学、数学的学科研究上,大模型都会发挥作用。这次Sora对物理世界的模拟,至少将会对机器人具身智能和自动驾驶带来巨大的影响。原来的自动驾驶技术过度强调感知层面,而没有工作在认知层面。其实人在驾驶汽车的时候,很多判断是基于对这个世界的理解。比如对方的速度怎么样,能否发生碰撞,碰撞严重性如何,如果没有对世界的理解就很难做出一个真正的无人驾驶
混元的语义理解,是我觉得在所有的AI视频大模型里,都能排到前列的。看这个Prompt:一只银渐层在游乐园里奔跑,跳到一个小女孩的怀里。看着简单,但是其实蛮多坑。银渐层、游乐园、奔跑、跳、小女孩、怀里。这些个关键词,其实都不好理解,更别提跑着跑着跳到小女孩怀里这种操作了。首先要准确识别出银渐层这个特定品种的猫,还得理解它在游乐园这个复杂场景中的运动轨迹。更难的是,模型需要精准捕捉从奔跑到跳跃的动作转换,还要准确把握跳入怀中这个互动场景的空间关系。这个能完美还原,就挺牛逼的。还有这个case:45度俯拍,一位紫衣女修在竹林中抚琴,琴音化作七彩音符在空中飘荡。翠竹摇曳,月光如水。虽然这个七彩音符加的吧,总会让我想起一些非常古早的渐变PPT,但是咱们忽略审美的事,你会发现,混元都给你还原出来了,45度俯拍、紫衣、抚琴。还有那句最重要的:琴音化作七彩音符在空中飘荡。你如果用其他AI视频都把这个Prompt跑一遍,你就知道,能精准的出现七彩音符这事,有多难了。还有一个我超级喜欢的case:星系边缘,宇宙战舰引爆反物质引擎。能量涟漪以光速扩散,撕裂周围星体。这个镜头,是我幻想过,在科幻片里看到的一幕。而现在,是由AI,给我精准的还原出来了。就是我心中的,奇点爆炸。