2024年8月30日消息:在人工智能技术的飞速发展中,阿里巴巴集团近日宣布开源其最新研发的视觉多模态模型——Qwen2-VL,标志着公司在AI领域的又一次重要突破。Qwen2-VL模型在多项性能测试中超越了包括OpenAI的GPT-4o和Anthropic的Claude3.5-Sonnet在内的多个著名闭源模型,展现出其卓越的技术实力。
Qwen2-VL模型亮点
多语言支持:Qwen2-VL模型支持中文、英文、日文、韩文等多种语言,为全球用户提供了更广泛的应用可能。
商业化友好:在Apache2.0协议下,Qwen2-VL允许商业化使用,极大地促进了模型的广泛应用和创新。
API发布:为了帮助开发者更好地利用Qwen2-VL模型,阿里巴巴同时发布了Qwen2-VL-72B的API,进一步降低了开发门槛。
技术特色与性能
Qwen2-VL模型基于上一代Qwen2进行开发,具备以下特色功能:
长视频理解:能够理解长达20分钟以上的视频内容,并应用于视频问答、对话和内容创作。
视觉智能体操作:集成到手机、机器人等设备,执行基于视觉环境和文字指令的自动操作。
多分辨率图像理解:在多个视觉理解基准测试中取得全球领先的表现,能够读懂不同分辨率和长宽比的图片。
在性能评估方面,Qwen2-VL的72B模型在大部分指标上超越了GPT-4o,尤其是在视频理解和多语言图像理解方面展现出色的表现。即使是7B模型,其性能也与GPT-4mini相当,在文档理解和多语言图像理解方面达到了行业领先水平。
架构创新
Qwen2-VL在架构上实现了对原生动态分辨率的全面支持,能够处理任意分辨率的图像输入。此外,模型采用了多模态旋转位置嵌入(M-ROPE)技术,有效提升了对一维文本序列、二维视觉图像以及三维视频的位置信息的捕捉和整合能力。
实际应用案例
阿里巴巴已经展示了Qwen2-VL在多个实际应用场景中的潜力,包括对长视频的详细解读和基于视频内容的实时问答。Qwen2-VL能够准确回答有关视频中特定事件的问题,甚至能够解读图像内容并回答相关问题。
结语
阿里巴巴开源Qwen2-VL模型,不仅展现了公司在AI技术上的深厚积累,也为全球开发者和企业提供了强大的多模态AI工具。随着Qwen2-VL的开源,预计将进一步推动多模态AI技术的发展和应用,为各行各业带来深远的影响。
本文来源于#网络,由@tom 整理发布。如若内容造成侵权/违法违规/事实不符,请联系本站客服处理!
该文章观点仅代表作者本人,不代表本站立场。本站不承担相关法律责任。
如若转载,请注明出处:https://www.zhanid.com/news/1764.html