文章来源:智汇AI 发布时间:2025-09-05
InternVL3.5 本次开源有 9 种尺寸的模型,参数涵盖 10 亿-2410 亿,可满足各场景需求。其中,旗舰模型 InternVL3.5-241B-A28B 在多学科推理基准 MMMU 中获 77.7 分,为开源模型中最高分;多模态通用感知能力超越 GPT-5,文本能力领跑主流开源多模态大模型。
暂无访问智汇AI9月3日消息,上海人工智能实验室(上海AI实验室)今日宣布开源通用多模态大模型书生・万象3.5(InternVL3.5),其推理能力、部署效率与通用能力全面升级。
InternVL3.5本次开源有9种尺寸的模型,参数涵盖10亿-2410亿,可满足各场景需求。其中,旗舰模型InternVL3.5-241B-A28B在多学科推理基准MMMU中获77.7分,为开源模型中最高分;多模态通用感知能力超越GPT-5,文本能力领跑主流开源多模态大模型。
与InternVL3.0相比,InternVL3.5在图形用户界面(GUI)智能体、具身空间感知、矢量图像理解与生成等多种特色任务上实现显著提升。
本次升级,上海AI实验室研究团队重点强化了InternVL3.5面向实际应用的智能体与文本思考能力,在GUI交互、具身空间推理和矢量图形处理等多个关键场景实现从“理解”到“行动”的跨越,并得到多项评测验证。
GUI交互部分,InternVL3.5在ScreenSpot-v2元素定位任务以92.9分超越同类模型,同时支持Windows/Ubuntu自动化操作,并在WindowsAgentArena任务大幅领先Claude-3.7-Sonnet。
在具身智能体测试中,InternVL3.5表现出理解物理空间关系并规划导航路径的能力,在VSI-Bench以69.5分超过Gemini-2.5-Pro。
在矢量图形理解与生成方面,InternVL3.5在SGP-Bench以70.7分刷新开源纪录,生成任务FID值也优于GPT-4o和Claude-3.7-Sonnet。
具体来看,InternVL3.5可跨Windows、Mac、Ubuntu、Android等多个平台,识别界面元素并自主执行鼠标、键盘操作,实现恢复已删除文件、导出PDF、邮件添加附件等任务的自动化。
InternVL3.5具备更强的grounding能力,可以泛化到全新的复杂大量小样本的具身场景,配合抓取算法,支持可泛化的长程物体抓取操作,助力机器人更高效地完成物品识别、路径规划与物理交互。
作为上海AI实验室书生大模型体系的重要组成部分,InternVL聚焦视觉模型技术,InternVL全系列全网下载量已突破2300万次。
智汇AI附开源地址:
技术报告链接:https://huggingface.co/papers/2508.18265
代码开源/模型使用方法:https://github.com/OpenGVLab/InternVL
模型地址:https://huggingface.co/OpenGVLab/InternVL3_5-241B-A28B
在线体验链接:https://chat.intern-ai.org.cn/