李开复零一万物交出多模态视觉大模型答卷,领跑中英文两大权威榜单!
本次测评,距离该公司的首款开源大模型Yi-34B和Yi-6B的发布,仅间隔不到三个月的时间。
这次参与测评的大模型名为Yi Vision Language(Yi-VL),现已正式面向全球开源。新模型同属「Yi」系列,同样具有两个参数版本:Yi-VL-34B和Yi-VL-6B。
先来看两个例子,感受一波Yi-VL在图文对话等多元场景中的表现:
Yi-VL对整幅图做了详细分析,不仅说明了指示牌上的内容,甚至连“天花板”都有照顾到。
中文方面,Yi-VL也能清晰有条理地准确表达:
此外,官方也给出了测试结果:Yi-VL-34B在英文数据集MMMU上准确率41.6%,仅次于准确率55.7%的GPT-4V,超越一系列多模态大模型。
而在中文数据集CMMMU上,Yi-VL-34B准确率36.5%,领先于当前最前沿的开源多模态模型。
Yi-VL基于Yi语言模型研发,可以看到基于Yi语言模型的强大文本理解能力,只需对图片进行对齐,就可以得到不错的多模态视觉语言模型——这也是Yi-VL模型的核心亮点之一。
在架构设计上,Yi-VL模型基于开源LLaVA架构,包含三个主要模块:
图解:Yi-VL模型架构设计和训练方法流程一览
在训练方法上,Yi-VL模型的训练过程分为三个阶段,旨在全面提升模型的视觉和语言处理能力。
第一阶段,使用1亿张的“图像-文本”配对数据集训练ViT和Projection模块。
在这一阶段,图像分辨率被设定为224x224,以增强ViT在特定架构中的知识获取能力,同时实现与大型语言模型的高效对齐。
第二阶段,将ViT的图像分辨率提升至448x448,让模型更加擅长识别复杂的视觉细节。此阶段使用了约2500万“图像-文本”对。
第三阶段,开放整个模型的参数进行训练,目标是提高模型在多模态聊天互动中的表现。训练数据涵盖了多样化的数据源,共约100万“图像-文本”对,确保了数据的广泛性和平衡性。
零一万物技术团队同时也验证了可以基于Yi语言模型强大的语言理解和生成能力,用其他多模态训练方法比如BLIP、Flamingo、EVA等快速训练出能够进行高效图像理解和流畅图文对话的多模态图文模型。
Yi系列模型可以作为多模态模型的基座语言模型,给开源社区提供一个新的选项。同时,零一万物多模态团队正在探索从头开始进行多模态预训练,更快接近、超过GPT-4V,达到世界第一梯队水平。
目前,Yi-VL模型已在Hugging Face、ModelScope等平台上向公众开放,用户可亲身体验这款模型在图文对话等多元场景中的表现。
在全新多模态基准测试MMMU中,Yi-VL-34B、Yi-VL-6B两个版本均有不俗表现。
MMMU(大规模多学科多模态理解和推理)数据集包含了11500个来自六大核心学科,涵盖艺术与设计、商业、科学、健康与医学、人文与社会科学以及技术与工程的问题,涉及高度异构图像类型和交织文本图像信息,对模型的高级知觉和推理能力提出了极高要求。
而Yi-VL-34B在该测试集上以41.6%的准确率,成功超越了一系列多模态大模型,仅次于GPT-4V的55.7%,展现出强大的跨学科知识理解和应用能力。
同样,在针对中文场景打造的CMMMU数据集上,基于本土开发的Yi-VL模型展现了“更懂国人”的独特优势。
CMMMU包含了约12000道源自大学考试、测验和教科书的中文多模态问题。
其中,GPT-4V在该测试集上的准确率为43.7%, Yi-VL-34B以36.5%的准确率紧随其后,领先于当前最前沿的开源多模态模型。
模型项目在线体验地址:
https://huggingface.co/01-ai
上一篇:加速人工智能赛道布局!东莞市政府高规格召开新春第一场新闻发布会
2月6日下午,东莞市政府高规格召开新春第一场新闻发布会,发布解读2025年市政府一号文、二号文及“企莞家”平台、企业服务专员机制等重磅政策,积极回应就业、教育、医疗等领域社会关切,释放经济大市勇挑大梁、狠
李开复零一万物交出多模态视觉大模型答卷,领跑中英文两大权威榜单!在针对中文场景打造的CMMMU数据集上,展现了“更懂国人”的独特优势。
2025年,“世界工厂”东莞的工作重点是什么?2月6日下午,东莞市人民政府召开新闻发布会,发布2025年市政府“一号文”,正式揭晓答案。 2月6日下午,东莞市人民政府召开新闻发布会。潮新闻记者 郑信鸿 摄
近日,阿里又一个「跳舞模型」DreaMoving又火了——有手就能玩~用户只需上传一张人脸图像,输入提示词描述舞蹈场景,AI就能生成在任何地方跳舞的短片
马斯克去年8月在西点军校发表了演讲,他当时还与西点军校学术委员会主任、美国陆军准将Shane Reeves进行了一场炉边对话。马斯克当地时间周四在社交媒体X平台上发布了这段视频。 “当前乌克兰的战争已经在很大
1月20日晚间,英伟达CEO黄仁勋到访英伟达中国公司。他此行的主要目的,是参加NVIDIA的中国区年会,并且登台表演扭秧歌。
editGPT
Undetectable AI
Craftly.Ai
Textify
Yarnit
小码文书
小米创作
Yaara AI
WriteMe.ai
网站地图
李开复旗下零一万物发布世界顶尖多模态大模型Yi-VL:开源!视觉多模态测评表现仅次于GPT-4V
李开复零一万物交出多模态视觉大模型答卷,领跑中英文两大权威榜单!
本次测评,距离该公司的首款开源大模型Yi-34B和Yi-6B的发布,仅间隔不到三个月的时间。
这次参与测评的大模型名为Yi Vision Language(Yi-VL),现已正式面向全球开源。新模型同属「Yi」系列,同样具有两个参数版本:Yi-VL-34B和Yi-VL-6B。
先来看两个例子,感受一波Yi-VL在图文对话等多元场景中的表现:
Yi-VL对整幅图做了详细分析,不仅说明了指示牌上的内容,甚至连“天花板”都有照顾到。
中文方面,Yi-VL也能清晰有条理地准确表达:
此外,官方也给出了测试结果:Yi-VL-34B在英文数据集MMMU上准确率41.6%,仅次于准确率55.7%的GPT-4V,超越一系列多模态大模型。
而在中文数据集CMMMU上,Yi-VL-34B准确率36.5%,领先于当前最前沿的开源多模态模型。
Yi-VL长啥样?
Yi-VL基于Yi语言模型研发,可以看到基于Yi语言模型的强大文本理解能力,只需对图片进行对齐,就可以得到不错的多模态视觉语言模型——这也是Yi-VL模型的核心亮点之一。
在架构设计上,Yi-VL模型基于开源LLaVA架构,包含三个主要模块:
Vision Transformer(简称ViT)用于图像编码,使用开源的OpenClip ViT-H/14模型初始化可训练参数,通过学习从大规模”图像-文本”对中提取特征,使模型具备处理和理解图像的能力。Projection模块为模型带来了图像特征与文本特征空间对齐的能力。该模块由一个包含层归一化(layer normalizations)的多层感知机(Multilayer Perceptron,简称MLP)构成。这一设计使得模型可以更有效地融合和处理视觉和文本信息,提高了多模态理解和生成的准确度。Yi-34B-Chat和Yi-6B-Chat大语言模型的引入为 Yi-VL 提供了强大的语言理解和生成能力。该部分模型借助先进的自然语言处理技术,能够帮助Yi-VL深入理解复杂的语言结构,并生成连贯、相关的文本输出。图解:Yi-VL模型架构设计和训练方法流程一览
在训练方法上,Yi-VL模型的训练过程分为三个阶段,旨在全面提升模型的视觉和语言处理能力。
第一阶段,使用1亿张的“图像-文本”配对数据集训练ViT和Projection模块。
在这一阶段,图像分辨率被设定为224x224,以增强ViT在特定架构中的知识获取能力,同时实现与大型语言模型的高效对齐。
第二阶段,将ViT的图像分辨率提升至448x448,让模型更加擅长识别复杂的视觉细节。此阶段使用了约2500万“图像-文本”对。
第三阶段,开放整个模型的参数进行训练,目标是提高模型在多模态聊天互动中的表现。训练数据涵盖了多样化的数据源,共约100万“图像-文本”对,确保了数据的广泛性和平衡性。
零一万物技术团队同时也验证了可以基于Yi语言模型强大的语言理解和生成能力,用其他多模态训练方法比如BLIP、Flamingo、EVA等快速训练出能够进行高效图像理解和流畅图文对话的多模态图文模型。
Yi系列模型可以作为多模态模型的基座语言模型,给开源社区提供一个新的选项。同时,零一万物多模态团队正在探索从头开始进行多模态预训练,更快接近、超过GPT-4V,达到世界第一梯队水平。
目前,Yi-VL模型已在Hugging Face、ModelScope等平台上向公众开放,用户可亲身体验这款模型在图文对话等多元场景中的表现。
超越一系列多模态大模型
在全新多模态基准测试MMMU中,Yi-VL-34B、Yi-VL-6B两个版本均有不俗表现。
MMMU(大规模多学科多模态理解和推理)数据集包含了11500个来自六大核心学科,涵盖艺术与设计、商业、科学、健康与医学、人文与社会科学以及技术与工程的问题,涉及高度异构图像类型和交织文本图像信息,对模型的高级知觉和推理能力提出了极高要求。
而Yi-VL-34B在该测试集上以41.6%的准确率,成功超越了一系列多模态大模型,仅次于GPT-4V的55.7%,展现出强大的跨学科知识理解和应用能力。
同样,在针对中文场景打造的CMMMU数据集上,基于本土开发的Yi-VL模型展现了“更懂国人”的独特优势。
CMMMU包含了约12000道源自大学考试、测验和教科书的中文多模态问题。
其中,GPT-4V在该测试集上的准确率为43.7%, Yi-VL-34B以36.5%的准确率紧随其后,领先于当前最前沿的开源多模态模型。
模型项目在线体验地址:
https://huggingface.co/01-ai
上一篇:加速人工智能赛道布局!东莞市政府高规格召开新春第一场新闻发布会
加速人工智能赛道布局!东莞市政府高规格召开新春第一场新闻发布会
2月6日下午,东莞市政府高规格召开新春第一场新闻发布会,发布解读2025年市政府一号文、二号文及“企莞家”平台、企业服务专员机制等重磅政策,积极回应就业、教育、医疗等领域社会关切,释放经济大市勇挑大梁、狠
李开复旗下零一万物发布世界顶尖多模态大模型Yi-VL:开源!视觉多模态测评表现仅次于GPT-4V
李开复零一万物交出多模态视觉大模型答卷,领跑中英文两大权威榜单!在针对中文场景打造的CMMMU数据集上,展现了“更懂国人”的独特优势。
东莞2025年“一号文”发布 聚焦“人工智能+先进制造”
2025年,“世界工厂”东莞的工作重点是什么?2月6日下午,东莞市人民政府召开新闻发布会,发布2025年市政府“一号文”,正式揭晓答案。 2月6日下午,东莞市人民政府召开新闻发布会。潮新闻记者 郑信鸿 摄
宅舞区UP破防!阿里发布AI视频模型DreaMoving:一张人脸图像生成视频,能让任何人在任何地方起舞,流畅动作纵享丝滑
近日,阿里又一个「跳舞模型」DreaMoving又火了——有手就能玩~用户只需上传一张人脸图像,输入提示词描述舞蹈场景,AI就能生成在任何地方跳舞的短片
马斯克:无人机和人工智能将主导未来战争 美国要加大投资
马斯克去年8月在西点军校发表了演讲,他当时还与西点军校学术委员会主任、美国陆军准将Shane Reeves进行了一场炉边对话。马斯克当地时间周四在社交媒体X平台上发布了这段视频。 “当前乌克兰的战争已经在很大
刷屏!「AI算力皇帝」英伟达CEO黄仁勋访问中国:脱下皮衣身穿东北大花袄扭秧歌,但不是AI生成?
1月20日晚间,英伟达CEO黄仁勋到访英伟达中国公司。他此行的主要目的,是参加NVIDIA的中国区年会,并且登台表演扭秧歌。
editGPT
Undetectable AI
Craftly.Ai
Textify
Yarnit
小码文书
小米创作
editGPT
Undetectable AI
Craftly.Ai
Textify
Yarnit
小码文书
小米创作
Yaara AI
WriteMe.ai