Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

帮我查一下这四家主流大模型的应用能力评测报告吧,通用能力和单项能力都可,数据需要权威一些文心一言 文心一格 通义千问 通义万相 讯飞星火 ai小科 智谱

Answer

以下是为您找到的关于主流大模型应用能力评测的相关报告:

  • 小七姐的测评:
    • 测评机制:以同组提示词下 ChatGPT 4.0 生成的内容做对标参照,对智谱清言、文心一言 4.0、Kimi Chat 进行测评。
    • 能力考量:包括复杂提示词理解和执行(结构化提示词)、推理能力(CoT 表现)、文本生成能力(写作要求执行)、提示词设计能力(让模型设计提示词)、长文本归纳总结能力(论文阅读)。
    • 测评轮次:共分为五轮,分别针对不同的任务和模型进行多次测试。
  • 中文大模型基准测评 2023 年度报告:
    • 优秀模型:文心一言 4.0 - API(百度)。
    • 模型特点:在计算、逻辑推理、生成与创作、传统安全这 4 大基础能力上排名国内第一,在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三,各项能力表现均衡且水平较高。
    • 适合应用:能力栈广泛,可应用于查询搜索知识应用、任务拆解规划 Agent、文案写作、代码编写及纠错等方面,在逻辑推理方面表现不俗,可关注在科学研究、教育、工业方面的落地能力。
  • 观点文章中的测评:
    • 目前体验效果比较好的有科大星火模型、清华 ChatGLM、百度文心一言。
    • 星火目前感觉最接近 GPT3.5(0301 版本)的 80%-90%,但 GPT3.5 进化到 6 月版本效果更强。
    • 对大模型的评估可从基础能力、职场能力、探索对话三个方面判断,基础能力包括语言(文本)生成和语言理解,如常识类问题和分词类问题。
Content generated by AI large model, please carefully verify (powered by aily)

References

小七姐:文心一言4.0、智谱清言、KimiChat 小样本测评

测评三家国产大模型,以同组提示词下ChatGPT 4.0生成的内容做对标参照[智谱清言](https://chatglm.cn/main/detail)[文心一言4.0](https://yiyan.baidu.com/)[Kimi Chat](https://kimi.moonshot.cn/chat/)[heading3]二、能力考量[content]复杂提示词理解和执行(结构化提示词)推理能力(CoT表现)文本生成能力(写作要求执行)提示词设计能力(让模型设计提示词)长文本归纳总结能力(论文阅读)[heading3]三、测评轮次[heading4]第一轮:复杂提示词理解和执行[content]1.任务一:Markdown+英文title提示词测试,1个任务4个模型(4次)2.任务二:Markdown+中文title提示词测试,1个任务4个模型(4次)3.任务三:中文title+自然段落提示词测试,1个任务4个模型(4次)[heading4]第二轮:推理能力(CoT表现)[content]逐步推理任务,遍历3个不同类型任务+4个大模型(12次)[heading4]第三轮:文本生成能力(写作要求执行)[content]根据提示词生成文本任务,遍历3个不同类型任务+4个大模型(12次)[heading4]第四轮:提示词设计能力(让模型设计提示词)[content]按提示词要求生成提示词,逐步推理任务,遍历3个不同类型任务+4个大模型(12次)[heading4]第五轮:长文本归纳总结能力(论文阅读)[content]按提供的长文本(上传或在线)进行归纳总结,逐步推理任务,遍历3个不同类型任务+4个大模型(12次)

2023年度中文大模型基准测评报告.pdf

文心一言(英文名:ERNIE Bo t)是百度全新一代知识增强大语言模型。于2023年3月16日正式发布,已进行多个版本迭代,10月17日发布V4.0版本。据百度官方介绍,文心一言目前已有7000万用户。[heading4]模型特点:[content]文心一言4.0在计算、逻辑推理、生成与创作、传统安全这4大基础能力上排名国内第一。另外在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三。文心一言4.0各项能力上表现非常均衡且绝大部分能力有很高的水平,综合来看是国内非常有竞争力的大模型。适合应用:文心一言4.0的能力栈较为广泛,可应用的场景较多。基于在SuperCLUE测评上的表现,重点推荐在查询搜索知识应用、任务拆解规划Agent、文案写作以及代码编写及纠错等方面的应用。另外文心一言4.0由于在逻辑推理方面的不俗表现,可以重点关注在科学研究、教育、工业方面的落地能力。

观点:如何深入的用好ChatGPT,以及一些思考

另一种理解是AI构成网络,摒弃人类语言进行沟通,最终超越人类。N3(Neural Network Network)神经网络的相互链接,AI之间采用更为底层的向量数据交流,跨越人类语言的低效率阻碍。图灵机,自递归,简单的规则涌现出复杂的现象。4、群雄逐鹿大模型国外开源百花齐放,国内百模大战,目前已有68个。深圳就4个。下面的图是公众号“走向未来”的大神整理。github地址:https://github.com/wgwang/LLMs-In-China有一点浪费资源,有特色的不多,模型不大的也没啥大智力。目前体验效果比较好的有科大星火模型,清华ChatGLM。百度文心也可。星火目前感觉最接近gpt3.5(0301版本)的8 0%-90%。不过最近GPT3.5进化到6月版本,效果要强于0301版本了。5、大模型的测试怎样评估这些大模型,怎样看出模型的能力(比如GPT4和3.5到底差距在哪里)。这里会用GPT4、3.5、讯飞星火、百度一言做一些对比。一般对我们普通人来说,主要判断大模型是否可以真正帮助你,三个方面:基础能力、职场能力、探索对话。首先是基础能力,主要指语言模型应有的能力(即语言(文本)生成和语言理解。如果基础能力效果不达标,则判断为不可用。目前这四个应该都没大问题,都属于基础能力不错的模型。1级别(常识类问题):这些问题旨在测试模型的基本语言理解能力,例如:什么是人类?2级别(分词类问题):这些问题旨在测试模型的基本语言处理能力,例如:“我爱北京天安门”这句话的分词结果是什么?

Others are asking
目前市面上的文心一言,通义,deepseek等,用于写作效果如何
目前市面上的文心一言、通义、DeepSeek 等用于写作的效果各有特点: 文心一言(百度):大语言模型,可用以文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成。 通义(阿里巴巴):在特定领域和任务上表现出卓越的能力。 DeepSeek:在文字能力上表现突出,尤其在中文场景中高度符合日常、写作习惯,但在专业论文总结方面稍弱。数学能力经过优化表现不错,编程能力略逊于 GPT。 需要注意的是,不同模型的效果会因用户的具体需求和使用场景而有所差异。
2025-02-26
文心一言的收费模式
文心一言将从 4 月 1 日起全面免费。申请开通文心一言的 API 需前往百度 。
2025-02-24
对DeepSeek-R1、GPT-4o、文心一言、通义千文、豆包、海信星海和混元模型的性能对比分析
以下是对 DeepSeekR1、GPT4o、文心一言、通义千文、豆包、海信星海和混元模型的性能对比分析: 通义千问: 通义团队将 Qwen2.5Max 与目前领先的开源 MoE 模型 DeepSeek V3、最大的开源稠密模型 Llama3.1405B 以及同样位列开源稠密模型前列的 Qwen2.572B 进行了对比。在所有 11 项基准测试中,Qwen2.5Max 全部超越了对比模型。 Qwen2.5Max 已在阿里云百炼平台上架,企业和开发者可通过阿里云百炼调用新模型 API,也可在全新的 Qwen Chat 平台上使用。 DeepSeekR1: 属于基于强化学习 RL 的推理模型,在回答用户问题前会先进行“自问自答”式的推理思考,以提升最终回答的质量。 其“聪明”源于独特的“教育方式”,在其他 AI 模型还在接受“填鸭式教育”时,DeepSeek R1 已率先进入“自学成才”新阶段。 其思考与表达碾压了包括 GPT4o、Claude Sonnet3.5、豆包等模型,思考过程细腻、自洽、深刻、全面,输出结果在语气、结构、逻辑上天衣无缝。 目前关于文心一言、海信星海和混元模型在上述内容中未提供具体的性能对比信息。
2025-02-12
请对比文心一言、豆包、天工、Kimi以上几个软件各自的优势
以下是文心一言、豆包(字节跳动)、天工(不太明确您提到的天工具体所指,可能是指某些特定的模型或产品)、Kimi 这几个软件的优势对比: 文心一言 4.0(网页版): 优势:由百度开发,可能在某些特定领域的知识储备和语言理解能力上有一定优势。 豆包(字节跳动): 优势:无需科学上网,使用方便。 Kimi: 优势:不需要科学上网,无收费,不需要登录可以直接使用;有案例,点击预设问题即可开始尝试。 需要注意的是,对于不同的用户和应用场景,这些软件的优势可能会有所不同,其表现也会受到数据、算法、训练等多种因素的影响。
2025-01-16
文心一言和通义千问哪个更强
文心一言和通义千问在不同方面各有特点。 对于律师答辩状 prompt 的评测: 文心一言: 输入起诉状后,直接给出起诉状范本,未理解 prompt 输出答辩状。经提示输出的答辩状存在主体少、不专业、错误多等问题,但提示输出应诉方案时,能按 prompt 结构输出,内容简洁明了,可作为框架使用。 通义千问: 输入起诉状后,欢迎语直接,无废话,能正确处理两个答辩人,但专业度稍差,未引用具体法律条文。提示输出应诉方案时,能按 prompt 结构输出,整体内容及格,无亮点。 在结构化 prompt 的测试和反馈中: 文心一言的综合评分为 2.25 分,整体表现一般。 通义千问的综合评分为 3.125 分,表现还算不错,若内容再提高些,体验感和专业性会更好。 此外,文心一言和通义千问都是国内免费的 APP。文心一言是百度出品的 AI 对话产品,定位为智能伙伴;通义千问是由阿里云开发的聊天机器人。
2025-01-07
文心一言比赛
以下是关于文心一言的相关测评信息: 1. 小七姐的测评: 任务一:短提示。设置让模型生成能根据用户需求写出合适的 RPG 游戏策划(包括角色、剧情、玩法和场景等内容)的提示词。文心一言在输出结果上依然有自问自答的问题,得分 75。 任务二:少样本示例。同样是生成上述提示词,本轮用少样本提示框定了模型的输出内容,四个大模型的输出都有很大提升,文心一言得分 80。 2. 中文大模型基准测评 2023 年度报告: 简介:文心一言是百度全新一代知识增强大语言模型,于 2023 年 3 月 16 日正式发布,10 月 17 日发布 V4.0 版本,已有 7000 万用户。 模型特点:在计算、逻辑推理、生成与创作、传统安全这 4 大基础能力上排名国内第一。在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三,各项能力表现均衡且水平较高,是国内有竞争力的大模型。 适合应用:能力栈广泛,可应用场景多。重点推荐在查询搜索知识应用、任务拆解规划 Agent、文案写作以及代码编写及纠错等方面的应用,在逻辑推理方面表现不俗,可关注在科学研究、教育、工业方面的落地能力。
2025-01-03
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
通义 提示词 教程
以下是关于通义提示词的相关教程: 1. 小七姐的 Prompt 喂饭级系列教程小白学习指南(一): 提示词的理解:如果您是低年级学生看不懂英文问题,可让 GPT 为您翻译和解释,并让其举例帮助理解。 应用方法:对于没看懂的句子,都可以通过提示词让 GPT 换种说法解释和举例。 自测方法:点击链接查看对话原文,顶部的问题可复制作为 prompt 自行提问。 下一节将带来 prompt 小白系列课程(二)如何开始练习有效提问。 2. 不懂代码,也能 3 小时打造并上架一款 AI 插件: 初版提示词:如果不了解如何从 0 1 编写词生卡 Prompt,请阅读前作,这套提示词在后续测试中,在多种模型中都能保持较高成功率和稳定的预期效果。 3. SD 新手入门图文教程: 提示词语法:根据想画的内容写提示词,多个提示词之间用英文半角符号。一般概念性、大范围、风格化的关键词写在前,叙述画面内容的其次,描述细节的最后。每个词语在模型中的自带权重可能不同,特异性、具体且措辞不抽象的关键词效果更好。可使用括号人工修改提示词的权重。
2025-04-11
阶跃星辰、通义千问、Gemini三个视频理解模型哪个收费更便宜
以下是阶跃星辰、通义千问、Gemini 三个视频理解模型的收费情况: 阶跃星辰:输入价格为 0.005~0.015 元/千 tokens,输出价格为 0.02~0.07 元/千 tokens。 通义千问:Qwenvlplus 模型调用价格为 0.008 元/千 tokens,训练价格为 0.03 元/千 tokens。 Gemini 未提及收费信息。 综上,从已有的信息来看,通义千问的收费相对可能更便宜,但具体还需根据您的使用情况和需求来判断。
2025-04-10
通义千问的视频理解模型怎么使用
通义千问的 Qwen2.5VL 视频理解模型具有以下特点和使用方式: 版本:推出 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作,如给指定朋友送祝福、电脑修图、手机订票等。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai
2025-04-09
通义的日活是多少?
根据提供的信息,阿里通义在 11 月的活跃用户为 147 万人,WEB 月活为 141 万人,APP 月活为 355 万人,全网月活为 496 万人。在 9 月的活跃用户为 529 万人。
2025-03-28
通义千问发展历程
通义千问是阿里云推出的大语言模型。于 2023 年 4 月 11 日在阿里云峰会上正式发布 1.0 版本。9 月 13 日,通义千问大模型首批通过备案。10 月 31 日,阿里云正式发布千亿级参数大模型通义千问 2.0,8 大行业模型同步上线。9 月,通义千问 2.5 系列全家桶开源。
2025-03-20
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
runway属于什么ai能力类型
Runway 是一家总部位于旧金山的 AI 创业公司推出的产品。 在 AI 能力类型方面: 年初爆火,其 Gen2 代表了当前 AI 视频领域最前沿的模型,能够通过文字、图片等方式生成 4 秒左右的视频。 内测能力可根据参考图像进行 Video to Video 视频风格化。 致力于专业视频剪辑领域的 AI 体验,同时也在扩展图片 AI 领域的能力。 11 月 25 日发布新图像生成模型 Frames,专注打造特定美学和视觉氛围,支持细粒度控制“外观、感觉和氛围”,强调“世界构建”,可设计完整的视觉世界,包括场景、氛围、情感等,提供全面的视觉叙事支持。 目前 Runway 支持在网页、iOS 访问,网页端目前支持 125 积分的免费试用额度(可生成约 105 秒视频),iOS 则有 200 多,两端额度貌似并不同步。官方网站:https://runwayml.com/
2025-04-15
runway的能力类型,核心功能
Runway 的能力类型和核心功能包括以下方面: 在 Gen2 模型上推出了较多细节控制能力,并且支持精细数值调节,是当下 AI 视频生成产品中可控性最强的产品。 多笔刷控制局部运动:支持最多 5 个笔刷控制,包括物体运动方向、运动曲线调节。调高 Ambient,笔刷绘制区域物体的运动将和周边环境产生更多关联,并加大运动幅度。 相机控制:支持水平/垂直平移,水平/垂直翻转,镜头缩放/旋转。 Lip Sync Video:支持文本转 TTS 音频、音频文件换音,还有上半年大火的 Lip sync video 对口型能力。 不论是工具栏中不断丰富的音频、视频处理能力,还是 Runway Watch 栏目中的优秀合作案例,都能看出 Runway 一直坚定得在影视制作方向发展。未来若能打通 AI 生成和视频剪辑能力,Runway 未来将对影视制作起到至关重要的作用,成为视频领域必不可少的重要工具。
2025-04-15
你都有什么能力呢?
我作为 AI 知识专家,具备以下能力: 1. 作为提示词专家,能将常规的提示词转化为结构化的提示词,并输出符合预期的回复。了解 LLM 的技术原理和局限性,具有丰富的自然语言处理经验,具备迭代优化能力。 2. 能为您介绍小白参与活动的流程和组队所需的人员类型,如脚本编写、出图、出视频、配音乐、剪辑、统筹等。 3. 为您讲解扣子提供的基础功能,包括提示词(设定 Bot 身份及回复逻辑)、插件(通过 API 连接集成平台和服务)、工作流(规划和实现复杂功能逻辑)、记忆库(保留和理解对话细节,添加外部知识库),并为您提供相关参考链接。
2025-04-14
2025年人工智能大模型的技术提升有哪些,是参数?推理能力?还是语料
2025 年人工智能大模型的技术提升可能体现在以下几个方面: 1. 视频生成能力:如 2024 年推出的多个先进的 AI 模型能够从文本输入生成高质量视频,相比 2023 年有显著进步。 2. 模型规模与性能:更小的模型能驱动更强的性能,如 2022 年最小能在 MMLU 上得分高于 60%的模型是具有 5400 亿参数的 PaLM,到 2024 年,参数仅 38 亿的微软 Phi3mini 也能达到相同阈值。 3. 推理能力:尽管加入了如思维链推理等机制显著提升了大语言模型的性能,但在一些需要逻辑推理的问题上,如算术和规划,尤其在超出训练范围的实例上,这些系统仍存在问题。 4. AI 代理:在短时间预算设置下,顶级 AI 系统得分高于人类专家,但随着时间预算增加,人类表现会超过 AI。 5. 算法变革:如 DeepSeek 的出现标志着算力效率拐点显现,其通过优化算法架构显著提升了算力利用效率,同时 2025 年发布的大模型呈现低参数量特征,为本地化部署到 AI 终端运行提供了可能,其训练过程聚焦于强化学习,提升了模型的推理能力。
2025-04-14
有哪些针对CoT能力的微调工具
以下是一些针对 CoT 能力的微调工具: 1. Selfconsistency CoT:使用手动设计的 Prompt 生成采样一组不同的推理路径,再通过“多数投票”找到推理步骤中“最一致”的路径,使用这条解码路径驱动原始的贪心解码方式来提示 CoT 性能。 2. MMCoT:侧重使用微调方法嵌入 CoT,通过将语言和图像合并在一个包含推理生成与答案推理的两阶段的框架中,使用微调大模型赋予输入多模态 CoT 的能力。 3. GoTInput 方法:通过对 CoT 生成的思维图进行抽取构建三元组,并使用 GNN 将文本、图像与 CoT 统一,从而生成包含 CoT 信息的最终答案。 4. VCoT:解决了一个输出多模态的问题,通过以生成图片的“标题”以及识别核心关注点作为图像生成的启动过程,通过递归的方式填充图像信息,从而实现输出多模态。 此外,在将 DoT 扩展到预训练的扩散语言模型 Plaid 1B 并在更复杂的推理任务上进行评估时,自回归模型和扩散模型在使用 CoT 或 DoT 进行微调时都显示出显著提高的性能。在微调 Plaid 1B 时,也探索了几种替代方案。 在强化学习驱动的合成数据生成与模型优化流程中,也涉及到 CoT 的相关应用和优化,如初始 CoT 生成、CoT 存储等。
2025-04-12