Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

开源大模型ChatGLM 系列有哪些版本

Answer

ChatGLM 系列的开源版本包括:

  • ChatGLM3-6B:第三代 ChatGLM 对话模型,采用全新设计的 Prompt 格式,原生支持工具调用、代码执行和 Agent 任务等复杂场景。
  • ChatGLM3-6B-base:第三代 ChatGLM 基座模型,采用更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的基础模型中性能较强。
  • ChatGLM3-6B-32k:第三代 ChatGLM 长上下文对话模型,在 ChatGLM3-6B 的基础上进一步强化了对长文本的理解能力,能处理最多 32K 长度的上下文。
Content generated by AI large model, please carefully verify (powered by aily)

References

2023年度中文大模型基准测评报告.pdf

[title]中文大模型基准测评2023年度报告[heading1]测评模型列表9.Qwen-72B-Chat阿里巴巴开源的72B的Chat版本22.讯飞星火V3.0科大讯飞官方发布的V3.0版本的API10.序列猴子出门问问官方发布的API版本23.Minimax(应事)稀宇科技官方网页版产品【应事】11.Yi-34B-Chat零一万物开源的34B的Chat版本24.ChatGLM3-6B清华&智谱AI开源的第三代6B版本12.PCI-TransGPT佳都科技小范围内测API版本25.Chinese-Alpaca2-13B yiming cui(个人开发者)个人开源的基于Llama2的汉化版中文模型13.360GPT_Pro 360 360智脑的API升级版本Pro26.Llama_2_13B_Chat Meta官方开源的2代13B的Chat版本本次测评数据选取了SuperCLUE-12月测评结果,模型选取了国内外有代表性的26个大模型在12月份的版本。SuperCLUE模型象限

智谱·AI 开源模型列表

[title]智谱·AI开源模型列表[heading2]Chat模型��语言模型列表|模型|介绍|上下文token数|代码链接|模型权重下载链接|<br>|-|-|-|-|-|<br>|ChatGLM3-6B|第三代ChatGLM对话模型。ChatGLM3-6B采用了全新设计的Prompt格式,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和Agent任务等复杂场景。|8K|[ChatGLM3](https://github.com/THUDM/ChatGLM3)|[Huggingface](https://huggingface.co/THUDM/chatglm3-6b)|[魔搭社区](https://modelscope.cn/models/ZhipuAI/chatglm3-6b)|[始智社区](https://www.wisemodel.cn/models/ZhipuAI/chatglm3-6b)|[Swanhub](https://swanhub.co/ZhipuAI/chatglm3-6b)|[启智社区](https://openi.pcl.ac.cn/Zhipu.AI/ChatGLM3/modelmanage/model_readme_tmpl?name=chatglm3-6b)|<br>|ChatGLM3-6B-base|第三代ChatGLM基座模型。ChatGLM3-6B-Base采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base具有在10B以下的基础模型中最强的性能。|8K||[Huggingface](https://huggingface.co/THUDM/chatglm3-6b-base)[](https://huggingface.co/THUDM/chatglm3-6b-base)|[魔搭社区](https://modelscope.cn/models/ZhipuAI/chatglm3-6b-base)|[始智社区](https://www.wisemodel.cn/models/ZhipuAI/chatglm3-6b-base)|[Swanhub](https://swanhub.co/ZhipuAI/chatglm3-6b-base)|[启智社区](https://openi.pcl.ac.cn/Zhipu.AI/ChatGLM3/modelmanage/model_readme_tmpl?name=chatglm3-6b-base)|<br>|ChatGLM3-6B-32k|第三代ChatGLM长上下文对话模型。在ChatGLM3-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。|32K||[Huggingface](https://huggingface.co/THUDM/chatglm3-6b-32k)|[魔搭社区](https://modelscope.cn/models/ZhipuAI/chatglm3-6b-32k)|[始智社区](https://www.wisemodel.cn/models/ZhipuAI/chatglm3-6b-32k)|[Swanhub](https://swanhub.co/ZhipuAI/chatglm3-6b-32k)|[启智社区](https://openi.pcl.ac.cn/Zhipu.AI/ChatGLM3/modelmanage/model_readme_tmpl?name=chatglm3-6b-32k)|

模型能力简介

[title]模型能力简介[heading3]更强的文本编码器Kolors针对这一问题,选择直接使用大语言模型进行文本编码。具体来说,Kolors使用了ChatGLM-6B-Base模型,这是一个中英双语的大语言基座模型。这里没有选择其SFT版本ChatGLM-6B是因为作者认为未经对齐人类偏好的基座模型反而更适合文本特征的提取。在最大编码长度方面,ChatGLM也更高,达到了256。与SDXL一样,Kolors取文本编码器的倒数第二层特征作为文本条件。下表对比了主流开源文生图模型所选用的文本编码器和支持的语言。

Others are asking
ChatGLM3 及相关系列产品有哪些
2023 年 10 月 27 日,智谱 AI 于 2023 中国计算机大会(CNCC)上推出了全自研的第三代基座大模型 ChatGLM3 及相关系列产品。其中,智谱清言是基于 ChatGLM 大模型的产品。 智谱清言的特点包括:在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。总体更擅长专业能力,但代码能力还有优化空间,知识百科与其他第一梯队模型相比稍显不足。 其适合的应用场景相对广泛,根据 SuperCLUE 测评结果,可优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。在较复杂推理应用上效果不错,在广告文案、文学写作方面也是很好的选择。
2024-11-04
分析 ChatGLM在文生视频领域的应用产出
ChatGLM 是中文领域效果较好的开源底座模型之一,其地址为:。经过约 1T 标识符的中英双语训练,并辅以监督微调、反馈自助、人类反馈强化学习等技术进行优化,针对中文问答和对话有出色表现。 此外,还有基于 ChatGLM6B 的 VisualGLM6B,地址为:。它是一个开源的、支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,具有 62 亿参数。图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。依靠来自于 CogView 数据集的 30M 高质量中文图文对,与 300M 经过筛选的英文图文对进行预训练。 在文生视频领域,ChatGLM 及其相关模型可能通过对文本的理解和生成能力,为视频的脚本创作、内容描述生成等方面提供支持,但具体的应用产出还需要结合实际的开发和应用场景来进一步探索和评估。
2024-10-30
ChatGLM视频表现有何特色,优劣分析一下
ChatGLM 是中文领域效果最好的开源底座模型之一,具有以下特色: 1. 针对中文问答和对话进行了优化,能更好地处理中文语境下的任务。 2. 经过约 1T 标识符的中英双语训练,并辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。 其优势包括: 1. 在处理中文相关的任务时表现出色,能提供较为准确和有用的回答。 然而,目前可能存在的不足暂未在提供的内容中有明确提及。但一般来说,与其他先进的语言模型相比,可能在某些复杂场景下的表现还有提升空间。
2024-10-30
ChatGLM在生成视频上表现如何
目前 ChatGLM 主要侧重于自然语言处理和文本生成,在生成视频方面的能力相对有限。它并非专门为视频生成而设计的模型。
2024-10-30
ChatGLM是谁开发的
ChatGLM 是由清华大学开发的。它是一个开源的、支持中英双语的对话语言模型,底座是 GLM 语言模型。其相关项目地址为: 。
2024-10-30
ChatGLM开发者团队介绍
ChatGLM 是一个开源的、支持中英双语的对话语言模型,底座是 GLM 语言模型。其相关信息如下: 地址: 简介:中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。 此外,基于 ChatGLM 还有在垂直领域微调的模型,如医疗领域的 MedChatGLM,其地址为: 。
2024-10-30
自动生成提示词的开源工具有哪些
以下是一些自动生成提示词的开源工具: 1. Freepik 推出的 Reimagine AI 工具:用户上传图片即可自动生成提示词,无需输入文字。它还能实时提供无限滚动结果展示,边操作边生成图像,通过调整提示词实时修改图片细节,并支持多种风格切换。相关链接:https://freepik.com/pikaso/reimagine 、https://x.com/imxiaohu/status/1770437135738581414?s=20 2. StreamMultiDiffusion 项目:使用区域文本提示实时生成图像,具有交互式操作体验,每个提示控制一个区域,实现精准图像生成。相关链接:https://arxiv.org/abs/2403.09055 、https://github.com/ironjr/StreamMultiDiffusion?tab=readmeovfile 、https://huggingface.co/spaces/ironjr/SemanticPalette 、https://x.com/imxiaohu/status/1770371036967850439?s=20 3. 【SD】自动写提示词脚本 One Button Prompt:可以在主菜单输入人物提示词,在“高级”中设置提示词混合,还具有一键运行放大的模块,包括完整的文生图放大和图生图放大,甚至可接入其他脚本和 controlnet。获取方式:添加公众号【白马与少年】,回复【SD】。
2025-04-12
开源flux模型如何快速使用
以下是关于开源 Flux 模型快速使用的方法: 1. 模型的下载: 如果因为环境问题,可以在网盘中下载。 siglipso400mpatch14384(视觉模型):siglip 由 Google 开发的视觉特征提取模型,负责理解和编码图像内容。工作流程包括接收输入图像、分析图像的视觉内容并将这些视觉信息编码成一组特征向量。打开 ComfyUI\models\clip,在地址栏输入 CMD 回车,打开命令行,输入下面的命令拉取模型(也可以在网盘里下载)。 image_adapter.pt(适配器):连接视觉模型和语言模型,优化数据转换。工作流程包括接收来自视觉模型的特征向量、转换和调整这些特征,使其适合语言模型处理。通过 https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,如果该文件夹不存在,就新建一个。 MetaLlama3.18Bbnb4bit(语言模型):大型语言模型,负责生成文本描述。工作流程包括接收经过适配器处理的特征、基于这些特征生成相应的文本描述、应用语言知识来确保描述的连贯性和准确性。打开 ComfyUI\models\LLM,地址栏输入 CMD 回车,在命令行里面输入下面命令。 2. 下载地址: ae.safetensors 和 flux1dev.safetensors 下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 准备了夸克和百度的网盘链接,方便部分同学下载: flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b 。 flux 相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。 3. 工作流下载: 最后我们再下载 dev 的工作流: 。或者下面官方原版的图片链接,图片导入 comfyUI 就是工作流:https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png 。我们打开 ComfyUI,把工作流或图片拖拽到 ComfyUI 里。
2025-04-08
开源AI Agent软件有哪些
以下是一些开源的 AI Agent 软件: 1. AutoGPT 和 BabyAGI:在去年 GPT4 刚发布时风靡全球科技圈,给出了让 LLM 自己做自动化多步骤推理的解题思路。 2. Coze:新一代的一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成了丰富的插件工具。 3. Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 4. 文心智能体:百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据自身需求打造大模型时代的产品能力。 5. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行设计良好的工作流。 6. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等多种场景,提供多种成熟模板,功能强大且开箱即用。 7. 钉钉 AI 超级助理:依托于钉钉强大的场景和数据优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 此外,智谱·AI 开源的语言模型中也有与 Agent 相关的,如 AgentLM7B、AgentLM13B、AgentLM70B 等。
2025-03-29
mcp 有什么开源的方案吗
Anthropic 于 2024 年 11 月推出并开源了 MCP(模型上下文协议)。MCP 就像一个“转接头”或“通用插座”,能统一不同的外部服务,如 Google Drive、GitHub、Slack、本地文件系统等,通过标准化接口与大语言模型对接。开发者基于 MCP 规范开发一次“接口适配器”(MCP 服务器),就能让所有兼容 MCP 的模型(MCP 客户端)无缝接入,无需针对每个模型单独适配,大幅提升兼容性与开发效率。MCP 里面还包含 SSE(ServerSent Events),是一种允许服务器向浏览器推送实时更新的技术。MCP 像为 AI 模型量身定制的“USBC 接口”,可以标准化地连接 AI 系统与各类外部工具和数据源。与传统 API 相比,MCP 是单一协议,只要一次整合就能连接多个服务;具有动态发现功能,AI 模型能自动识别并使用可用的工具;支持双向通信,模型不仅能查询数据,还能主动触发操作。相关链接:
2025-03-27
帮我列举2025年3月1日以来,国内外、闭源开源模型厂商的更新记录。
以下是 2025 年 3 月 1 日以来,国内外、闭源开源模型厂商的部分更新记录: 2025 年 3 月 20 日,OpenAI 推出了一套全新的音频模型,旨在通过 API 为开发者提供更智能、更可定制的语音代理支持,包括改进的语音转文本和文本转语音功能,为语音交互应用带来显著提升。 李开复公开表示 OpenAI 面临生存危机,商业模式不可持续。他强调中国的 DeepSeek 以极低成本提供接近的性能,开源模式将主导未来 AI 发展。他认为企业级 AI 应用将成为投资重点,资源限制反而促进了创新。李开复大胆预测,中国将出现三大 AI 玩家,竞争愈发激烈。 SuperCLUE 发布《中文大模型基准测评 2025 年 3 月报告》,指出 2022 2025 年经历多阶段发展,国内外模型差距缩小。测评显示 o3mini总分领先,国产模型表现亮眼,如 DeepSeekR1 等在部分能力上与国际领先模型相当,且小参数模型潜力大。性价比上,国产模型优势明显。DeepSeek 系列模型深度分析表明,其 R1 在多方面表现出色,蒸馏模型实用性高,不同第三方平台的联网搜索和稳定性有差异。 以上信息来源包括: 《》 《》 《》
2025-03-26
现在Ai作图用什么?还是以前的Stable Diffusion吗?还是又出现了新的开源软件?
目前在 AI 作图领域,Stable Diffusion 仍然是常用的工具之一。Stable Diffusion 是 AI 绘画领域的核心模型,能够进行文生图和图生图等图像生成任务,其完全开源的特点使其能快速构建强大繁荣的上下游生态。 除了 Stable Diffusion,也出现了一些新的相关开源软件和工具,例如: :Stability AI 开源的 AI 图像生成平台。 :拥有超过 700 种经过测试的艺术风格,可快速搜索查找各类艺术家,并支持一键复制 Prompt。 同时,市面上主流的 AI 绘图软件还有 Midjourney,其优势是操作简单方便,创作内容丰富,但需要科学上网并且付费。如果您想尝试使用 Stable Diffusion,可以参考 B 站【秋葉 aaaki】这个 Up 主的视频了解具体的安装方法。
2025-03-24
trae 推荐安装那个版本的 vscode插件
在 Trae 中安装 VS Code 插件可以通过以下方式: 1. 从 Trae 的插件市场安装: 在左侧导航栏中,点击插件市场图标,界面左侧显示插件市场面板。 搜索您想要的插件并在未安装列表中将其选中,界面上显示该插件的详情窗口,展示该插件的详细说明、变更日志等信息。 点击安装,Trae 开始安装该插件。安装完成后,该插件会出现在已安装列表中。 2. 从 VS Code 的插件市场安装: 前往。 搜索您想要的插件,例如:Pylance。 在搜索结果中,点击您所需的插件,您会前往该插件的详情页。 在详情页中,点击 Version History。 结合插件页的 URL 和 Version History 中的信息,提取出以下信息(以 Pylance 为例): itemName:URL Query 中的 itemName 字段,如截图中的 mspython.vscodepylance,并将小数点(.)前后的内容分成以下两个字段: fieldA:mspython fieldB:vscodepylance version:如截图中的 2025.1.102 使用提取出来的 3 个字段的值替换下方 URL 中的同名字段。 在浏览器中输入修改后的 URL,然后按下回车键,浏览器开始下载该插件。 下载完成后,返回 Trae 并打开插件市场。 将下载的.vsix 文件拖拽至插件市场面板中,Trae 开始自动安装该插件。安装完成后,该插件会出现在已安装列表中。 此外,如果 VS Code 插件市场中某个版本的插件依赖了新版 VS Code 中的某些接口,则可能会导致该插件与 Trae 不兼容。您可以查看该插件的 Version History,然后下载该插件的历史版本。 管理插件还包括禁用插件和卸载插件: 1. 禁用插件: 在 Trae 中,打开插件市场。 在已安装列表中,找到需禁用的插件。 鼠标悬浮至列表中的插件,然后点击设置>禁用。或点击该插件以打开其详情窗口,然后点击禁用。 2. 卸载插件: 在 Trae 中,打开插件市场。 在已安装列表中,找到需卸载的插件。 鼠标悬浮至该插件,然后点击卸载。或点击该插件以打开其详情窗口,然后点击卸载。
2025-04-19
AI提示词超详细版本
以下是关于 AI 提示词的超详细内容: 在图像和视频生成阶段,分镜转图片和视频提示词大师的使用技巧包括:每次只处理 2 3 个分镜以确保提示词的精确性;对于关键场景,生成多个版本的提示词;根据不同工具的特点调整提示词的细节。图像生成工具方面,首选 LIBLIB 的 FLUX 模型,其次是谷歌的 ImageFX(网址:https://labs.google/fx/zh/tools/imagefx ,有网络门槛),还有即梦、可灵、Midjourmey(国内版“悠船”)。提示词辅助工具方面,通义万相的智能扩写只需输入简单的画面主题,点击“智能扩写”按钮就能自动生成包含场景描述、主体特征、构图和光线氛围等全方位的详细提示词;堆友的图推词功能可通过上传参考图片,自动分析并反推出详细的提示词。接入 Deepseek R1 的即梦,只需输入简单的主题或关键词,R1 就能写出 4 段不同风格且详细又丰富的提示词。 此外,还有一套万能文生图提示框架,您只需把脑子里能想到的、用来描述模糊想法的碎片词汇,随手替换到框架的最下方,然后发给任意一个 AI。但要注意,AI 生成的提示词水平与模型本身能力正相关,推理模型在揣摩人类意图上优于普通模型。 在写 AI 拟人化提示词时,要像写作文的 6 要素一样讲明白。描述越全面,生成的结果就越贴近想要的样子,但要注意避免啰里啰嗦导致 AI 理解出现偏差。您还可以把想要的直接塞给 LLM,让它进行补充。
2025-04-10
Stable Diffusion 是 Diffusion Model 的优化版本,引入了潜在空间(Latent Space)技术,这个潜在空间(Latent Space)是什么意思,它的实现原理是什么?
在 Stable Diffusion 模型中,潜在空间(Latent Space)指的是图像的潜在分布,它包含了与图像相关的所有信息。 图像被映射到潜在空间后,扩散过程在这个空间中进行。ComfyUI 中的许多操作都在潜在空间中进行,如 KSampler 节点就是在这个空间中执行采样过程。在潜在空间中,通过节点调整对潜在空间的操作,如噪声添加、去噪步数等,这部分通常由潜在空间操作模块来实现。 在 Stable Diffusion 模型中,图像的潜在分布是通过一个编码器解码器结构来学习的。编码器将图像映射到潜在空间,而解码器则将潜在空间中的向量映射回图像空间。通过这种方式,模型可以学习到图像的潜在分布,从而实现图像生成、编辑和操作。 在采样过程中,Stable Diffusion 模型通过逐步降低噪声水平来生成图像。在这个过程中,模型根据当前的噪声水平预测图像的潜在分布,然后根据这个分布生成一个新的图像。这个过程重复进行,直到生成一个高质量的图像。 与之对应的是像素空间(Pixel Space),像素空间指的是图像中每个像素的原始颜色或强度值所组成的空间。图像可以看作是一个二维或三维的矩阵,其中每个元素代表一个像素。在像素空间中,图像的表示是密集的,且包含了大量的细节信息。
2025-03-21
给我推荐一个家庭用的私人部署deepseek电脑配置,要求价格在5W一下,能够比较流畅的运行,还有采用那一个版本的模型
很抱歉,您提供的内容中没有关于家庭用私人部署 deepseek 电脑配置的相关信息。如果您需要配置一台价格在 5 万以下、能流畅运行的家庭用电脑,以下是一些建议: CPU:可以选择英特尔酷睿 i9 或 AMD 锐龙 9 系列的高端处理器。 显卡:选择 NVIDIA GeForce RTX 40 系列的高端显卡,如 RTX 4080 或 RTX 4070Ti。 内存:32GB 或 64GB 的 DDR5 内存。 存储:1TB 或 2TB 的 NVMe SSD 作为系统盘,再加上大容量的机械硬盘用于数据存储。 主板:选择与所选 CPU 兼容的高端主板,以确保稳定性和扩展性。 关于模型版本,Midjourney 的 V5 模型是较新且先进的版本,具有更广泛的风格范围、更高的图像质量、更详细的图像等优点。您可以通过添加“v 5”参数或使用“/settings”命令并选择 MJ Version 5 来使用该模型。
2025-03-17
给我推荐一个家庭用的私人部署deepseek电脑配置,要求价格在5W一下,能够比较流畅的运行,还有采用那一个版本的模型
以下是为您推荐的家庭用私人部署 deepseek 电脑配置,价格在 5 万以下,能够较流畅运行: CPU:Intel Core i913900K 或 AMD Ryzen 9 7950X 显卡:NVIDIA GeForce RTX 4080 或 RTX 4070Ti 内存:32GB 或 64GB DDR5 高频内存 硬盘:1TB NVMe M.2 固态硬盘 + 4TB 机械硬盘 主板:支持所选 CPU 的高端主板,如 Z790 或 X670 系列 电源:850W 及以上的高品质电源 关于模型版本,Midjourney 最新的模型是 V5 版本,于 2023 年 3 月 15 日发布。使用此模型,您可以在提示词末尾添加 v 5 参数,或使用 /settings 命令并选择 MJ Version 5。该模型具有很高的连贯性,擅长解释自然语言提示,分辨率更高,并支持如 tile 重复图案等高级功能。它在风格范围、图像质量、细节表现、对提示的响应以及图像提示性能等方面都有显著改进。
2025-03-17
可以给出国内出名的大语言模型的信息吗,包括其模型名称,版本,发布时间,发布公司,模型参数,性能特点等信息,尽可能覆盖更多的大模型,使用表格输出,并按照发布时间排序
|模型名称|版本|发布时间|发布公司|模型参数|性能特点|适合应用| |||||||| |Baichuan213BChat|Baichuan2192K|10月31日|百川智能|未提及|在逻辑推理、知识百科、生成与创作、上下文对话等基础能力上排名200亿参数量级国内模型第一,在计算和代码能力上有一定优化空间|场景相对广泛且可以私有化部署,重点推荐在小说/广告/公文写作等内容创作场景、智能客服/语音助手以及任务拆解规划等场景,可部署在教育、医疗、金融等垂直行业中应用,同时可部署在低算力终端处理基础智能任务| |文心一言|V4.0|10月17日|百度|未提及|在计算、逻辑推理、生成与创作、传统安全这4大基础能力上排名国内第一,在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三,各项能力表现均衡且绝大部分能力有很高的水平|能力栈较为广泛,可应用的场景较多,重点推荐在查询搜索知识应用、任务拆解规划Agent、文案写作以及代码编写及纠错等方面的应用,由于在逻辑推理方面的不俗表现,可以重点关注在科学研究、教育、工业方面的落地能力| |通义千问 2.0|2.0|10月31日|阿里云|千亿级参数|未提及|未提及|
2025-03-15
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14