Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型生态

Answer

以下是关于大模型生态的相关信息:

  • Qwen 系列开源模型表现出色,是国内唯一出现在 OpenAI 视野里、能参与国际竞争的国产大模型。其在相关榜单中多次上榜,得分不断提高,累计下载量突破 1600 万,国内外有大量开发者基于其开发模型和应用,尤其在企业级领域。通义大模型证明了开源开放的力量。
  • AI 大模型是全球数字技术体系的竞争,包括芯片、云计算、闭源模型、开源模型、开源生态等。基础大模型决定产业智能化的天花板等,开源生态在竞争中至关重要。
  • 在 10-0 基础训练大模型中,Lora 生图环节有诸多设置,如模型强度调节、添加 lora 文件、输入正向提示词、选择生成图片数量和尺寸、调整采样器和调度器等。设置完成后点击开始生成,若对生成结果满意可复制随机种子用于下次近似生成,也可进行高清修复和放大。今日作业要求按照比赛要求收集主题素材并训练提交 lora 模型与案例图像。
  • 奇绩创坛潜空间分享会中,杨植麟提到大模型公司倾向面向生产力场景,目前业界卡在数据方面,应用公司在非生产力场景投入产出比更高,大模型开发者生态差是因为不具备高替换成本和规模效应等条件,做事应遵循寻找梯度最大方向并优化的原则。
Content generated by AI large model, please carefully verify (powered by aily)

References

Qwen 2开源了 模型性能超越目前所有开源模型和国内闭源模型

可以说,Qwen是国内唯一出现在OpenAI视野里,可以参与国际竞争的国产大模型。不久前,OpenAI创始人奥特曼在X上转发了一条OpenAI研究员公布的消息,GPT-4o在测试阶段登上了Chatbot Arena(LMSys Arena)榜首位置,这个榜单是OpenAI唯一认可证明其地位的榜单,而Qwen是其中唯一上榜的国内模型。早些时候,有人做了个LMSys榜单一年动态变化视频。过去一年内,国产大模型只有Qwen多次冲进这份榜单,最早出现的是通义千问14B开源视频Qwen-14B,后来是Qwen系列的72B、110B以及通义千问闭源模型Qwen-Max,得分一个比一次高,LMSys也曾官方发推认证通义千问开源模型的实力。在顶尖模型公司的竞争中,目前为止中国模型只有通义千问真正入局,能与头部厂商一较高下。开发者用脚投票的结果,显示了Qwen系列的受欢迎程度。目前为止,Qwen系列开源模型的累计下载量突破了1600万,国内外有海量开发者都基于Qwen开发了自己的模型和应用,尤其是企业级的模型和应用。Qwen的很多忠实拥趸是海外开发者,他们时常在社交平台发表“我们为什么没有这种模型”的溢美之词(配图详见附件)。可以说,通义大模型用行动证明了开源开放的力量。七、为什么大模型的生态建设如此重要?AI大模型是全球数字技术体系的竞争,这个体系包括芯片、云计算、闭源模型、开源模型、开源生态等等。中国信息化百人会执委、阿里云副总裁安筱鹏指出,全球AI大模型竞争的制高点是AI基础大模型,因为基础大模型决定了产业智能化的天花板,商业闭环的可能性,应用生态的繁荣以及产业竞争的格局。与此同时,开源生态在整个技术体系的竞争中也有着至关重要的作用。

10-0基础训练大模型

上图中,点击预览模型中间的生图会自动跳转到这个页面模型上的数字代表模型强度,可以调节大小,正常默认为0.8,建议在0.6-1.0之间调节当然,你也可以自己添加lora文件点击后会显示你训练过的所有lora的所有轮次VAE不需要替换正向提示词输入你写的提示词可以选择基于这个提示词一次性生成几张图选择生成图片的尺寸,横板、竖版、正方形采样器和调度器新手小白可以默认这个不换迭代步数可以按照需求在20-30之间调整CFG可以按照需求在3.5-7.5之间调整随机种子-1代表随机生成图所有设置都好了以后,点击开始生态,生成的图会显示在右侧如果有哪次生成结果你觉得很不错,想要微调或者高分辨率修复,可以点开那张图往下滑,划到随机种子,复制下来粘贴到i机种子这里,这样下次生成的图就会和这次的结果近似如果确认了一张很合适的种子和参数,想要搞清放大则点开高清修复,可以选择你想放大的倍数新手小白可以就默认这个算法迭代步数也是建议在20-30之间重回幅度根据需求调整,正常来说在0.3-0.7之间调整[heading1]今日作业[content]按照比赛要求,收集六个主题中一个主题的素材并且训练出lora模型后提交lora模型与案例图像提交链接:https://waytoagi.feishu.cn/share/base/form/shrcnpJAtTjID7cIcNsWB79XMEd

奇绩创坛潜空间分享会

1.大模型公司究竟会做什么?Kimi一直想做SuperApp,原因是模型迭代需要在智力密度最高的场景内获取数据。因此面向生产力的场景,特别是知识密度高的,比如编程,高等教育等场景。因此小公司如果在模型公司的轨道上,更容易失去价值。1.目前业界卡在哪里?数据,数据,数据。scalinglaw发展到现在目前已经用掉了绝大部分文本数据,要想模型再获得指数型的提升,必须解决下面两个问题中的一个:合成数据视频数据理解注意这里说的视频数据不是简单的多模态对齐,因为对齐训练出来的模型只会做pairing。1.应用公司能做什么方向?在目前模型智能的前提下,相比生产价值模型更能提供情绪价值。说白了,模型现在还不是人,但大概学会了说人话。结合1来看,生产力场景既容易被大厂碾压又很难提供足够的价值,所以现在对小公司来说,做非生产力场景的投入产出比更高。同时小公司也能把更多精力放在体验上而非推理能力上。1.大模型开发者生态为什么差?开发者生态建立在某个技术有很高的替换成本,比如IOS开发。在此基础上开发者可以形成规模效应,但目前大模型生态不具备这两个条件。1.做事情的原则?这点是我自己的观察,植麟多次提到了“梯度”,并且应用在研发,产品,管理上。用模型训练的思维对公司和产品进行迭代。这个我也很赞同,好的产品和企业都是长出来的不是造出来的,是在得到新的数据的前提下迭代出来的而不是提前精密设计好的。寻找梯度最大的方向并向其优化,才能保证迭代速度。(来自小红书的分享)

Others are asking
你是福州市政府工作人员,中国移动拟邀请福州市委书记参加中国移动人工智能生态大会并致辞,该大会是第八届数字峰会的组成部分,需要撰写市委书记的致辞稿,需要中国移动准备哪些素材,请告诉我提示词
以下是为您整理的相关内容: 《促进创新的人工智能监管方法》:包含了关于通用人工智能价值链、相关案例研究以及对人工智能监管框架的探讨等内容。 陶力文律师关于律师写好提示词用好 AI 的方法:包括初始化的欢迎语、遵循的规则、获取案例洞察报告和目标群体、输出纲要和写作方案、根据用户反馈调整等流程。 开幕式主持稿:涉及基地代表发言的时间、主题、物料配合和人员配合等信息。 但这些素材似乎与为中国移动准备市委书记致辞稿所需的素材关联不大。一般来说,为撰写市委书记在中国移动人工智能生态大会上的致辞稿,中国移动可能需要准备以下素材: 1. 本次大会的详细介绍,包括主题、目标、议程安排等。 2. 中国移动在人工智能领域的发展成果、战略规划和未来愿景。 3. 中国移动人工智能生态的构建情况,如合作伙伴、合作项目等。 4. 本次大会在第八届数字峰会中的地位和作用。 5. 相关行业的人工智能发展现状和趋势。 6. 福州市在人工智能领域的发展情况和与中国移动合作的展望。
2025-04-18
我们是搜索团队的产品经理,团队定位倾向于“对于插件的建设与调用”定位,现在要做AI相关的产品规划,请以通俗易懂的方式对以下问题做出回答 1、请通过流程图的方式,介绍【插件/工具】能力在大模型生态架构中的环节、定位、实现流程是什么 2、调研下对于我们搜索团队而言,插件应该做什么,可以做什么 3、思考对于大模型来说,有哪些(通用或垂类)的模块/功能/插件是无法绕开的,或高频使用的,作为我们团队后续争取的发力点(如搜索推荐对于传统综合搜索结果页)
以下是为您提供的关于 AI 相关产品规划的回答: 一、插件/工具能力在大模型生态架构中的环节、定位、实现流程 从 2023 年 3 月份 OpenAI 宣布插件计划开始,到 5 月份上线,其中包括联网、代码、画图三个插件。其实现流程大致为: 1. 经过对模型的微调,检测何时需要调用函数(取决于用户的输入)。 2. 使用符合函数签名的 JSON 进行响应。 3. 在接口层面声明可调用的工具。 4. 使用函数和用户输入调用模型。 5. 使用模型响应调用 API。 6. 将响应发送回模型进行汇总。 二、对于搜索团队,插件可以做和应该做的事 目前没有直接针对搜索团队插件具体可做和应做事项的明确内容,但可以参考 OpenAI 的插件计划,例如开发与搜索相关的特定功能插件,或者探索如何将现有的搜索推荐功能与大模型更好地结合。 三、对于大模型无法绕开或高频使用的模块/功能/插件 目前没有直接指出对于大模型无法绕开或高频使用的具体模块、功能或插件。但从相关信息中可以推测,例如与数据获取和处理相关的插件(如联网)、与技术开发相关的插件(如代码)以及与内容生成相关的插件(如画图)可能是较为重要和高频使用的。对于搜索团队来说,可以考虑在这些方向上寻找发力点,结合搜索推荐等传统功能,开发出更具竞争力的插件。
2025-04-08
结合北京房山区文化、地标建筑、生态景观等内容,设计房山区中小学数学节 LOGO,要求巧妙融合数学元素(如几何图形、数学公式、数学符号等)与 AI 元素(如神经网络图案、代码片段、智能机器人形象等),生动诠释 “数学 + AI=?” 的主题内涵。
以下是为您整合的相关内容: 北京具有丰富多样的特色元素,包括经典地标如万里长城、天安门广场、故宫角楼、天坛等,见证了历史变迁;宜居生活方面,有独特的美食如豆汁儿、脆皮烤鸭、老北京炸酱面,以及充满京腔的日常生活;潮流文化新地标如国家博物馆、胡同里的新老交融、环球影城、798 等;未来科技方面,有西二旗的上班族日常、北大化学系科研 vlog、世界机器人大会等。 在海报设计方面,若对 AI 回答有疑问可再搜索确认,对于想用的项目要确认与北京的关系及能否使用;兔爷、戏曲金句等北京有名元素可用,金句可分化。做海报时可借鉴三思老师毛绒玩具美食系列,先找参考、做头脑风暴。比赛征集内容有四个赛道,若做系列海报,围绕金句或偏向北京非遗项目做系列较简单。用 AI 制作海报时,如制作北京地标糖葫芦风格海报,可用集梦 2.1 模型,以天坛等建筑为画面中心,注意材质、抽卡选图和细节处理。 对于设计房山区中小学数学节 LOGO,您可以考虑将房山区的特色文化、地标建筑、生态景观与数学元素(如几何图形、数学公式、数学符号等)和 AI 元素(如神经网络图案、代码片段、智能机器人形象等)相结合。例如,以房山区的著名建筑为主体,融入数学图形进行变形设计,同时添加一些代表 AI 的线条或图案,以生动诠释“数学 + AI=?”的主题内涵。
2025-03-18
如何打造自己的AI办公生态
要打造自己的 AI 办公生态,可参考以下步骤: 1. 确定功能范围: 支持用户发送“关键字”,自助获取您分享的“AI 相关资料链接”。 能够回答 AI 相关知识,优先以“您的知识库”中的内容进行回答,若知识库信息不足则调用 AI 大模型回复,并在答案末尾加上“更多 AI 相关信息,请链接作者:jinxia1859”。 “AI 前线”能发布在您的微信公众号上,作为“微信客服助手”。 2. 准备相关内容: 根据 Bot 的目的、核心能力,编写 prompt 提示词。 整理“关键字”与“AI 相关资料链接”的对应关系,可用 word、txt、excel 等整理。 创建自己的【知识库】,用来回答 AI 相关知识。 创建一个【工作流】,控制 AI 按照要求处理信息。 准备好自己的微信公众号,以便发布机器人。 3. 设计“AI 前线”Bot 详细步骤: 展示“AI 前线”Bot 的【最终效果】界面。 编写【prompt】提示词,设定 Bot 的身份和目标。 创建【知识库】,整理“关键字”与“AI 相关资料链接”的对应关系,并将信息存储起来。创建知识库路径为:个人空间知识库创建知识库。本次使用【本地文档】,注意知识库的内容切分粒度,可在内容中加上特殊分割符“”,分段标识符号选择“自定义”,内容填“”。 创建【工作流】,告诉 AI 机器人应按什么流程处理信息。创建工作流路径:个人空间工作流创建工作流。工作流设计好后,先点击右上角“试运行”,测试无误后点击发布。若任务和逻辑复杂,可结合左边“节点”工具实现,如调用大模型、数据库、代码等处理。但工作流不必复杂,能实现目的即可,所以在设计 Bot 前“确定目的”和“确定功能范围”很重要。
2025-01-11
aigc的当前生态
AIGC 的当前生态主要包括以下方面: 1. 概述:GenAI(生成式 AI)能够从已有数据中学习并生成新的数据或内容,利用 GenAI 创建的内容即 AIGC。作为强大的技术,能赋能诸多领域,但存在合规风险,我国对 AIGC 的监管框架由多部法律和规定构成。 2. 分类:AIGC 主要分为语言文本生成、图像生成和音视频生成。语言文本生成利用多种模型,如 GPT4 和 GeminiUltra;图像生成依赖多种技术,代表项目有 Stable Diffusion 和 StyleGAN 2;音视频生成利用多种模型,代表项目有 Sora 和 WaveNet。 3. 应用领域:AIGC 可应用于音乐生成、游戏开发、医疗保健等领域,在游戏开发和制作的整个生命周期的多个阶段都有应用,例如用文本生成平面图像,像 Midjourney、Stable Diffusion 和 DallE 2 等工具可将文本描述生成高质量二维图像。 4. 产品原型设计工具:目前有 UIzard、Figma、Sketch 等基于 AIGC 的工具可用于产品原型设计,其 AI 功能包括自动生成设计元素、提供设计建议、优化用户界面布局等。随着技术发展,未来可能会有更多专门针对产品原型设计的 AIGC 工具出现。
2024-12-13
AI生态图
AI 生态图主要包括以下内容: 关于 AI 产业的产业链结构,大致可分为上游的基础设施层(数据与算力)、中游的技术层(模型与算法)、下游的应用层(应用与分发)。 基础设施层布局投入确定性强,但资金投入巨大,入行资源门槛高,未来国内可能更多由“国家队”负责,普通人可考虑“合作生态”切入机会。 技术层处于技术爆炸时刻,迭代速度快,小规模团队需慎重考虑技术迭代风险,基础通用大模型非巨无霸公司不建议考虑。 应用层是广阔蓝海,当前从业者增加但成熟应用产品不多,“杀手级”应用稀少,普通个体和小团队推荐重点布局,有超级机会和巨大发展空间。 对于 AI 产业上中下游重点关注的企业(或产品),作者做了大量信息收集和汇总工作并绘制了相关图谱,但未避免广告嫌疑不展开详细说明,推荐搜索不了解的公司/平台(或产品)了解。 在游戏领域,生成式 AI 有影响,如从文本提示生成 2D 图像的工具 Midjourney、Stable Diffusion 和 DallE 2 等,已应用于游戏开发和制作的多个阶段,Midjourney 容易上手且图像生成速度快。
2024-11-28
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14