Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

DeepSeek R1和DeepSeek(联网版)有什么区别

Answer

DeepSeek R1 和 DeepSeek(联网版)的区别主要在于以下方面:

  1. DeepSeek 只是品牌名称,需要加上具体模型名,如 DeepSeek V3 (类似 GPT-4o)或 DeepSeek R1 (类似 OpenAI o1)。
  2. DeepSeek R1 是原生通过强化学习训练出的模型,而 DeepSeek 联网版的具体特点未明确提及,但可能在功能和性能上与 R1 存在差异。
  3. Deep Research 更擅长生成专业报告,而 DeepSeek Chat 虽然集成搜索,但效果仍有差距。
Content generated by AI large model, please carefully verify (powered by aily)

References

宝玉 日报

?宝玉日报「2月4日」✨✨✨✨✨✨✨✨1⃣️?Deep Research与DeepSeek区别解析Deep Research是基于GPT-4o和o3的产品,具备UI交互、搜索等功能。DeepSeek只是品牌名称,需要加上具体模型名,如DeepSeek V3(类似GPT-4o)或DeepSeek R1(类似OpenAI o1)。Deep Research更擅长生成专业报告,而DeepSeek Chat虽然集成搜索,但效果仍有差距。?[https://x.com/dotey/status/1886816305719681203](https://x.com/dotey/status/1886816305719681203)2⃣️?人工智能与人类智能的关系(官方文件译文)由圣座教义部、圣座文化与教育部发布的官方文件Antiqua et Nova,探讨AI与人类智能的关系。提供英文原文及中文译文链接。?原文:[https://vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html](https://vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html)?译文:[https://baoyu.io/translations/rc_ddf_doc_20250128_antiqua-et-nova_cn](https://baoyu.io/translations/rc_ddf_doc_20250128_antiqua-et-nova_cn)3⃣️?Deep Research前置模型提示词泄露

宝玉 日报

Deep Research是基于AI模型的产品,使用GPT-4o、o3等推理模型,结合UI交互、搜索引擎等。DeepSeek只是品牌名,需要搭配具体模型,如DeepSeek V3(类GPT-4o)和DeepSeek R1(类OpenAI o1)。?[https://x.com/dotey/status/1886816305719681203](https://x.com/dotey/status/1886816305719681203)4⃣️?比尔·盖茨新回忆录《Source Code》成长故事:从“怪胎少年”到微软创始人的经历。婚姻与财富:离婚后两年陷入低谷,如今与前甲骨文CEO遗孀宝拉·赫德交往。社交媒体担忧:认为社交平台已到危险“临界点”,尤其对青少年影响深远。对AI与科技的看法:更关注现实问题,而非“冷冻身体”或延长寿命研究。?文章原文:?[https://www.thetimes.com/life-style/celebrity/article/bill-gates-interview-new-book-memoir-wh766b9bs](https://www.thetimes.com/life-style/celebrity/article/bill-gates-interview-new-book-memoir-wh766b9bs)?完整译文:?[https://mp.weixin.qq.com/s/5QXrlyEsFLQAodF2xVmmZA?token=1639803888&lang=zh_CN](https://mp.weixin.qq.com/s/5QXrlyEsFLQAodF2xVmmZA?token=1639803888&lang=zh_CN)5⃣️?Figure机器人公司宣布退出OpenAI合作

智能纪要:02-26 | DeepSeek部署+蒸馏 2025年2月26日

关于AI模型部署与相关知识的讲解本地部署介绍:讲解了如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。免费额度说明:指出在freely.aliyun.com可领取500元免费额度,但有使用限制,不能部署满血版和较大的增流模型。平台服务差异:介绍了DLC、DSW和EAS等模型部署平台服务的差别。模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。Deepseek R1模型的制作及相关模型比较R1模型的强化学习:通过强化学习,在训练过程中给予模型反馈,如路线规划是否成功到达终点、输出格式是否符合期望等,对正确路线增强权重,使做对的概率变高,导致思考逻辑变长。R1模型的蒸馏与微调:用Deepseek RE Zero蒸馏出带思考的数据,基于Deepseek V3微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成R1。R1与其他模型的差别:R1是原生通过强化学习训练出的模型,蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。模型的相互帮助:Deepseek R1反过来蒸馏数据微调V3,形成互相帮助的局面,使两个模型都更强。

Others are asking
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
我想让DEEPSEEK帮我写一篇论文,题目已经定好了,怎么给他输入指令
以下是给 DeepSeek 输入指令以帮助您写论文的一些建议: 1. 采用结构化提示词: 优先保留专业领域术语和技术词汇,这些术语通常具有高信息价值。 对不同类型的信息设置权重,按优先级排序:任务定义>关键约束>专业术语>定量信息>方法论>背景。 以完整语义单元为基本保留单位,而非单个词语,确保压缩后的内容仍保持语义完整性。 避免详细指导思考过程,让模型自主生成思维链。 2. 高阶能力调用: 文风转换矩阵:例如“用鲁迅杂文风格写职场 PUA 现象”“将产品说明书改写成《史记》列传格式”“把这篇论文摘要翻译成菜市场大妈能听懂的话”。 领域穿透技术:如行业黑话破解“解释 Web3 领域的'胖协议瘦应用'理论”。 3. 场景化实战策略: 创意内容生成。 技术方案论证。 4. 效能增强技巧: 对话记忆管理:包括上下文锚定(如“记住当前讨论的芯片型号是麒麟 9010”)、信息回溯(如“请复述之前确认的三个设计原则”)、焦点重置(如“回到最初讨论的供应链问题”)。 输出质量控制:针对过度抽象、信息过载、风格偏移等问题,使用相应的修正指令。 5. 特殊场景解决方案: 长文本创作:可采用分段接力法,如“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应”。 敏感内容处理:使用概念脱敏法(如“用经济学原理类比说明网络审查机制”)或场景移植法(如“假设在火星殖民地讨论该议题”)。 在输入指令时,您需要清晰明确地描述论文的题目、研究目的、主要论点、关键论据、期望的结构和风格等重要信息,以便 DeepSeek 能够为您生成符合要求的内容。
2025-04-14
coze搭建工作流调用deepseek如何把模型的输出存入到多维表中
以下是将模型的输出存入到多维表中的步骤: 1. 逐步搭建 AI 智能体: 搭建整理入库工作流。 设置大模型节点提取稍后读元数据,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000,以确保能完整解析长内容网页。 进行日期转时间戳,后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需要使用「日期转时间戳time_stamp_13」插件进行格式转化。 把稍后读元数据转换为飞书多维表格插件可用的格式,飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以必须将之前得到的元数据数组进行格式转换。 添加「飞书多维表格add_records」插件,只需要设置{{app_token}}与{{records}}参数,将元数据写入飞书表格。 2. 搭建 Coze 工作流: 打开 Coze 的主页,登录后,在【工作空间】创建一个智能体。 在编排页面,给智能体编辑好人设,可先写一个简单的,然后点右上角自动优化,系统会自动补全更精细的描述。点击工作流的+,创建一个工作流。 大模型节点把 input 给到 DeepSeek,让 DeepSeek 按照提前规定的输出框架生成对应文案。 生图节点将输出给到图像生成组件画图。 结束输出时,两个输出给到最终的 end 作为最终的输出。注意在编写系统提示词时,如果需要 input 可被 DeepSeek 调用,需要用{{input}}作为参数引入,不然大模型不知道自己需要生成和这个 input 相关的结果。编排完,点击【试运行】,调试至满意后点击发布。
2025-04-14
Deepseek自动生成网站前端页面
以下是关于 DeepSeek 自动生成网站前端页面的相关内容: DeepSeek v3 能力更新后虽能生成炫目的前端页面,但多为静态且实用性有限。可结合飞书多维表格将生成的漂亮前端变为真实的系统,如【智能作业分发系统】。 该系统整体包括用户登陆(可加飞书调查表二维码实现注册)、作业类型、作业详情(含连连看游戏、AI 智能问答、考试系统)。其实现逻辑为用户登陆系统后进入页面看到老师分配的作业分类,选择分类进入作业详情页面,详情页有学习单词发音及三个模块。 对于小白,可用飞书作数据源,通过飞书 API 接口获取内容,用 DeepSeek v3 制作前端+后端(用 Trae 更方便)。获取请求参数时,测试成功后的示例代码中有完整的请求参数和请求体可直接复制使用。创建前后端时,若用 DeepSeek 官网搭建需按代码目录结构创建对应文件(用 Trae 可省略),首次运行可能遇到飞书 API 未正确配置 CORS 导致浏览器拦截请求的问题,V3 会给出修改意见。 此外,Same dev 能像素级复制任意 UI 界面并生成前端代码,支持多种文件格式和技术栈代码,但免费额度消耗快,网站被谷歌标记。360 智脑复现了 DeepSeek 强化学习效果并发布开源模型 LightR114BDS。 AI 时代生存法则:会提需求比会写代码更重要,会开脑洞比会复制粘贴更值钱,真正的大佬都是让 AI 当乙方!
2025-04-13
deepseek写论文
以下是关于 DeepSeek 在不同方面应用的相关信息: 应用场景:包括脑爆活动方案、会议纪要、批量处理客户评论、分析总结复盘内容、生成专业软件使用过程、写小说框架、写论文、写文案、写小红书笔记、写周报、做设计头脑风暴、做网站、分析感情问题等。 优势与不足:在写文方面全面领先,但长文可能太发散、文风用力过猛导致审美疲劳,且模型多样性不够,相同 prompt 提问多次答案雷同。 应对策略:写理性文章时,可先与 DeepSeek 讨论思路,再用 Cloud 3.5 批量生成;用 O1 模型对创作的字数控制有一定效果,也可通过多轮对话让 AI 增删改查来调整字数。 创作相关:模仿特定小说家的文学方式创作小说,需在提示词中描述文风特征;邀请大家在腾讯频道发布用 AI 写的小说并鉴赏。 发展历程:DeepSeek 历时 647 天在大语言模型(LLM)领域取得突破,发布 13 篇论文。谷歌 CEO 坦言 Deep Seek 的突破标志着 AI 的全球化进程。
2025-04-13
使用Deepseek写论文有哪些固定指令模板
以下是使用 DeepSeek 写论文的一些指令模板: 1. 进阶控制技巧: 思维链引导: 分步标记法:请逐步思考:1.问题分析→2.方案设计→3.风险评估 苏格拉底式追问:在得出最终结论前,请先列举三个可能存在的认知偏差 知识库调用: 领域限定指令:基于 2023 版中国药典,说明头孢类药物的配伍禁忌 文献引用模式:以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破 多模态输出 2. 高级调试策略: 模糊指令优化: 问题类型:宽泛需求 修正方案:添加维度约束 示例对比:原句:“写小说”→修正:“创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构” 问题类型:主观表述 修正方案:量化标准 示例对比:原句:“写得专业些”→修正:“符合 IEEE 论文格式,包含 5 项以上行业数据引用” 迭代优化法: 首轮生成:获取基础内容 特征强化:请加强第三段的技术细节描述 风格调整:改用学术会议报告语气,添加结论部分 最终校验:检查时间逻辑一致性,列出可能的事实性错误 3. 核心原理认知: AI 特性定位: 多模态理解:支持文本/代码/数学公式混合输入 动态上下文:对话式连续记忆(约 8K tokens 上下文窗口,换算成汉字是 4000 字左右) 任务适应性:可切换创意生成/逻辑推理/数据分析模式 系统响应机制: 采用意图识别+内容生成双通道 自动检测 prompt 中的:任务类型/输出格式/知识范围 反馈敏感度:对位置权重(开头/结尾)、符号强调敏感 4. 基础指令框架: 四要素模板 格式控制语法: 强制结构:使用```包裹格式要求 占位符标记:用{{}}标注需填充内容 优先级符号:>表示关键要求,!表示禁止项 5. 高阶能力调用: 文风转换矩阵: 作家风格移植:“用鲁迅杂文风格写职场 PUA 现象” 文体杂交:“将产品说明书改写成《史记》列传格式” 学术口语化:“把这篇论文摘要翻译成菜市场大妈能听懂的话” 领域穿透技术:行业黑话破解→“解释 Web3 领域的‘胖协议瘦应用’理论” 商业决策支持 6. 场景化实战策略: 创意内容生成 技术方案论证 7. 效能增强技巧: 对话记忆管理: 上下文锚定:“记住当前讨论的芯片型号是麒麟 9010” 信息回溯:“请复述之前确认的三个设计原则” 焦点重置:“回到最初讨论的供应链问题” 输出质量控制: 问题类型:过度抽象 修正指令:“请具体说明第三步操作中的温度控制参数” 问题类型:信息过载 修正指令:“用电梯演讲格式重新组织结论” 问题类型:风格偏移 修正指令:“回归商务报告语气,删除比喻修辞” 8. 特殊场景解决方案: 长文本创作: 分段接力法:“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应” 敏感内容处理: 概念脱敏法:“用经济学原理类比说明网络审查机制” 场景移植法:“假设在火星殖民地讨论该议题”
2025-04-13
我公司想部署一个deepseek-R1,用云服务器请问大概需要多少钱?
部署 DeepSeekR1 模型使用云服务器的价格因云计算厂商而异: 华为昇腾社区:部署 DeepSeekR1 模型用 BF16 权重进行推理至少需要 4 台 Atlas 800I A2(864G)服务器,用 W8A8 量化权重进行推理则至少需要 2 台 Atlas 800I A2。服务器调用 Docker 下载部署权重资源,非 API 调用模式。 阿里云(人工智能平台 PAI):以 R1 为例,所需计算资源价格 316.25/小时。模型部署成在线服务,在人工智能平台 PAI 下的模型部署下的模型在线服务 EAS。 阿里云(阿里云百炼):免费额度:10000000/10000000,通过 API 调用。 腾讯云(自建服务器):多机分布式部署,节点数量:2 个,单节点配置:HCCPNV6 机型,可在线体验(需开通 T1 平台服务)。 腾讯云(调用 API):API 调用 DeepSeek 系列模型限时免费。即日起至北京时间 2025 年 2 月 25 日 23:59:59,所有腾讯云用户均可享受 DeepSeekV3、DeepSeekR1 模型限时免费服务,单账号限制接口并发上限为 5。在此之后,模型价格将恢复至原价。 京东云:“deepseekr1:1.5b、“deepseekr1:7b”、“deepseekr1:32b”,1.89/小时起;服务器部署的方式。 gitee ai:R1 价格 0.1 元/次,基于沐曦曦云 GPU 及曦源一号国产替代算力集群,有在线体验。 需要注意的是,价格可能会有所变动,具体以各云计算厂商的最新公布为准。
2025-03-25
我想学习有关ai的知识,但是并不是单单的系统性的学,而是想利用现有的模型比如说deep seekr1模型来训练一个自己的模型这样的,来实现某些功能
以下是关于 DeepSeek R1 模型的相关知识: 1. DeepSeek R1 引入了纯强化学习(RL),不依赖大量人类标注数据,而是通过自我探索和试错来学习。在“冷启动”阶段,仅通过少量人工精选的思维链数据进行初步引导,建立符合人类阅读习惯的推理表达范式,随后主要依靠强化学习,在奖励系统的反馈下(只对结果准确率与回答格式进行奖励),自主探索推理策略,不断提升回答的准确性,实现自我进化。准确率奖励用于评估最终答案是否正确,格式奖励强制结构化输出,让模型把思考过程置于<think></think>标签之间。 2. 与其他模型相比,Alpha Zero 只训练了三天,就以 100 比 0 的战绩完胜 Alpha Go Lee,Alpha Go(老)采用监督学习+强化学习,学习人类棋谱,更接近人类职业棋手风格,继承了人类的局限,Alpha Zero(新)完全摒弃人类数据的纯强化学习,从零开始自我博弈,不受限于人类经验,具有创造性的下棋风格。DeepSeek R1 在训练中更注重学习推理的底层策略,培养通用推理能力,使其能够实现跨领域的知识迁移运用和推理解答。 3. 使用 DeepSeek R1 给老外起中文名的操作指引: 点击邀请,复制邀请链接或下载邀请海报分享给好友。 打开火山引擎的模型页面(https://zjsms.com/iP5QRuGW/),使用习惯的方式登录。 登录后点击左侧列表里的“在线推理”,再点击“快速入门”。 获取 API Key,点击“创建 API Key”,可修改名字后创建,创建完成后点击“查看并选择”,将“已复制”的提示内容找个地方存一下。 复制 R1 的调用示例代码,选择模型为“DeepSeek R1”,修改示例代码中的相关内容,然后点击右侧的复制按钮,将代码找个地方存起来。 上述接入方法是快速入门方式,平台会自动创建在线推理接入点,并提供 50 万 Token 的免费额度,用完才需充值。如需充值,点击页面右上角的“费用”》“充值汇款”,根据账单适当充值。 4. DeepSeek R1 不同于先前的普通模型,它与 OpenAI 现在最先进的模型 o1、o3 同属于基于强化学习 RL 的推理模型。在回答用户问题前,R1 会先进行“自问自答”式的推理思考,提升最终回答的质量,这种“自问自答”是在模拟人类的深度思考,其“聪明”源于独特的“教育方式”,在其他模型还在接受“填鸭式教育”时,它已率先进入“自学成才”新阶段。
2025-03-22
DeepSeek R1卡顿如何解决
以下是解决 DeepSeek R1 卡顿的方法: 1. 拥有扣子专业版账号:如果您还是普通账号,请自行升级或注册专业号后使用。 2. 开通 DeepSeek R1 大模型: 访问地址:https://console.volcengine.com/cozepro/overview?scenario=coze 打开火山方舟,找到开通管理,找到 DeepSeek R1 模型,点击开通服务。 添加在线推理模型,添加后在扣子开发平台才能使用。 3. 创建智能体:点击创建,先完成一个智能体的创建。 4. 创建工作流: 创建一个对话流,命名为 r1_with_net。 开始节点,直接使用默认的。 大模型分析关键词设置:模型选择豆包通用模型lite,输入直接使用开始节点的 USER_INPUT 作为大模型的输入,系统提示词为“你是关键词提炼专家”,用户提示词为“根据用户输入`{{input}}`提炼出用户问题的关键词用于相关内容的搜索”。 bingWebSearch搜索:插件选择 BingWebSearch,参数使用上一个节点大模型分析输出的关键词作为 query 的参数,结果中 data 下的 webPages 是网页搜索结果,将在下一个节点使用。 大模型R1 参考搜索结果回答:在输入区域开启“对话历史”,模型选择韦恩 AI 专用 DeepSeek,输入包括搜索结果和开始节点的 USER_INPUT,开启对话历史并设置 10 轮。 结束节点设置:输出变量选择大模型R1 参考搜索结果回答的输出,回答内容里直接输出:{{output}}。 测试并发布工作流:输入测试问题,测试完成后直接发布工作流。 此外,您还可以通过以下途径获取更多相关信息: 1. 2 月 14 日 8 点直播进行中:火山引擎解决方案专家带大家在 Coze 搭建满血版 R1 bot,飞书会议直播结束,回放看: 2. 学习文档: 3. 模板更新了:
2025-03-20
我想从Nanobrowser里植入DeepSeek的R1模型,来让它帮我做网页搜索之类的工作,我该怎么做,给出详细教程
以下是从 Nanobrowser 里植入 DeepSeek 的 R1 模型来进行网页搜索的详细教程: 1. 阿里云百炼平台相关: 模型广场:百炼平台的模型广场有各种模型,包括音频理解、视频理解等,通义的一些强模型也在其中。 无需部署:百炼平台无需部署,可直接使用 Deepseek R1 模型。 价格与免费额度:Deepseek R1 模型价格与各大平台差不多,有大量免费额度,如 100 万 token,不同版本的模型如 7B、14B、32B 等也送了 100 万 token,LLAVA 限时免费。 授权与实名认证:使用 Deepseek R1 模型需要解锁和授权,没有授权按钮的需要对阿里云进行实名认证,可通过支付宝扫码或在右上角头像处进行,共学群里有相关指引。 模型效果对比:在首页体验模型页面可对比不同模型的效果,如 V3 和 R1,R1 会先思考,速度较快。 多模态能力:多模态可以识别更多输入信息,如读文件、图片等,而 Deepseek R1 本身不是多模态模型。 连接 Chat Box:通过模型广场的 API 调用示例获取链接,截断后粘贴到 Chat Box 的设置中,添加自定义提供方,设置模型名称为 Deepseek R1,并获取 API key。 API key 重置:可删除旧的 API key 并重新创建,方便本地软件连接。 2. 工作流创建: 创建一个对话流,命名为 r1_with_net。 开始节点,直接使用默认的。 大模型分析关键词设置:模型选择豆包通用模型lite,输入直接使用开始节点的 USER_INPUT 作为大模型的输入,系统提示词为“你是关键词提炼专家”,用户提示词为“根据用户输入`{{input}}`提炼出用户问题的关键词用于相关内容的搜索”。 bingWebSearch搜索:插件选择 BingWebSearch,参数使用上一个节点大模型分析输出的关键词作为 query 的参数,结果中 data 下的 webPages 是网页搜索结果,将在下一个节点使用。 大模型R1 参考搜索结果回答:在输入区域开启“对话历史”,模型选择韦恩 AI 专用 DeepSeek(即火山方舟里配置的 DeepSeek R1 模型),输入包括搜索结果(选择搜索节点 data 下的 webPages)和开始节点的 USER_INPUT,开启对话历史,设置 10 轮,默认不开启对话历史,开启后默认是 3 轮,系统提示词不需要输入,用户提示词为空。 结束节点设置:输出变量选择大模型R1 参考搜索结果回答的输出,回答内容里直接输出:{{output}}。测试完成后,直接发布工作流。 3. 网页聊天相关: 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。 打开聊天页面:点击右上角的插件列表,找到 Page Assist 插件,点击打开。 配置“DeepSeekR1”模型的 API key:基础 URL 为 https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。 添加“DeepSeekR1”模型。 打开联网功能,支持联网搜索使用 R1。
2025-03-20
以DeepSeek R1为代表的推理模型,与此前模型(如 ChatGPT-4、Claude 3.5 sonnet、豆包、通义等)的差异点主要在于
以 DeepSeek R1 为代表的推理模型与此前模型(如 ChatGPT4、Claude 3.5 sonnet、豆包、通义等)的差异点主要在于: 1. 技术路线:DeepSeek R1 与 OpenAI 现在最先进的模型 o1、o3 一样,属于基于强化学习 RL 的推理模型。 2. 思考方式:在回答用户问题前,R1 会先进行“自问自答”式的推理思考,模拟人类的深度思考,从用户初始问题出发,唤醒所需的推理逻辑与知识,进行多步推导,提升最终回答的质量。 3. 训练方式:在其他模型还在接受“填鸭式教育”时,DeepSeek R1 已率先进入“自学成才”的新阶段。 4. 模型制作:R1 是原生通过强化学习训练出的模型,而蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。此外,DeepSeek R1 还能反过来蒸馏数据微调其他模型,形成互相帮助的局面。 5. 与 Claude 3.7 Sonnet 相比,Claude 3.7 Sonnet 在任务指令跟随、通用推理、多模态能力和自主编程方面表现出色,扩展思考模式在数学和科学领域带来显著提升,在某些方面与 DeepSeek R1 各有优劣。
2025-03-19
我想在飞书云中用DeepSeek-R1模型提取链接中的信息,请问如何写指令呢?我刚刚进行了尝试,发现提取出的信息和我点开链接看到的信息不一致,这个问题又该如何解决呢?
在飞书云中使用 DeepSeekR1 模型提取链接中的信息并解决提取信息不一致的问题,您可以参考以下内容: 对于指令编写: 虽然 R1 推理能力较强,但您想表达的不一定完全与模型吻合,因此建议多加清晰指令。 模糊指令优化方面,比如对于宽泛需求可添加维度约束,如原句“写小说”可修正为“创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构”;对于主观表述可量化标准,如原句“写得专业些”可修正为“符合 IEEE 论文格式,包含 5 项以上行业数据引用”。 迭代优化法包括首轮生成获取基础内容、特征强化(如加强第三段的技术细节描述)、风格调整(如改用学术会议报告语气,添加结论部分)、最终校验(检查时间逻辑一致性,列出可能的事实性错误)。 对于提取信息不一致的问题: 信息幻觉:追加请标注所有不确定陈述,并提供验证方法。 格式偏离:使用严格遵循以下模板:第一行...第二行... 深度不足:触发请继续扩展第三章节内容,添加案例佐证。 另外,关于获取字节火山 DeepSeek 系列 API 完整教程及使用方法: 1. 注册并登录火山引擎,点击立即体验进入控制台。 2. 创建一个接入点,点击在线推理创建推理接入点。 3. 为接入点命名为 DeepSeekR1。 4. 若有提示“该模型未开通,开通后可创建推理接入点”,点击“立即开通”,勾选全部模型和协议一路开通(免费)。 5. 确认无误后,点击“确认接入”按钮。 6. 自动返回创建页面,复制多出的接入点名为“DeepSeekR1”的推理点 ID 并保存。 7. 点击【API 调用】按钮,进入后点击【选择 API Key 并复制】。 8. 若已有 API key 直接查看并复制,没有则点击【创建 API key】。 9. 复制并保存好 API key。 在实现新闻播报自动化工作流方面: 第一步是内容获取,输入新闻链接,系统自动提取核心内容。开始节点的入参包括新闻链接和视频合成插件 api_key。添加网页图片链接提取插件,获取网页里的图片。接着利用调整图片的节点,将 url 属性的图片内容转化为 image 属性的图片。然后使用链接读取节点,将文字内容提取出来。在提取链接后面接上一个大模型节点,用 DeepSeekR1 模型生成有吸引力的口播内容。若想加上自己的特征,可在提示词里写“开头加上‘这里是伊登 AI’之类的个性化台词防伪”。
2025-03-18
我想做一个,基于我个人知识库的chatbot,以供我随时搜索和提问,且优先搜索知识库内的内容而非联网搜索,你有什么建议吗?
以下是为您提供的关于创建基于个人知识库的 chatbot 的建议: 1. 选择合适的平台和工具:例如可以考虑使用飞书智能伙伴创建平台(Aily)或扣子(https://www.coze.cn/home)等。 2. 数据分段储存:由于大模型的上下文长度有限制,需要将上传的资料根据特定符号或字符长度进行分段,如将 8000 字文档按每 800 字分成一个片段储存。 3. 增强检索:当用户输入问题,大模型会根据相似度检索出若干最相关的数据片段,再据此生成答案,这一技术称为 RAG(检索增强生成)。 4. 配置知识库: 在 Bot 内使用知识库: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。 在工作流内使用 Knowledge 节点: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 5. 注意使用限制:单用户最多创建 1000 个知识库,文本类型知识库下最多支持添加 100 个文档,单用户每月最多新增 2GB 数据,累计上限是 10GB。 此外,知识库可以解决大模型幻觉、专业领域知识不足的问题,提升大模型回复的准确率。您可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点,成为工作流中的一环。
2025-04-14
联网检索的ai
以下是关于联网检索的 AI 的相关信息: 存在能联网检索的 AI,它们通过连接互联网,实时搜索、筛选并整合所需数据,为用户提供更精准和个性化的信息。 例如 ChatGPT Plus 用户现在可以开启 web browsing 功能实现联网。 Perplexity 结合了 ChatGPT 式的问答和普通搜索引擎的功能,允许用户指定希望聊天机器人在制定响应时搜索的源类型。 Bing Copilot 作为 AI 助手,旨在简化在线查询和浏览活动。 还有如 You.com 和 Neeva AI 等搜索引擎,提供基于人工智能的定制搜索体验,并保持用户数据的私密性。 常见的 AI 助手采用通过联网搜索获取实时信息。当用户开启联网搜索时,助手先将用户的请求发送至搜索引擎,再将返回内容与用户输入一起提供给大模型,最终生成回答。搜索引擎在此作为实时信息源,为大语言模型提供额外的上下文。 如果希望 AI 能提供行业内部信息、或者研发的自有系统内的信息,AI 联网搜索的效果就很不好,甚至无法实现。用户可以自行搭建 AI 代理,将自有系统的数据通过 API 的形式接入 AI 助手,为大语言模型补充提供丰富的上下文信息。 MCP 协议解决了 AI 大模型与数据源集成碎片化的问题,提供统一标准,让开发者无需为每个数据源和 AI 助手单独开发连接器。通过 MCP,数据源和 AI 工具可建立安全双向连接,使 AI 在不同工具和数据集间流畅协作,实现更可持续的架构。 在完成意图识别,确认需要联网检索之后,可以对用户的 query 进行改写(Rewrite)。Query Rewrite 的目的,是为了得到更高的检索召回率。Query Rewrite 可以通过设置提示词请求大模型完成,主要包括三个维度的改写: 让提问有更精准/更专业的表达。比如用户搜索“ThinkAny”,改写后的 query 可以是“ThinkAny 是什么?”,再把问题翻译成英文“ What is ThinkAny ”,同一个问题,双语分别检索一次,得到更多的参考信息。 补全上下文,做指代消解。比如用户搜索“ThinkAny 是什么?”,得到第一次回复后继续追问“它有什么特点?”,用历史对话内容作为上下文,把第二次 query 改写成“ThinkAny 有什么特点?”,指代消解后再去检索,会有更高的召回率。 名词提取。比如用户搜索“ThinkAny 和 Perplexity 有什么区别?”,可以把“ThinkAny”和“Perplexity”两个名词提取出来,分别检索。 提升 AI 搜索准确度,另一个关键措施就是做多信息源整合。结合上面提到的意图识别和问题改写,假设用户搜索“ThinkAny 和 Perplexity 的区别是什么?”,根据意图识别,判断需要联网,并且是信息查询类的搜索意图。在问题改写阶段,提取出来“ThinkAny”和“Perplexity”两个概念名词,除谷歌检索之外,还可以检索 Wikipedia/Twitter 等信息源,拿到百科词条内容和 Twitter 的用户反馈信息,可以更好地回答这个问题。AI 搜索最大的壁垒在于数据。 内容由 AI 大模型生成,请仔细甄别。
2025-04-09
ai是不是下一个互联网泡沫?
目前对于 AI 是否是下一个互联网泡沫存在不同的观点和讨论。 一方面,YC 的分享探讨了当前 AI 热潮是否是炒作,并强调了投资者对 AI 的信心与市场的复杂性。尽管有对泡沫的担忧,一些早期基金仍积极投资 AI 项目,认为小型创业公司能快速增长且具备盈利潜力。YC 认为,当前的 AI 浪潮与过去的互联网泡沫不同,成功依赖于优秀的创始人和可持续的商业模式。投资者应关注长远价值,而非短期炒作。 另一方面,个人总结认为当前 OpenAI 虽然估值高但还没盈利,是否会成为泡沫是一个可讨论的话题。就大模型创业而言可能会成为泡沫,但 AI 应用不会,还是认可这是堪比移动互联网的红利。同时,2024 下半年会有一批有代表性的 AI 应用跑出来。比如在社交和游戏中的 agent 智能体应用,能实现模拟现实的养成。 总之,对于 AI 是否是泡沫的判断尚无定论,还需综合多方面因素进行考量。
2025-03-28
我是一个没有技术背景且对AI感兴趣的互联网产品经理,目标是希望理解AI的实现原理并且能够跟开发算法工程师沟通交流,请给我举出AI模型或者机器学习的分类吧。
以下是 AI 模型和机器学习的分类: 1. AI(人工智能):是一个广泛的概念,旨在使计算机系统能够模拟人类智能。 2. 机器学习:是人工智能的一个子领域,让计算机通过数据学习来提高性能。包括以下几种类型: 监督学习:使用有标签的训练数据,算法学习输入和输出之间的映射关系,包括分类和回归任务。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 3. 深度学习:是机器学习的一个子领域,模拟人脑创建人工神经网络处理数据,包含多个处理层,在图像识别、语音识别和自然语言处理等任务中表现出色。 4. 大语言模型:是深度学习在自然语言处理领域的应用,目标是理解和生成人类语言,如 ChatGPT、文心一言等。同时具有生成式 AI 的特点,能够生成文本、图像、音频和视频等内容。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。生成式 AI 生成的内容称为 AIGC。
2025-03-26
我是一个AI Agent初学者,现在我想要捏一款Agent,目的是喂给Agent固定材料之后对其做提问,让Agent学习完我的材料之后,在不联网的情况下对我问出的问题做出贴切材料的回答,现在请你告诉我如何操作
以下是捏制一个满足您需求的 AI Agent 的操作步骤: 1. 规划: 制定任务的关键方法,总结任务目标与执行形式。 将任务分解为可管理的子任务,确立逻辑顺序和依赖关系。 设计每个子任务的执行方法。 2. 实施: 在 Coze 上搭建工作流框架,设定每个节点的逻辑关系。 详细配置子任务节点,并验证每个子任务的可用性。 3. 完善: 整体试运行 Agent,识别功能和性能的卡点。 通过反复测试和迭代,优化至达到预期水平。 AI Agent 相关概念: AI Agent 是基于大型语言模型(LLM)和其他技术实现的智能实体,其核心功能在于自主理解、规划决策、执行复杂任务。 Chain:通常一个 AI Agent 可能由多个 Chain 组成。一个 Chain 视作是一个步骤,可以接受一些输入变量,产生一些输出变量。大部分的 Chain 是大语言模型完成的 LLM Chain。 Router:可以使用一些判定(甚至可以用 LLM 来判定),然后让 Agent 走向不同的 Chain。例如:如果这是一个图片,则 a;否则 b。 Tool:Agent 上可以进行的一次工具调用。例如,对互联网的一次搜索,对数据库的一次检索。 常见的 AI Agent 类型包括: Responser Agent:主 agent,用于回复用户(伪多模态)。 Background Agent:背景 agent,用于推进角色当前状态(例如进入下一个剧本,抽检生成增长的记忆体)。 Daily Agent:每日 agent,用于生成剧本,配套的图片,以及每日朋友圈。 Background Agent 每隔一段时间运行一次(默认 3 分钟),分析期间的历史对话,变更人物关系(亲密度,了解度等),变更反感度,如果超标则拉黑用户,抽简对话内容,提取人物和用户的信息成为“增长的记忆体”,按照时间推进人物剧本,有概率主动聊天(与亲密度正相关,跳过夜间时间)。
2025-03-23
我是一个AI Agent初学者,现在我想要捏一款Agent,目的是喂给Agent固定材料之后对其做提问,让Agent学习完我的材料之后,在不联网的情况下对我问出的问题做出贴切材料的回答
以下是为您提供的关于捏制 AI Agent 的相关知识: 一、手捏 AI Agent 的思路 在 Coze 中创建工作流驱动的 AI Agent,简单情况可分为 3 个步骤: 1. 规划 制定任务的关键方法。 总结任务目标与执行形式。 将任务分解为可管理的子任务,确立逻辑顺序和依赖关系。 设计每个子任务的执行方法。 2. 实施 在 Coze 上搭建工作流框架,设定每个节点的逻辑关系。 详细配置子任务节点,并验证每个子任务的可用性。 3. 完善 整体试运行 Agent,识别功能和性能的卡点。 通过反复测试和迭代,优化至达到预期水平。 二、AI Agent 的概念 AI Agent 是基于大型语言模型(LLM)和其他技术实现的智能实体,其核心功能在于自主理解、规划决策、执行复杂任务。 AI Agent 包括以下几个概念: 1. Chain:通常一个 AI Agent 可能由多个 Chain 组成。一个 Chain 视作是一个步骤,可以接受一些输入变量,产生一些输出变量。大部分的 Chain 是大语言模型完成的 LLM Chain。 2. Router:可以使用一些判定(甚至可以用 LLM 来判定),然后让 Agent 走向不同的 Chain。例如:如果这是一个图片,则 a;否则 b。 3. Tool:Agent 上可以进行的一次工具调用。例如,对互联网的一次搜索,对数据库的一次检索。 同时,需要三个 Agent: Responser Agent:主 agent,用于回复用户(伪多模态)。 Background Agent:背景 agent,用于推进角色当前状态(例如进入下一个剧本,抽检生成增长的记忆体)。 Daily Agent:每日 agent,用于生成剧本,配套的图片,以及每日朋友圈。 三、Agent 的“明斯基时刻” 心灵社会理论认为,智能是由许多简单的 Agent(分等级、分功能的计算单元)共同工作和相互作用的结果。这些 Agent 在不同层次上执行不同的功能,通过协作实现复杂的智能行为。 其特点包括: 1. 多重层次:心灵社会将智能划分为多个层次,从低层次的感知和反应到高层次的规划和决策,每个层次由多个 Agent 负责。 2. 功能模块:每个 Agent 类似于功能模块,专门处理特定类型的信息或执行特定任务,如视觉处理、语言理解、运动控制等。 3. 分布式智能:智能不是集中在单一的核心处理单元,而是通过多个相互关联的 Agent 共同实现。这种分布式智能能够提高系统的灵活性和鲁棒性,应对复杂和多变的环境。 同时,在《心灵社会》中,明斯基还详细描述了不同类型的 Agent 及其功能: 专家 Agent:拥有特定领域知识和技能的 Agent,负责处理复杂的任务和解决特定问题。 管理 Agent:协调和控制其他 Agent 的活动,确保整体系统协调一致地运行。 学习 Agent:通过经验和交互,不断调整和优化自身行为,提高系统在不断变化环境中的适应能力。
2025-03-23
AI 衡量一个AI任务的指标是不是有准确率 和召回率 分别啥区别
在 AI 任务中,常见的衡量指标包括准确率和召回率。准确率(Accuracy)衡量的是模型预测正确的比例。而召回率主要用于信息检索等任务,衡量的是模型能够正确检索出相关内容的比例。 在摘要任务中,一般用 ROUGE 指标,其中 ROUGE2 是把两个 sequence 按 2gram 的方式做切分做频次统计,然后计算 pred 和 gt 之间的召回率。 对于不同的 AI 任务,还有其他多种指标,如在 NLP 中: 信息检索任务常用 NDCG@K 指标,核心衡量最相关文档是否排序足够靠前。 文本生成任务可用 BitsperByte 指标。 针对二分类任务,一般用 ECE 指标(Expected Calibration Error)来度量模型输出概率 p 时,最终正确率真的为 p 的一致性。 此外,还有一些其他方面的评估指标,如不确定性(Calibration and Uncertainty)、鲁棒性(Robustness,包括 invariance 和 equivariance)、公平性(Fairness)、偏见程度(Bias and stereotypes)、有毒性(Toxicity)等。 传统的 RAG 解决方案在检索效率和准确性上存在问题,Anthropic 通过“上下文嵌入”解决了部分问题,但 RAG 的评估仍待解决,研究人员正在探索新的方法,如 Ragnarök。 在提示词设计方面,Claude 官方手册提出“链式提示”的方法理念,将复杂任务拆解为多个步骤,具有准确率高、清晰性好、可追溯性强等好处。ChatGPT 官方手册也有类似理念,同时还有相关论文如在 ICLR 2023 上发表的提出 LeasttoMost Prompting 提示词策略的论文,在文本理解和生成场景中表现优秀。
2025-04-09
工作流 和 智能体的区别?
工作流和智能体的区别主要体现在以下几个方面: 定义: 工作流是通过预定义代码路径来编排 LLM 和工具的系统。 智能体则是由 LLM 动态指导自身流程和工具使用的系统,能够自主控制任务完成方式。 功能: 智能体是一个自动化的“助手”,用来执行特定任务,擅长做一些具体的、重复性的任务,比如客服聊天、推荐商品、处理订单等,但只能按照预先设定的规则和任务来做事,如果遇到超出范围的情况,就不知道怎么办了。 工作流是一系列任务的流程,决定了每个步骤应该做什么,可以处理一个完整的过程,比如从客户下单、付款到发货和售后服务,涵盖了所有步骤和环节,更灵活,能够适应变化,可以调整步骤和规则来应对不同的情况,不需要一开始就固定下来。 范围: 智能体是特定任务的“助手”,用于局部执行任务。 工作流是一个“计划”或“路线图”,指导整个任务的流程。简单说,工作流是全局的,智能体是局部的。 在业务中,通常需要的是工作流而非单个智能体,因为整个业务流程设计至关重要。例如,在烹饪中,关键不在于使用多贵的锅,而是按步骤完成每道工序。因此,工作流才是解决问题的关键,它帮助优化思路、提升效率。设计好工作流才能大幅提升整体业务效率。
2025-04-08
在ai context中,token和word的区别是?
在 AI 领域中,Token 和 Word 有以下区别: 定义和范围:Token 通常是大语言模型处理文本数据时的一个单元,在不同语境下,可能代表一个字、一个词、一个句子、标点、词根、前缀等,更加灵活。而 Word 一般指能够表达一定意义的独立单位,如单词。 语言处理:在英文中,一个 Word 通常是一个词或标点符号。在一些汉语处理系统中,一个 Word 可能是一个字或一个词。而 Token 在不同的语言模型和处理系统中,对应的范围和形式有所不同。 作用和意义:Token 不仅是文本数据的单位,还可能携带丰富的语义、句法等信息,在模型中有着对应的向量表示。Word 主要用于传达相对明确和完整的意义。 计算和收费:大模型的收费计算方法以及对输入输出长度的限制,通常是以 Token 为单位计量的。 例如,在处理“ I’m happy ”这句话时,“I”、“’m”、“happy”可能被视为 Token,而“I’m happy”整体可看作一个 Word 。
2025-04-08
AI chatbot、agent、copilot区别
AI chatbot、agent、copilot 主要有以下区别: 1. 定义和角色: Copilot:翻译成副驾驶、助手,在帮助用户解决问题时起辅助作用。 Agent:更像主驾驶、智能体,可根据任务目标自主思考和行动,具有更强的独立性和执行复杂任务的能力。 Chatbot:具备基本对话能力,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 2. 核心功能: Copilot:更多地依赖于人类的指导和提示来完成任务,功能很大程度上局限于在给定框架内工作。 Agent:具有更高的自主性和决策能力,能够根据目标自主规划整个处理流程,并根据外部反馈进行自我迭代和调整。 3. 流程决策: Copilot:处理流程往往依赖于人类确定的静态流程,参与更多是在局部环节。 Agent:解决问题的流程由 AI 自主确定,是动态的,不仅可以自行规划任务步骤,还能根据执行过程中的反馈动态调整流程。 4. 应用范围: Copilot:主要用于处理简单、特定的任务,更多是作为工具或助手存在,需要人类引导和监督。 Agent:能够处理复杂、大型的任务,并在 LLM 薄弱的阶段使用工具或 API 等进行增强。 5. 开发重点: Copilot:主要依赖于 LLM 的性能,开发重点在于 Prompt Engineering。 Agent:同样依赖于 LLM 的性能,但开发重点在于 Flow Engineering,即在假定 LLM 足够强大的基础上,把外围的流程和框架系统化。 以下是一些 Agent 构建平台: 1. Coze:新一代一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具。 2. Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及部署 Copilot 到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者根据需求打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于多种场景,提供多种成熟模板。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,在处理高频工作场景方面表现出色。 以上信息由 AI 大模型生成,请仔细甄别。
2025-04-07
人工智能搜索与百度搜索的区别
人工智能搜索与百度搜索存在以下区别: 1. 底层技术:人工智能搜索的底层技术常包括“RAG”,即“检索增强生成”,包括检索、增强和生成三个步骤。而百度搜索的技术构成相对复杂,不断融合新的技术和功能。 2. 发展路径:在中国市场,相较欧美,百度作为搜索巨头已将文心一言大模型融入搜索,提供对话式回答和创作功能。同时,市场上还涌现出如秘塔 AI 搜索等创新型产品,主打“无广告,直接答案”,提供结构化结果和引用来源等特色功能。 3. 产品更新与竞争态势:Google 仍在战斗前线密集释放技能,与其他公司竞争激烈。而百度在新模型发布方面相对较少。此外,Google 推出新功能曾引发大量用户不满,而百度的相关新功能在页面布局和使用体验上更靠近某些特定产品,并聚合了多种创作能力和智能体快捷调用窗口。百度文库也上线了“AI 全网搜”功能,打通了特定工作流,产品功能较为完整,但受限于模型能力,生成内容尚有提升空间。
2025-04-01
用ai建立知识库和直接使用ai有什么区别、
用 AI 建立知识库和直接使用 AI 主要有以下区别: 直接使用 AI 时,AI 生成的内容可能较为笼统模糊,就像遇到只会说“很急,今天就要”却不提供具体指导的领导。若想让 AI 成为得力助手,需对复杂任务进行拆解,提供方法论和定义输出格式。 建立知识库就如同为 AI 准备了“教科书”。知识库灵活,但偶尔会出现查不到内容而“猜题”的情况。例如,将《梦想与颠覆》卡牌等相关内容导入作为 AI 可调用的知识库,后续在创作中激活知识库,AI 会根据场景自动匹配库内素材,使输出更具针对性。 相比之下,微调类似于让 AI“自己真的学会了整本书”,答题更快更准,但训练成本高。微调适合高精度、长期任务,而知识库更适合临时查找、快速问答。
2025-03-30