Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何在本地服务器上微调LLM

Answer

在本地服务器上微调 LLM 可以参考以下内容:

  1. 提示词工程:
    • 提示词工程主要由提示词注入和工具结果回传两部分代码组成。
    • 提示词注入用于将工具信息及使用工具的提示词添加到系统提示中,其中 INSTRUCTION 包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。TOOL_EAXMPLE 用于提示 LLM 如何理解和使用工具,编写时应注意用无关紧要的工具作示例。tools_instructions 可通过输入不同工具动态调整,让 LLM 得知可用工具及使用方法。REUTRN_FORMAT 定义调用 API 的格式。
    • 工具结果回传阶段利用正则表达式抓取输出中的“tool”和“parameters”参数,对于 interpreter 工具使用另一种正则表达式提取 LLM 输出的代码,提高成功率。通过识别 LLM 返回的调用工具字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,对于不接受相关角色的 LLM 接口,可改为回传给 user 角色。
  2. 微调方法:
    • 传统微调:采用在通用数据集上预训练的模型,复制模型后在新的特定领域数据集上重新训练,但大型语言模型微调面临训练时间长、计算成本高等挑战。
    • 参数有效调优:这是一种创新的调优方法,旨在通过仅训练一部分参数来减少微调 LLM 的挑战,参数可以是现有模型参数的子集或全新的参数。
    • 为使微调达到最佳效果,应从明确目标和高质量数据集开始,使用体现所需输出类型的数据,进行迭代测试,从小的渐进变化开始并评估结果。
    • 对于 OpenAI 的模型,微调包括使用其提供的 API 在数据集上进一步训练,需调整超参数并监控性能。对于开源 LLM,微调可能需要更多实践工作,包括设置训练环境、管理数据流及调整模型架构。
    • 对于需要快速迭代新用例的场景,微调作用较小。要实现微调功能,需创建大型训练数据集,整理成适当格式,启动训练任务并评估性能。建立模型改进工作流程,监控性能变化,依据反馈改进模型,记录生成的模型及评分指标,许多 LLMOps 平台能自动收集和显示最佳数据,方便微调。
Content generated by AI large model, please carefully verify (powered by aily)

References

无需微调,仅用提示词工程就能让 LLM 获得 tool calling 的功能

本文采用的提示词工程主要有两部分代码组成:提示词注入和工具结果回传。提示词注入用于将工具信息以及使用工具的提示词添加到系统提示中。工具结果回传则是解析tool calling的输出,并将工具返回的内容再次嵌入LLM。[heading2]1、提示词注入阶段[content]INSTRUCTION为最后注入到系统提示中的字符串,他又包含了TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT三个部分。TOOL_EAXMPLE用于提示LLM如何理解tool以及如何使用tool。在编写TOOL_EAXMPLE时,请注意用一些无关紧要的工具作为示例,例如本文使用的将数字加一和数字减一的工具,从而避免LLM混淆真正可以使用的工具与示例工具。tools_instructions是由目前通用的工具字典转换成LLM可读的工具列表。实际使用LLM时,可以通过输入不同的工具来动态调整tools_instructions,让LLM得知目前可用的工具有哪些以及如何使用。REUTRN_FORMAT定义了调用API的格式。[heading2]2、工具结果回传阶段[content]利用正则表达式抓取输出中的"tool"和"parameters"参数。对于interpreter工具,使用了另一种正则表达式来提取LLM输出的代码,提高LLM使用interpreter工具的成功率。本文使用代码如下:通过识别LLM返回的调用工具的字典,提取出对应的值,再传入相应的工具函数,最后将工具返回的结果以observation的角色返回给LLM。对于一些不接受observation、tool、function角色的LLM接口,可以改为回传给user角色,例如:通过以上提示词工程,可以避免微调,让完全没有tool calling能力的LLM获得稳定的tool calling能力。

9. 生成式 AI Studio 简介

12:29即使您确实为您的用例发现了一个好的提示,您可能会注意到模型响应的质量并不完全一致。为了缓解这些问题,我们可以做的一件事是调整模型。12:40那么调音是什么?好吧,您可能熟悉的一个版本是微调。在这种情况下,我们采用在通用数据集上预训练的模型。我们复制了这个模型。12:51然后,以这些学习到的权重为起点,我们在新的特定领域数据集上重新训练模型。这种技术对于许多不同的用例都非常有效。13:01但是当我们尝试微调LLM时,我们遇到了一些挑战。顾名思义,法学硕士是大型的。因此更新每个权重可能需要很长时间的训练工作。13:12将所有这些计算与现在必须为这个巨大模型提供服务的麻烦和成本相结合……因此,微调大型语言模型可能不是您的最佳选择。13:21但是有一种创新的调优方法称为参数有效调优。这是一个非常令人兴奋的研究领域,旨在通过仅训练一部分参数来减少微调LLM的挑战。13:34这些参数可能是现有模型参数的子集。或者它们可以是一组全新的参数。例如,也许您向模型添加了一些额外的层或额外的嵌入13:45到提示。如果您想了解更多关于参数有效调整和一些不同方法的信息,本课程的阅读列表中包含一篇摘要论文。13:53但如果您只想着手构建,那么让我们转到Generative AI Studio,看看如何开始调优工作。从Generative AI Studio的语言部分,14:02选择调整。为了创建一个调整模型,我们提供了一个名称。然后指向训练数据的本地或Cloud Storage位置。参数有效调整非常适合您拥有“适度”数量的场景14:14训练数据,例如数百或数千个训练示例。您的训练数据应以文本到文本格式构建为受监督的训练数据集。数据中的每条记录或行都将包含输入文本,换句话说,提示,

3. 如何让 LLM 应用性能登峰造极

为了使微调达到最佳效果,应该从明确的目标和相关的高质量数据集开始。应该使用能体现所需输出类型的数据进行微调,此外,迭代测试也至关重要--从小的、渐进的变化开始,并在进一步进行之前对结果进行评估。对于OpenAI的模型,微调包括使用其提供的API在我们的数据集上进一步训练模型。进行微调训练时需要调整各种超参数并监控模型的性能,以找到适合特定用例的最佳设置。对于开源LLM,微调可能需要更多的实践工作,包括设置训练环境、管理数据流,还可能需要直接调整模型架构。[heading3]Fine-tuning局限性[content]对于需要快速迭代新用例的场景,微调所起的作用较小。要实现微调功能,需要创建一个大型训练数据集,其中至少包含数百个优质示例。然后,按照格式要求将数据集整理成适当的格式,并启动微调自定义LLM的训练任务,评估微调性能。为了实现良好的微调,我们需要建立一个模型改进工作流程,在流程中不断监控模型性能变化,获得反馈,依据反馈不断改进模型。通过记录所有生成的模型,以及评分指标(隐性和显性用户的反馈,以及人类和人工智能的评估),从而为下一版本创建的训练数据集进行调整。另外,许多LLMOps平台也能自动收集和显示最佳数据,让我们只需点击几下就能对模型进行微调。

Others are asking
LLM应用可观测性
LLM 应用的可观测性主要体现在以下方面: LangChain:借助 LangSmith 提供更好的日志、可视化、播放和跟踪功能,以便监控和调试 LLM 应用。LangSmith 是基于 Web 的工具,能查看和分析细化到 class 的输入和输出,还提供跟踪功能,用于记录和展示 LLM 应用的执行过程和状态,以及 LLM 的内部信息和统计数据。 Langfuse:为大模型应用提供开源可观测性和分析功能,在可视化界面中可探索和调试复杂的日志和追踪,并使用直观的仪表板改善成本、降低成本、减少延迟,提高响应质量。 此外,微软(中国)的《面向大模型的新编程范式》报告中也强调了在线监控和可观测性的重要性。
2025-04-11
LLM模型响应时间较长,如何处理超时时间问题
处理 LLM 模型响应时间过长导致的超时问题,可以考虑以下方法: 1. 参数有效调整:这是一种新颖的微调方法,通过仅训练一部分参数来减轻微调 LLM 的挑战。这些参数可能是现有模型参数的子集,或者是一组全新的参数,例如向模型添加一些额外的层或额外的嵌入到提示中。 2. 优化提示设计:采用合适的提示方法,如零样本提示、一次性提示、Fewshot prompting 等。零样本提示是只给出描述任务的提示;一次性提示是让 LLM 执行任务的单个示例;Fewshot prompting 是让 LLM 执行任务的少量示例。同时,可以使用结构化模式设计提示,包含上下文、问题示例及相应答案等组件,以指示模型应如何响应。 3. 避免频繁调整某些参数:尤其是 Top K 和 Top P,不需要经常对其进行调整。 4. 关注模型响应质量:即使有良好的提示设计,模型输出仍可能不稳定,需要持续关注和优化。 5. 考虑成本和时间:微调大型模型可能耗时且成本高,为大模型提供服务也可能涉及额外麻烦和成本,需要综合评估和优化。
2025-04-11
除了LLM,就没有AI模型了吗?
除了 LLM ,还有很多其他类型的 AI 模型。以下为您详细介绍: 1. 生成式 AI:可以生成文本、图片、音频、视频等内容形式。其中生成图像的扩散模型就不是大语言模型。 2. 机器学习:电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习:有标签的训练数据,算法的目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。 强化学习:从反馈里学习,最大化奖励或最小化损失,类似训小狗。 3. 深度学习:一种参照人脑有神经网络和神经元的方法(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。 4. 谷歌的 BERT 模型:可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。生成式 AI 生成的内容,叫做 AIGC 。
2025-04-11
linux下安装 anythingLLM
以下是在 Linux 下安装 AnythingLLM 的相关指导: 1. 安装地址:https://useanything.com/download 。 2. 安装完成后会进入配置页面,主要分为三步: 第一步:选择大模型。 第二步:选择文本嵌入模型。 第三步:选择向量数据库。 3. AnythingLLM 中有 Workspace 的概念,可以创建自己独有的 Workspace 与其他项目数据进行隔离。 首先创建一个工作空间。 上传文档并且在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案)。 4. 完成上述配置后,即可与大模型进行对话。 此外,在 GitHubDaily 开源项目列表 2023 年复盘的 AIGC 部分中,也有关于 AnythingLLM 的介绍: 是一个可打造成企业内部知识库的私人专属 GPT!可以将任何文档、资源或内容转换为大语言模型(LLM)知识库,使得在对话过程中可引用到里面的内容。 本文的思路来源于视频号博主黄益贺,作者按照他的视频进行了实操,并附加了一些关于 RAG 的额外知识。
2025-03-27
anythingLLM本地部署
以下是关于本地部署大模型以及搭建个人知识库的相关内容: 一、引言 作者是大圣,一个致力于使用 AI 工具将自己打造为超级个体的程序员,目前沉浸于 AI Agent 研究。本文将分享如何部署本地大模型及搭建个人知识库,读完可学习到如何使用 Ollama 一键部署本地大模型、了解 ChatGPT 信息流转、RAG 概念及核心技术、通过 AnythingLLM 搭建本地化数据库等。 五、本地知识库进阶 如果想要对知识库进行更灵活掌控,需要额外软件 AnythingLLM,它包含所有 Open WebUI 能力,并额外支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 构建本地知识库: AnythingLLM 中有 Workspace 概念,可创建独有 Workspace 与其他项目数据隔离。 1. 首先创建一个工作空间。 2. 上传文档并在工作空间中进行文本嵌入。 3. 选择对话模式,提供 Chat 模式(大模型根据训练数据和上传文档综合给出答案)和 Query 模式(大模型仅依靠文档数据给出答案)。 配置完成后可进行测试对话。 六、写在最后 作者推崇“看十遍不如实操一遍,实操十遍不如分享一遍”。如果对 AI Agent 技术感兴趣,可联系作者或加其免费知识星球(备注 AGI 知识库)。 本文思路来源于视频号博主黄益贺,作者按照其视频进行实操并附加了一些关于 RAG 的额外知识。
2025-03-26
LLM的原理
LLM(大语言模型)的工作原理如下: 以“我今天吃了狮子头和蔬菜”这句话为例,在 Transformer 中,会由 Attention 层对其加入更多信息补充,如“狮子头是一道菜”“今天是星期六”等,这些补充信息作为输入给到下一个 Attention 层,层与层之间,哪些信息补充、保留、传递,由模型自主学习,最终模型把海量数据以关系网形式“消化”并保留重要相关性。 形象地说,就像人阅读文章时的连贯性注意力过程,在阅读理解时,脑子里会消化吸收记忆,记忆的不是点状知识,而是网状经验。 大模型以词向量和 Transformer 模型学习海量知识,把知识作为向量空间中的关系网存储,接受输入时通过向量空间中的匹配进行输出。 观察大模型回复,是一个字一个字流式输出的,因为大模型确实在一个字一个字地推理生成内容。比如输入法输入联想,根据输入的单个字推测下一个字,加入上下文能帮助模型理解下一个字。但存在两个问题:一是全量数据计算算力吃不消,二是仅算字的概率易被不相干信息干扰,此时词向量机制和 Transformer 模型中的 Attention 自注意力机制解决了难题。 另外,RAG 对大语言模型的作用就像开卷考试对学生,事实性知识与 LLM 的推理能力相分离,被存储在容易访问和及时更新的外部知识源中,分为参数化知识(模型训练中学习得到,隐式储存在神经网络权重中)和非参数化知识(存储在外部知识源,如向量数据库中)。
2025-03-25
AI服务器配置
以下是关于 AI 服务器配置的相关内容: 对于 Coze AI 机器人对接微信的服务器配置: 1. 如果按照上一篇教程操作,此次配置只需修改容器编排模板。最新的容器编排模板如下,同时提供无描述性的参考配置方便新手直接参考使用。 2. 若之前没有容器编排模板,新建一个即可,新建和修改逻辑类似。 3. 更新后的编排模板,若之前创建过相似机器人容器编排服务,建议先删除以防冲突,删除步骤如下。 4. 基于新的编排模板创建新的容器编排,然后启动服务。 5. 服务启动成功后,进入 COW 服务扫码绑定微信机器人,具体步骤参考上一篇入门教程。 对于视频相关的 AI 服务器配置: 1. 购买服务器:直接点击去购买:https://buy.cloud.tencent.com/lighthouse?blueprintType=APP_OS&blueprintOfficialId=lhbpr8j2ftq0&regionId=8&zone=apbeijing3&bundleId=bundle_rs_mc_med1_02&loginSet=AUTO&from=lhconsole ,并根据以下配置购买。 2. 购买并付款完成后,回到服务器“控制台”。 3. 点击服务器卡片空白处添加防火墙,添加 8887、8080 端口。 4. 点击右上角“登录”按钮,扫码验证后在命令行窗口中操作,注意复制粘贴代码的方式和命令执行完毕的标志。 5. 在命令行中依次输入相关命令。 6. 保存并打开外网面板地址,输入账号和密码。
2025-04-10
我公司想部署一个deepseek-R1,用云服务器请问大概需要多少钱?
部署 DeepSeekR1 模型使用云服务器的价格因云计算厂商而异: 华为昇腾社区:部署 DeepSeekR1 模型用 BF16 权重进行推理至少需要 4 台 Atlas 800I A2(864G)服务器,用 W8A8 量化权重进行推理则至少需要 2 台 Atlas 800I A2。服务器调用 Docker 下载部署权重资源,非 API 调用模式。 阿里云(人工智能平台 PAI):以 R1 为例,所需计算资源价格 316.25/小时。模型部署成在线服务,在人工智能平台 PAI 下的模型部署下的模型在线服务 EAS。 阿里云(阿里云百炼):免费额度:10000000/10000000,通过 API 调用。 腾讯云(自建服务器):多机分布式部署,节点数量:2 个,单节点配置:HCCPNV6 机型,可在线体验(需开通 T1 平台服务)。 腾讯云(调用 API):API 调用 DeepSeek 系列模型限时免费。即日起至北京时间 2025 年 2 月 25 日 23:59:59,所有腾讯云用户均可享受 DeepSeekV3、DeepSeekR1 模型限时免费服务,单账号限制接口并发上限为 5。在此之后,模型价格将恢复至原价。 京东云:“deepseekr1:1.5b、“deepseekr1:7b”、“deepseekr1:32b”,1.89/小时起;服务器部署的方式。 gitee ai:R1 价格 0.1 元/次,基于沐曦曦云 GPU 及曦源一号国产替代算力集群,有在线体验。 需要注意的是,价格可能会有所变动,具体以各云计算厂商的最新公布为准。
2025-03-25
如何解决deepseek一直“服务器繁忙,请稍后再试。”的问题?
如果您的 DeepSeek 一直显示“服务器繁忙,请稍后再试”,可以尝试以下方法: 1. 秘塔搜索: https://metaso.cn 2. 360 纳米 Al 搜索: https://www.n.cn/ 3. 硅基流动: https://siliconflow.cn/zhcn/ 4. 字节跳动火山擎: https://console.partner.volcengine.com/auth/login?redirectURI=%2Fpartner%2F5. 5. 百度云千帆: https://login.bce.baidu.com/ 6. 英伟达: https://build.nvidia.com/deepseekai/deepseekr1 7. Groq: https://groq.com/ 8. Chutes: https://chutes.ai/app 9. 阿里云百炼: https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 10. Github: https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground 11. POE: https://poe.com/DeepSeekR1 12. Cursor: https://cursor.sh/ 13. Monica: https://monica.im/invitation?c=ACZ7WJJ9 14. Lambda: https://lambdalabscom/6 15. Cerebras: https://cerebras.ai 16. Perplexity: https://www.perplexity.ai 17. 阿里云百炼: https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 另外,国内版的 Trae 目前有三个模型可供选择,都是免费无限量使用,包括 DeepSeek 系列模型,速度令人满意,能够较快地给出回答,没有遇到“服务器繁忙”的提示。 您还可以通过以下步骤解决“服务器繁忙”的问题: 1. 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 2. 打开聊天页面:点击右上角的插件列表,找到 Page Assist 插件,点击打开。 3. 配置“DeepSeekR1”模型的 API key:基础 URL:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。 4. 添加“DeepSeekR1”模型。 5. 打开联网功能,还可以支持联网搜索使用 R1。
2025-03-16
Deepseek网页端使用,总是出现服务器繁忙,请稍后再试,怎么办?请注意,我所使用的是Macbook
如果您在使用 DeepSeek 网页端时总是出现“服务器繁忙,请稍后再试”的提示(使用的是 Macbook),可以尝试以下方法: 1. 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。然后打开聊天页面,点击右上角的插件列表,找到 Page Assist 插件,点击打开。 2. 配置“DeepSeekR1”模型的 API key:基础 URL:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。添加“DeepSeekR1”模型。 3. 如果上述方法不行,还可以尝试以下替代网站: 秘塔搜索:https://metaso.cn 360 纳米 Al 搜索:https://www.n.cn/ 硅基流动:https://siliconflow.cn/zhcn/ 字节跳动火山擎:https://console.partner.volcengine.com/auth/login?redirectURI=%2Fpartner%2F5. 百度云千帆:https://login.bce.baidu.com/ 英伟达:https://build.nvidia.com/deepseekai/deepseekr1 Groq:https://groq.com/ Chutes:https://chutes.ai/app 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 Github:https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground POE:https://poe.com/DeepSeekR1 Cursor:https://cursor.sh/ Monica:https://monica.im/invitation?c=ACZ7WJJ9 Lambda:https://lambdalabscom/6 Cerebras:https://cerebras.ai Perplexity:https://www.perplexity.ai 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1
2025-02-26
Deepseek网页端使用,总是出现服务器繁忙,请稍后再试,怎么办
如果在 DeepSeek 网页端使用时总是出现“服务器繁忙,请稍后再试”的情况,您可以尝试以下方法: 1. 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。然后打开聊天页面,点击右上角的插件列表,找到 Page Assist 插件,点击打开。 2. 配置“DeepSeekR1”模型的 API key:基础 URL:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。添加“DeepSeekR1”模型。 3. 如果上述方法不行,您还可以尝试以下替代网站: 秘塔搜索:https://metaso.cn 360 纳米 Al 搜索:https://www.n.cn/ 硅基流动:https://siliconflow.cn/zhcn/ 字节跳动火山擎:https://console.partner.volcengine.com/auth/login?redirectURI=%2Fpartner%2F5. 百度云千帆:https://login.bce.baidu.com/ 英伟达:https://build.nvidia.com/deepseekai/deepseekr1 Groq:https://groq.com/ Chutes:https://chutes.ai/app 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 Github:https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground POE:https://poe.com/DeepSeekR1 Cursor:https://cursor.sh/ Monica:https://monica.im/invitation?c=ACZ7WJJ9 Lambda:https://lambdalabscom/6 Cerebras:https://cerebras.ai Perplexity:https://www.perplexity.ai 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 需要注意的是,部分网站可能需要特殊网络环境。
2025-02-26
deepseek经常服务器繁忙的解决方案?
以下是一些解决 DeepSeek 服务器繁忙的方案: 1. 尝试以下搜索网站: 秘塔搜索:https://metaso.cn 360 纳米 AI 搜索:https://www.n.cn/ 硅基流动:https://siliconflow.cn/zhcn/ 字节跳动火山擎:https://console.partner.volcengine.com/auth/login?redirectURI=%2Fpartner%2F 百度云千帆:https://login.bce.baidu.com/ 英伟达:https://build.nvidia.com/deepseekai/deepseekr1 Groq:https://groq.com/ Chutes:https://chutes.ai/app 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 Github:https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground POE:https://poe.com/DeepSeekR1 Cursor:https://cursor.sh/ Monica:https://monica.im/invitation?c=ACZ7WJJ9 Lambda:https://lambdalabscom/6 Cerebras:https://cerebras.ai Perplexity:https://www.perplexity.ai 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 2. 可以通过以下步骤使用网页聊天解决: 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 打开聊天页面:点击右上角的插件列表,找到 Page Assist 插件,点击打开。 配置“DeepSeekR1”模型的 API key:基础 URL:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。 添加“DeepSeekR1”模型。 3. 还可以使用以下网站(部分需要魔法,不做教学支持): 秘塔搜索:https://metaso.cn 360 纳米 AI 搜索:https://www.n.cn/(bot.n.cn) 硅基流动:https://cloud.siliconflow.cn/i/RjJgQqae AskManyAI:https://dazi.co/login?i=7db38e6e 字节跳动火山引擎:https://console.volcengine.com/ark/region:ark+cnbeijing/experience 百度云千帆:https://console.bce.baidu.com/qian3an/modelcenter/model/buildIn/list 英伟达 NIM Groq:https://groq.com/ Fireworks:https://fireworks.ai/models/fireworks/deepseekr1 Chutes:https://chutes.ai/app/chute/ Github:https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground POE:https://poe.com/DeepSeekR1 Cursor:https://cursor.sh/ Monica:https://monica.im/invitation?c=ACZ7WJJ9 Lambda:https://lambdalabs.com/ Cerebras:https://cerebras.ai Perplexity:https://www.perplexity.ai 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1
2025-02-20
热点的大模型微调蒸馏工具有哪些
以下是一些热点的大模型微调蒸馏工具: FLUX.1:包括 FLUX.1(可商用,为本地开发和个人使用定制,生成速度快,内存占用小,在 Apache 2.0 许可下公开提供,支持在 Replicate、fal.ai 和 Comfy UI 等平台使用,且支持用户根据自己数据集微调)。其训练参数高达 120 亿,在图像质量、提示词跟随等多方面超越流行模型,工作原理基于混合架构,结合变换器和扩散技术。 基于阿里云 PAI 平台:可复现 R1 蒸馏及蒸馏训练模型过程。部署 32b 的蒸馏模型展示效果,包括模型部署(如选中模型卡片后的操作、选择 vLLM 部署、涉及竞价系统等)、蒸馏数据获取(在本地 python 环境或 notebook gallery 建立实例执行代码获取蒸馏数据集)等。 DeepSeek:PaaS 平台支持多机分布式部署,满足推理性能要求,能一站式完成模型蒸馏。可登录 Pad 控制台通过 model gallery 进行部署,如 Deepseek R1 模型,可选择 SG 浪或 Vim 推理框架,根据资源出价部署,部署后可在模型在线服务 EAS 查看状态。还介绍了模型 API 调用、服务关停、蒸馏概念、应用场景及部署实操等。
2025-04-13
deepseek v3微调
以下是关于 Deepseek V3 微调的相关信息: 云舒文章总结卡 2.0 提示词全面支持 Deepseek V3,效果媲美 Claude3.7。V3 需要为 0324 更新的版本,DS 官网及 API 已更新,如调用其它平台 API 需要查看 DS 版本号。提示词复制链接:。横版为 1080 x 800 卡片提示词,竖版为 750 x 不限高卡片提示词。 各平台均需下载 html 文件,打开后才能查看真实效果,平台自带预览因兼容性问题无法正常展示效果。Claude 使用平台包括 Claude3.7 官网、API、Cursor,使用时需要下载为 HTML 文件打开查看效果。Deepseek 使用平台包括 Deepseek 官网、API(V3 需要为 0324 更新的版本),Deepseek 需要复制代码到 html 文件里,然后保存进行查看。 关于智能纪要,会带着大家复现模型的蒸馏和微调,并讲解相关知识。用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面。 北京时间 00:30 至 08:30 期间,DeepSeek API 价格大幅下调,DeepSeekV3 降至原价的 50%。
2025-04-12
有哪些针对CoT能力的微调工具
以下是一些针对 CoT 能力的微调工具: 1. Selfconsistency CoT:使用手动设计的 Prompt 生成采样一组不同的推理路径,再通过“多数投票”找到推理步骤中“最一致”的路径,使用这条解码路径驱动原始的贪心解码方式来提示 CoT 性能。 2. MMCoT:侧重使用微调方法嵌入 CoT,通过将语言和图像合并在一个包含推理生成与答案推理的两阶段的框架中,使用微调大模型赋予输入多模态 CoT 的能力。 3. GoTInput 方法:通过对 CoT 生成的思维图进行抽取构建三元组,并使用 GNN 将文本、图像与 CoT 统一,从而生成包含 CoT 信息的最终答案。 4. VCoT:解决了一个输出多模态的问题,通过以生成图片的“标题”以及识别核心关注点作为图像生成的启动过程,通过递归的方式填充图像信息,从而实现输出多模态。 此外,在将 DoT 扩展到预训练的扩散语言模型 Plaid 1B 并在更复杂的推理任务上进行评估时,自回归模型和扩散模型在使用 CoT 或 DoT 进行微调时都显示出显著提高的性能。在微调 Plaid 1B 时,也探索了几种替代方案。 在强化学习驱动的合成数据生成与模型优化流程中,也涉及到 CoT 的相关应用和优化,如初始 CoT 生成、CoT 存储等。
2025-04-12
本地部署大模型,如何微调建立本地知识库
以下是关于本地部署大模型并微调建立本地知识库的详细步骤: 一、使用 AnythingLLM 进行本地知识库搭建 1. 安装 AnythingLLM 安装地址:https://useanything.com/download 安装完成后进入配置页面,主要分为三步: 第一步:选择大模型 第二步:选择文本嵌入模型 第三步:选择向量数据库 2. 构建本地知识库 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型根据训练数据和上传文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 二、张梦飞的全本地部署教程 1. 部署大语言模型 下载并安装 Ollama 点击进入,根据电脑系统,下载 Ollama:https://ollama.com/download 下载完成后,双击打开,点击“Install” 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 下载 qwen2:0.5b 模型 如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入,点击回车。 三、智能纪要中的相关内容 在智能纪要中,许键介绍了模型 API 调用方法与知识库创建,包括获取 API key 位置及调用设置,详细讲解了创建 Rag 应用(知识库)流程,如上传非结构化文件、数据解析、切分段落等操作,并回答了诸多问题。同时还涉及工作流创建、模型能力及相关问题的探讨,以及通义千问相关应用及明天课程安排交流等内容。 总之,本地部署大模型并建立本地知识库需要按照上述步骤进行操作和配置,同时不断实践和探索,以达到理想的效果。
2025-04-10
如何做 deepseek 微调
要进行 DeepSeek 微调,以下是一些相关的知识和步骤: 1. 模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。 2. 本地部署介绍:如果拥有云服务器,可以进行本地部署,了解满血版本地部署的实际情况。 3. 免费额度说明:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 4. 平台服务差异:了解 DLC、DSW 和 EAS 等模型部署平台服务的差别。 5. 对于微调的全过程,建议阅读 Unsloth 笔记本和 HuggingFace 的《如何微调开放式 LLMs》,也可以使用《如何在一小时内阅读论文》作为指南。 6. 更加完善的训练说明,可直接阅读官方论文:DeepSeekAI《DeepSeekR1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948
2025-04-08
怎么本地部署ai模型,并进行微调
以下是本地部署 AI 模型并进行微调的主要步骤: 1. 选择合适的部署方式:包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源:确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础:可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练:根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型:将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护:大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 此外,关于本地部署还有以下相关内容: 如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。 在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。 会带着大家复现模型的蒸馏和微调,并讲解相关知识。 PaaS 平台支持多机分布式部署,满足推理性能要求,使用独占资源和专有网络,能一站式完成模型蒸馏。 登录 Pad 控制台,通过 model gallery 进行部署,如 Deepseek R1 模型,可选择 SG 浪或 Vim 推理框架,根据资源出价,部署后可在模型在线服务 EAS 查看状态。 介绍了模型 API 的调用方法,包括查找位置、获取 token 等,强调使用后要及时停止或删除服务以避免持续付费。 总的来说,部署和训练自己的 AI 模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-03-27