Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

垂直领域大模型训练指南

Answer

以下是一份垂直领域大模型训练指南:

一、大模型入门

通俗来讲,大模型就是输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。

大模型的训练和使用过程可以用“上学参加工作”来类比:

  1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。
  2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。
  3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。
  4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。
  5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。

在 LLM 中,Token 被视为模型处理和生成的文本单位,可以代表单个字符、单词、子单词等,具体取决于所使用的分词方法。在将输入进行分词时,会对其进行数字化,形成一个词汇表。

二、LLM 开源中文大语言模型及数据集集合

  1. 医疗领域
    • XrayGLM:首个会看胸部 X 光片的中文多模态医学大模型。
    • MeChat:中文心理健康支持对话大模型。
      • 地址:https://github.com/qiuhuachuan/smile
      • 简介:该项目开源的中文心理健康支持通用模型由 ChatGLM-6B LoRA 16-bit 指令微调得到,数据集通过调用 gpt-3.5-turbo API 扩展真实的心理互助 QA 为多轮的心理健康支持多轮对话,提高了通用语言大模型在心理健康支持领域的表现,更加符合在长程多轮对话的应用场景。
    • MedicalGPT
      • 地址:https://github.com/shibing624/MedicalGPT
      • 简介:训练医疗大模型,实现包括二次预训练、有监督微调、奖励建模、强化学习训练。发布中文医疗 LoRA 模型 shibing624/ziya-llama-13b-medical-lora,基于 Ziya-LLaMA-13B-v1 模型,SFT 微调了一版医疗模型,医疗问答效果有提升,发布微调后的 LoRA 权重。

三、10-0 基础训练大模型

步骤三·Lora 生图:

  1. 点击预览模型中间的生图会自动跳转到相应页面。
  2. 模型上的数字代表模型强度,可在 0.6 - 1.0 之间调节,默认为 0.8。
  3. 可以自己添加 lora 文件,点击后会显示训练过的所有 lora 的所有轮次。
  4. VAE 不需要替换。
  5. 正向提示词输入所写的提示词,可以选择基于这个提示词一次性生成几张图。
  6. 选择生成图片的尺寸,包括横板、竖版、正方形。
  7. 采样器和调度器新手小白可以默认不换。
  8. 迭代步数可以按照需求在 20 - 30 之间调整。
  9. CFG 可以按照需求在 3.5 - 7.5 之间调整。
  10. 随机种子 - 1 代表随机生成图。
  11. 所有设置都完成后,点击开始生成,生成的图会显示在右侧。
  12. 如果有某次生成结果不错,想要微调或者高分辨率修复,可以点开那张图,往下滑,划到随机种子,复制下来,粘贴到随机种子这里,下次生成的图就会和这次的结果近似。
  13. 如果确认了一张很合适的种子和参数,想要高清放大,则点开高清修复,可以选择放大的倍数。新手小白可以默认算法,迭代步数建议在 20 - 30 之间,重回幅度根据需求在 0.3 - 0.7 之间调整。

今日作业:按照比赛要求,收集六个主题中一个主题的素材并且训练出 lora 模型后提交 lora 模型与案例图像。

提交链接:https://waytoagi.feishu.cn/share/base/form/shrcnpJAtTjID7cIcNsWB79XMEd

Content generated by AI large model, please carefully verify (powered by aily)

References

大模型入门指南

通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。既然是学习,那我们就可以用『上学参加工作』这件事来类比大模型的训练、使用过程:1.找学校::训练LLM需要大量的计算,因此GPU更合适,因此只有购买得起大量GPU的贵族学校才有资本训练自己的大模型2.确定教材::大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配3.找老师::即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解Token之间的关系4.就业指导::学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导5.搬砖::就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)在LLM中,Token([2])被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token是原始文本数据与LLM可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary),比如:The cat sat on the mat,会被分割成“The”、“cat”、“sat”等的同时,会生成下面的词汇表:|Token|ID||-|-||The|345||cat|1256||sat|1726||…|…|

LLM开源中文大语言模型及数据集集合

XrayGLM,首个会看胸部X光片的中文多模态医学大模型:地址:[https://github.com/WangRongsheng/XrayGLM](https://github.com/WangRongsheng/XrayGLM)简介:该项目为促进中文领域医学多模态大模型的研究发展,发布了XrayGLM数据集及模型,其在医学影像诊断和多轮交互对话上显示出了非凡的潜力。MeChat,中文心理健康支持对话大模型:地址:[https://github.com/qiuhuachuan/smile](https://github.com/qiuhuachuan/smile)简介:该项目开源的中文心理健康支持通用模型由ChatGLM-6B LoRA 16-bit指令微调得到。数据集通过调用gpt-3.5-turbo API扩展真实的心理互助QA为多轮的心理健康支持多轮对话,提高了通用语言大模型在心理健康支持领域的表现,更加符合在长程多轮对话的应用场景。MedicalGPT地址:[https://github.com/shibing624/MedicalGPT](https://github.com/shibing624/MedicalGPT)简介:训练医疗大模型,实现包括二次预训练、有监督微调、奖励建模、强化学习训练。发布中文医疗LoRA模型shibing624/ziya-llama-13b-medical-lora,基于Ziya-LLaMA-13B-v1模型,SFT微调了一版医疗模型,医疗问答效果有提升,发布微调后的LoRA权重。

10-0基础训练大模型

上图中,点击预览模型中间的生图会自动跳转到这个页面模型上的数字代表模型强度,可以调节大小,正常默认为0.8,建议在0.6-1.0之间调节当然,你也可以自己添加lora文件点击后会显示你训练过的所有lora的所有轮次VAE不需要替换正向提示词输入你写的提示词可以选择基于这个提示词一次性生成几张图选择生成图片的尺寸,横板、竖版、正方形采样器和调度器新手小白可以默认这个不换迭代步数可以按照需求在20-30之间调整CFG可以按照需求在3.5-7.5之间调整随机种子-1代表随机生成图所有设置都好了以后,点击开始生态,生成的图会显示在右侧如果有哪次生成结果你觉得很不错,想要微调或者高分辨率修复,可以点开那张图往下滑,划到随机种子,复制下来粘贴到i机种子这里,这样下次生成的图就会和这次的结果近似如果确认了一张很合适的种子和参数,想要搞清放大则点开高清修复,可以选择你想放大的倍数新手小白可以就默认这个算法迭代步数也是建议在20-30之间重回幅度根据需求调整,正常来说在0.3-0.7之间调整[heading1]今日作业[content]按照比赛要求,收集六个主题中一个主题的素材并且训练出lora模型后提交lora模型与案例图像提交链接:https://waytoagi.feishu.cn/share/base/form/shrcnpJAtTjID7cIcNsWB79XMEd

Others are asking
我是一个新手,请给我一些AI文本工具的操作指南
以下是为您提供的一些 AI 文本工具的操作指南: AI 内容检测工具 1. 功能:提供免费的 AI 内容检测工具,可识别文本是否由 AI 生成。 使用方法:将文本粘贴到在线工具中,点击检测按钮,系统会提供分析结果。 2. GPTZero 功能:专门设计用于检测由 GPT3 生成的内容,适用于教育和出版行业。 使用方法:上传文档或输入文本,系统会分析并提供报告,显示文本是否由 GPT3 生成。 3. Content at Scale 功能:提供 AI 内容检测功能,帮助识别文本是否由 AI 生成。 使用方法:将文本粘贴到在线检测工具中,系统会分析并提供结果。 TecCreative 创意工具箱 1. AI 字幕 操作指引:点击上传视频——开始生成——字幕解析完成——下载 SRT 字幕。 注意:支持 MP4 文件类型,大小上限为 50M。 2. 文生图 操作指引:输入文本描述(关键词或场景描述等)——选择模型(注意 FLUX 模型不可商用)——开始生成——下载。 3. AI 翻译 操作指引:输入原始文本——选择翻译的目标语言——开始生成。 4. TikTok 风格数字人 操作指引:输入口播文案——选择数字人角色——点击开始生成。 视频默认输出语言和输入文案语言保持一致,默认尺寸为 9:16 竖版。 5. 多场景数字人口播配音 操作指引:输入口播文案——选择数字人角色和场景——选择输出类型——点击开始生成。 视频默认输出语言和输入文案语言保持一致。 AI 文章排版工具 1. Grammarly 不仅是语法和拼写检查工具,还提供排版功能,可改进文档整体风格和流畅性。 2. QuillBot AI 驱动的写作和排版工具,可改进文本清晰度和流畅性,保持原意。 3. Latex 虽不是纯粹的 AI 工具,但广泛用于学术论文排版,使用标记语言描述文档格式,有许多 AI 辅助的编辑器和插件简化排版过程。 4. PandaDoc 文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune AI 写作助手,可重新表述和改进文本,使其更清晰专业,保持原始意图。 6. Overleaf 在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的 AI 文章排版工具取决于您的具体需求,如文档类型、出版标准和个人偏好。对于学术论文,Latex 和 Overleaf 受欢迎,因其提供强大排版功能和广泛学术支持。对于一般文章和商业文档,Grammarly 和 PandaDoc 等工具可能更适用。
2025-04-11
trae的使用指南
以下是 Trae 的使用指南: 一、Trae 简介 Trae 是字节跳动推出的智能编程助手,提供基于 Agent 的 AI 自动编程能力,使用自然语言对话就能实现代码编写。 二、Trae 的功能 1. 提供传统的 IDE 功能,包括代码编写、项目管理、插件管理、源代码管理等。 2. 智能问答:在编写代码时,可随时与 AI 助手对话,获得代码解释、注释和错误修复等帮助。 3. 实时代码建议:AI 助手能理解当前代码并在编辑器中实时提供建议,提升编程效率。 4. 代码片段生成:通过自然语言描述需求,生成相应代码片段,甚至能编写项目级或跨文件的代码。 5. 从 0 到 1 开发项目:告诉 AI 助手想开发的程序,它将提供相关代码或自动创建所需文件。 三、下载 Trae 官网下载地址:https://www.trae.ai/download ,支持 Mac 系统、Windows 系统,未来支持 Linux 系统。 四、使用方法 1. 安装:下载完成后按照界面提示一步步安装。 2. 登录:安装完成后点击右侧登录按钮,程序会自动打开网页提示登录,无账号需先注册。登录完可能会出现“App Unavailable”,此时需要开启科学上网。 3. 网页登录成功后可关闭科学上网,再点击中间大按钮,自动进入 Trae 客户端。 五、模式选择 1. Chat 模式:根据描述进行代码生成、解释、分析问题或解决问题。 2. Builder 模式:可让 Trae 帮助从 0 开发一个完整的项目,对代码文件的任何更改都会自动保存。 六、使用案例 1. 生成一个贪吃蛇游戏 打开 Builder 模式,输入“使用 web 技术栈生成一个贪吃蛇游戏”,排队完成后,Trae 开始思考和代码编写,期间需手动接入进行文件审查,点击“全部接受”。 代码生成完成后,Trae 自动运行命令启动页面,点击运行,在 Webview 中可看到实现的游戏效果,试玩基本无 Bug。 Trae 会进行工作总结,说明已实现的功能,如游戏包含的特性、主要功能和游戏界面等。 2. 生成一个任务清单应用 在输入框中输入:使用 Web 技术开发一个任务清单应用。 3. 根据 UI 设计图自动生成项目代码 从站酷上找一张设计图,输入提示:使用 html 技术实现如图大屏页面。 七、总结 从实际体验来看,Trae 表现可圈可点。 1. 高效代码生成能力:能在几分钟内生成完整框架,代码结构清晰且功能齐全,甚至能自动处理依赖项和运行命令。 2. 多技术栈支持:对 Web 技术掌握远超预期,生成的代码可直接运行且无明显语法错误。 3. 动态调整潜力:能根据用户反馈快速调整样式,自适应布局的实现展现了 AI 的迭代能力。
2025-04-09
入门指南
以下是强化学习的入门指南: 1. 基础知识补充:如果没有相关基础且概率论和线性代数知识遗忘较多,可以学习相关课程,周末一天可完成;若对机器学习无基础,可先看吴恩达课程,再以李宏毅课程补充,单纯入门强化学习只需看前几节讲完神经网络的部分,此视频课程约需 25 小时。 2. 动手实践:跟着《动手学深度学习 https://hrl.boyuai.com/》学习并写代码,入门看前五章,约 10 小时。 3. 深入学习基础知识点:观看 B 站王树森的深度学习课程的前几节,约 5 小时。 4. 项目实践:可以看《动手学强化学习》,看到 DQN 部分,约十几小时。同时,文中还提到行动只有向左或向右两个,模型构建简单,DQN 的网络模型采用一层 128 个神经元的全连接并以 ReLU 作为激活函数,选用两层网络结构;需要一个缓存区存放从环境中采样的数据;有训练函数,批量从缓存区获取数据,使用 DQN 算法进行训练;还有主循环函数,在每个 episode 中选择动作(使用 εgreedy 策略),执行动作并将结果存储在 replay buffer 中,训练完使用保存好的 model.pth 参数即可实际使用。 文章作者为腾讯互动娱乐工程师 luozhiyun,原文地址:https://mp.weixin.qq.com/s/pOO0llKRKL1HKG8uz_Nm0A,感谢群友.com 的推荐。在学习前先明确目的,本文以搞懂 DQN 算法作为入门目标。像 https://github.com/ty4z2008/Qix/blob/master/dl.md 这类链接中有很多资料,但需筛选。
2025-03-22
能否提供一份关于在本网站的学习指南
以下是为您提供的在本网站的学习指南: 1. ComfyUI 相关学习资料: ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,网址:https://www.comfyuidoc.com/zh/ 。 优设网:有详细的 ComfyUI 入门教程,适合初学者,网址:https://www.uisdc.com/comfyui3 。 知乎:有用户分享 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,网址:https://zhuanlan.zhihu.com/p/662041596 。 Bilibili:提供一系列从新手入门到精通的 ComfyUI 视频教程,网址:https://www.bilibili.com/video/BV14r4y1d7r8/ 。 2. 《2020 年国家人工智能倡议法案》相关内容:包含向相关委员会提交报告、开展研究等规定。 3. MIT 为孩子开设的免费 AI 课: 课程来自全球人工智能专业排名第一的麻省理工 MIT,名为 Day of AI,面向 8 18 岁孩子,来自 110 多个国家的 50 万名学生都在使用。 该课程完全免费,但资源面向家长、老师群体,大孩子可自学,小孩子可能需要家长辅助。 课程包含在 MIT 的 RAISE 项目中。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-17
入门指南
2025-03-13
请起草一份小白学习AI辅助修图的入门到精通的教程,提供学习大纲,包括从基本玩法到高级卡bug玩法,常见红海赛道,常见问题,注意事项,常见误区,避坑指南等等
以下是为您提供的小白学习 AI 辅助修图从入门到精通的教程大纲: 一、基础知识与基本玩法 1. 了解 AI 辅助修图的概念和基本原理。 2. 熟悉常见的 AI 修图工具和软件。 二、常见问题与注意事项 1. 风格局限性:如全是二次元风格,缺少适合特定需求的风格。 2. 图像叙事性不足:画出来的多为美少女看镜头,缺乏叙事内容。 3. 素材局限性:已有素材单一,图生图可行性低,训练泛化性差。 三、常见误区与避坑指南 1. 避免盲目依赖初始的 Embedding、CKPT 等方法,不断尝试和改进。 2. 注意训练集中人物朝向固定等问题,采取相应处理措施,如镜像处理。 四、从入门到精通的进阶玩法 1. 掌握不同的训练方法,如 Lora 等,以获得更理想的效果。 2. 学会引导 AI 画出具有前景后景区分明显的图像,如制作引导图。 五、高级卡 bug 玩法 探索一些非常规但有效的技巧和方法,以突破常规限制,实现更出色的修图效果。但需注意,此部分玩法可能存在一定风险和不确定性。 六、常见红海赛道 分析当前 AI 辅助修图在不同领域的竞争激烈程度和应用热点。 在学习过程中,还需了解以下 AI 相关的技术原理和概念: 1. 生成式 AI 生成的内容称为 AIGC。 2. 相关技术名词: AI 即人工智能。 机器学习包括监督学习、无监督学习、强化学习,监督学习有标签,无监督学习无标签,强化学习从反馈中学习。 深度学习参照人脑神经网络,神经网络可用于多种学习方式。 生成式 AI 可生成多种内容形式。 LLM 为大语言模型,不同模型有不同擅长的任务。 3. 技术里程碑:2017 年 6 月谷歌团队发表的《Attention is All You Need》提出了 Transformer 模型。
2025-03-05
准确的讲述垂直大模型的概念,国内外的应用现状、场景,发展趋势,最好能附带图片。内容尽量详细、逻辑通顺。
垂直大模型是专注于特定领域的大模型,例如小语种交流、临床医学、AI 蛋白质结构预测等。 在国内,大模型分为通用模型如文心一言、讯飞星火等,处理自然语言;也有垂直模型专注特定领域。 大模型因其强大的语言理解和生成能力,在多个领域和应用场景中表现出色。比较火的应用场景包括: 1. 文本生成和内容创作:撰写文章、生成新闻报道、创作诗歌和故事等。 2. 聊天机器人和虚拟助手:提供客户服务、日常任务提醒和信息咨询等服务。 3. 编程和代码辅助:代码自动补全、bug 修复和代码解释。 4. 翻译和跨语言通信:促进不同语言背景的用户之间的沟通和信息共享。 5. 情感分析和意见挖掘:为市场研究和产品改进提供数据支持。 6. 教育和学习辅助:创建个性化的学习材料、自动回答学生问题和提供语言学习支持。 7. 图像和视频生成:如 DALLE 等模型可以根据文本描述生成相应的图像,甚至在未来可能扩展到视频内容的生成。 8. 游戏开发和互动体验:创建游戏中的角色对话、故事情节生成和增强玩家的沉浸式体验。 9. 医疗和健康咨询:理解和回答医疗相关的问题,提供初步的健康建议和医疗信息查询服务。 10. 法律和合规咨询:帮助解读法律文件,提供合规建议,降低法律服务的门槛。 关于发展趋势,尽管当前市场以基础大模型为主,但将大模型与行业专业知识结合,以满足不同行业的需求,成为未来发展的关键。例如腾讯研究院的《行业大模型调研报告》指出,如何将大模型与行业专业知识结合是重点。同时,在发展过程中也需要注意其在隐私、安全和伦理方面的挑战。 很抱歉,暂时无法为您提供相关图片。
2025-04-11
AI在垂直领域的应用
AI 在垂直领域有广泛的应用,以下为您详细介绍: 1. 医疗保健: 医学影像分析:用于分析医学图像,辅助诊断疾病。 药物研发:加速药物研发,识别潜在药物候选物和设计新治疗方法。 个性化医疗:分析患者数据,提供个性化治疗方案。 机器人辅助手术:控制手术机器人,提高手术精度和安全性。 2. 金融服务: 风控和反欺诈:识别和阻止欺诈行为,降低金融机构风险。 信用评估:评估借款人信用风险,辅助贷款决策。 投资分析:分析市场数据,帮助投资者做出明智投资决策。 客户服务:提供 24/7 服务,回答常见问题。 3. 零售和电子商务: 产品推荐:分析客户数据,推荐可能感兴趣的产品。 搜索和个性化:改善搜索结果,提供个性化购物体验。 动态定价:根据市场需求调整产品价格。 聊天机器人:回答客户问题,解决问题。 4. 制造业: 预测性维护:预测机器故障,避免停机。 质量控制:检测产品缺陷,提高产品质量。 供应链管理:优化供应链,提高效率和降低成本。 机器人自动化:控制工业机器人,提高生产效率。 5. 交通运输:暂未提及具体应用。 在 2024 年,AI 在以下领域有新的应用与发展趋势: 1. 机器人研究:苹果 Vision Pro 成为必备工具,用于远程操作控制机器人的运动和动作。 2. 医学:利用大模型生成合成数据,如微调 Stable Diffusion 生成高保真度和概念正确的合成 X 射线扫描数据。 3. 企业自动化:新方法如 FlowMind 和 ECLAIR 使用基础模型解决传统机器人流程自动化的限制,提高工作流理解准确率和完成率。 在电子商务领域,AI 工具已被广泛整合,如 Flair、Booth 和 Bloom 帮助品牌创建产品照片,AdCreative、Pencil 制作营销材料,Frase 或 Writesonic 编写产品描述,未来有望通过简单描述创建完整电商商店及营销材料。
2025-02-19
我想做一个产品(生涯规划领域的垂直大模型),这个产品服务的对象是所有人:帮助所有人进行更好的职业规划。每个人都能通过使用这个产品更好地了解自己,了解自己的天赋、兴趣、优势,然后找到自己的热爱的领域和热爱的事业,并且能够个性化地推荐相关的行业和职业,包括职业的主要工作内容和核心能力要求等等。 请对这个产品进行可行性分析,并给出产品的发展规划,别忘了给这个项目起一个名字。
以下是对您提出的生涯规划领域垂直大模型产品的可行性分析和发展规划,并为项目取名为“生涯智途”。 可行性分析: 1. 需求广泛:帮助人们进行职业规划是一个普遍存在的需求,涵盖了各个年龄段和职业阶段的人群。 2. 数据可用性:可以通过各种渠道收集大量与职业相关的数据,包括行业报告、职位描述、人才需求等。 3. 技术支持:当前大模型技术的发展为实现这样的产品提供了可能,能够处理和分析大量复杂的数据。 发展规划: 1. 数据收集与整理:广泛收集各类职业数据,建立丰富的数据库,确保数据的准确性和完整性。 2. 模型训练与优化:利用收集到的数据进行模型训练,不断优化模型,提高预测和推荐的准确性。 3. 功能开发: 个性化测评:开发能够准确评估用户天赋、兴趣、优势的功能模块。 精准推荐:根据用户的特点,提供个性化的行业和职业推荐,并详细介绍职业的工作内容和核心能力要求。 持续学习与更新:随着行业变化,及时更新数据和模型,以提供最新的职业信息。 4. 用户体验优化:设计简洁、易用的界面,提供良好的用户交互体验。 5. 市场推广:通过线上线下多种渠道进行推广,提高产品的知名度和用户覆盖面。 希望以上分析和规划对您有所帮助。
2025-02-18
法律类的垂直AI大模型
以下是一些法律类的垂直 AI 大模型: Lawyer LLaMA:首先在大规模法律语料上进行了 continual pretraining,然后借助 ChatGPT 收集了一批对中国国家统一法律职业资格考试客观题的分析和对法律咨询的回答,利用这些数据对模型进行指令微调,让模型习得将法律知识应用到具体场景中的能力。 ChatLaw:由北大开源的一系列法律领域的大模型,包括 ChatLaw13B、ChatLaw33B、ChatLawText2Vec 等。其中,ChatLaw13B 基于姜子牙 ZiyaLLaMA13Bv1 训练而来,ChatLaw33B 基于 Anima33B 训练而来,逻辑推理能力大幅提升。此外,还使用 93w 条判决案例做成的数据集基于 BERT 训练了一个相似度匹配模型,可将用户提问信息和对应的法条相匹配。
2024-07-12
PPT制作怎么插入垂直直线
在PPT中插入垂直直线,您可以按照以下步骤操作: 1. 打开您的Microsoft PowerPoint程序,并打开您想要插入直线的演示文稿。 2. 选择您想要插入直线的幻灯片。 3. 在菜单栏中,找到“插入”选项,点击它。 4. 在“插入”菜单中,您可以看到“形状”选项。点击它,会弹出一个形状列表。 5. 在形状列表中,找到“直线”或者“垂直直线”的图标。通常,“直线”图标是一个水平的直线,而“垂直直线”则是一条垂直的直线。 6. 点击“垂直直线”图标后,您的鼠标指针会变成一个十字准线,同时会有一个提示框显示“拖动鼠标绘制形状”。 7. 在幻灯片的适当位置点击并拖动鼠标,绘制出您想要的垂直直线。 8. 当您释放鼠标按钮时,直线就会被插入到幻灯片中。 9. 您可以点击直线以选择它,然后在格式工具栏中调整它的颜色、粗细、样式等属性,以符合您的演示需求。 10. 完成后,您就可以继续编辑您的演示文稿或进行演示了。 注意:不同的PowerPoint版本可能在界面和选项上有所不同,但基本的插入直线操作是相似的。如果您使用的是其他版本的PowerPoint或者在线的PowerPoint替代品,步骤可能会有所不同。
2024-05-23
现在有什么垂直行业Agent吗,真正有在应用的
目前,AI Agent 已逐步应用于电商、电信服务、银行、核能制造和新零售等多个行业领域。以新零售客户为例,实在 AI Agent 能够提供全域数据自动化采集、全平台竞店、竞品、竞对的数据分析和回溯,通过自动化采集、分析数据,并以可视化呈现用户评论数据,帮助企业解决数据分散和处理效率低的问题,助力客户提效降本、敏捷精准优化营销策略。此外,该应用还能协助企业进行财务处理、客服互动、自动退换货等工作,极大提高工作效率。 在 AI 应用的开发过程中,实在智能团队充分发挥了在 RPA 领域的专业优势,开发团队成员包括流程开发工程师、AI 框架搭建师、接口开发工程师等,共同协作以确保应用高效运行。实在智能高级产品经理张译颢介绍,在喂数据库和调试阶段,团队通过模拟各种业务场景,不断优化 AI 模型,以确保准确理解和执行用户指令。实在智能的 AI 应用不仅显著提高流程性工作的效率,还降低了人为错误的可能性。通过自动化流程,企业能够更快响应市场变化,提升服务质量,在激烈的市场竞争中占据优势。 现代的 Agent 已经被广泛应用于游戏、机器人和其他领域。吴恩达在红杉美国 AI 峰会谈上表示,自己已经在使用研究 Agent,虽然不总是可靠,但有时会非常有用,可以帮助他节省时间和提高效率。
2024-05-23
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14
这个网站的作用是什么?是通过这个网站更好的使用训练AI吗?
WaytoAGI 网站具有以下功能: 1. 和 AI 知识库对话:您可以在此询问任何关于 AI 的问题。 2. AI 网站:集合了精选的 AI 网站,可按需求找到适合您的工具。 3. AI 提示词:集合了精选的提示词,能复制到 AI 对话网站使用。 4. 知识库精选:将每天知识库的精华内容呈现给大家。 总之,WaytoAGI 网站和 WaytoAGI 知识库相互独立又有关联,希望成为您学习 AI 路上的好助手。
2025-04-13
想自学ai训练师 推荐哪个视频去学习
以下是为您推荐的自学 AI 训练师的视频: 1. 3 月 26 日|自由讨论|离谱视频切磋大会 猫先生介绍自己的背景和擅长领域 AI 学习与实践的重要性 AI 交流会:分享项目经验和技能 讨论比赛规则和资源分配 AI 工具学习与合作 广州 AI 训练师叶轻衣分享使用 AI 工具的经验和想法 组队提升工作效率 AI 技术在 3D 动画制作中的应用与优势 链接:https://waytoagi.feishu.cn/minutes/obcnc915891t51l64uyonvp2?t=0 2. AI 大神 Karpathy 再发 LLM 入门介绍视频 神经网络训练的目标:训练神经网络的目标是让模型学习 token 在序列中彼此跟随的统计关系,即预测给定上下文(token 序列)后,下一个最有可能出现的 token。 Token 窗口:训练时,模型从数据集中随机抽取固定长度的 token 窗口(例如 8000 个 token)作为输入。 神经网络的输入与输出:输入为 Token 序列(上下文),输出为预测下一个 token 的概率分布,词汇表中每个 token 都有一个概率值。 随机初始化与迭代更新:神经网络初始参数是随机的,预测也是随机的。训练过程通过迭代更新参数,调整预测结果,使其与训练数据中的统计模式相匹配。 损失函数与优化:训练过程使用损失函数来衡量模型预测与真实 token 的差距。优化算法(如梯度下降)用于调整参数,最小化损失函数,提高预测准确率。 神经网络内部结构:Transformer 包含注意力机制和多层感知器等组件,能够有效地处理序列数据并捕捉 token 之间的复杂关系。 链接:无
2025-04-12
想自学ai训练师
如果您想自学成为 AI 训练师,以下是一些相关的知识和建议: 一、AI 训练的基本概念 训练是指通过大数据训练出一个复杂的神经网络模型。这需要使用大量标记过的数据来训练相应的系统,使其能够适应特定的功能。训练过程需要较高的计算性能,能够处理海量的数据,并具有一定的通用性,以便完成各种各样的学习任务。 二、相关领域的知识 1. 机器学习:机器学习是人工智能的一个分支,是实现人工智能的途径之一,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。 2. 自然语言处理:自然语言(NLP)认知和理解是让电脑把输入的语言变成有意思的符号和关系,然后根据目的再处理。自然语言生成系统则是把计算机数据转化为自然语言,是人工智能和语言学领域的分支学科。 三、学习资源和实践 您可以参考以下的一些资源和实践方式: 1. 参加相关的线上交流会,例如 3 月 26 日的自由讨论活动,其中会分享项目经验、技能以及使用 AI 工具的经验和想法。 2. 了解一些健身的 AI 产品,如 Keep(https://keep.com/)、Fiture(https://www.fiture.com/)、Fitness AI(https://www.fitnessai.com/)、Planfit(https://planfit.ai/)等,虽然这些主要是健身领域的应用,但也能帮助您了解 AI 在不同场景中的应用和创新。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-04-12
怎么用把AI训练成自己的东西?
要将 AI 训练成自己的东西,可以参考以下方法: 1. 像马斯克提到的,对于公开的推文数据可以合理使用,但不能使用私人的东西进行训练。同时,要注重数据的质量和使用方式,高质量的数据对于训练效果至关重要。 2. 张梦飞的方法中,例如部署 LLama Factory 时,需要添加选中“identity”数据集,将训练轮数改成 15 等,并通过一系列操作进行训练和测试。但需要注意的是,训练大模型是复杂的过程,数据集和训练参数都会影响最终效果,需要反复调试和深入学习实践。 3. 在写作方面,我们可以根据自身需求选择人类驱动为主,利用 AI 进行修改完善,或者先由 AI 生成内容再进行修改以符合自己的风格。
2025-04-11
如何训练一个AI 阅读教练
训练一个 AI 可以类比为培养一位职场新人,主要包括以下三个阶段: 1. 规划阶段:明确目标 确定 AI 的具体任务,比如结构化外文精读等。 将任务拆解为可管理的子任务。 设计每个子任务的执行方法。 2. 实施阶段:实战指导 搭建工作流程。 为每个子任务设置清晰的操作指南。 像指导新员工一样,手把手引导 AI 完成任务,并及时验证其输出质量。 3. 优化阶段:持续改进 通过反复测试和调整,不断优化 AI 的性能。 调整工作流程和 Prompt 配置,直到 AI 能稳定输出高质量的结果。 当前大模型在处理多步骤复杂任务时存在明显局限,比如在“数据分析图表、剧情游戏”或“本文结构化外文精读”等任务中,仅依靠单一 Prompt 指令难以稳定执行,现阶段的 AI 更像缺乏独立解决问题能力的职场新人,需要遵循指引和给定的流程才能完成特定任务。如果您已经完全了解上述内容,不妨自己设定一个任务目标,动手构建一个专属于自己的 AI 。
2025-04-11
模型训练的基本名词和方法
以下是关于模型训练的基本名词和方法的介绍: 基本名词: 1. 过拟合&欠拟合:过拟合和欠拟合都是不好的现象,需要加以控制以让模型达到理想效果。解决方法包括调整训练集、正则化和训练参数等,过拟合可减少训练集素材量,欠拟合则增加训练集素材量。 2. 泛化性:泛化性不好的模型难以适应其他风格和多样的创作。可通过跑 lora 模型生图测试判断泛化性,解决办法与过拟合和欠拟合类似,从训练集、正则化、训练参数等方面调整。 3. 正则化:是解决过拟合和欠拟合情况、提高泛化性的手段,给模型加规则和约束,限制优化参数,有效防止过拟合,提高模型适应不同情况的表现和泛化性。 方法: 1. 全面充分采集训练素材:例如在角色训练素材中,应包含各种角度、表情、光线等情况的素材,确保模型具有较好泛化性。 2. 图像预处理:对训练素材进行分辨率调整、裁切操作,并对训练集进行打标签处理。 3. 参数调优:尽量将训练时长控制在半小时左右,过长易导致过拟合,通过调整参数控制时长。 4. 观察学习曲线:通过观察学习曲线来调整训练素材和参数。 5. 过拟合&欠拟合处理:测试训练好的模型,观察过拟合和欠拟合问题,进一步通过调整训练素材和正则化等手段优化。 此外,在模型训练中还需注意: 1. 数据集获取渠道:可通过网上收集、购买、使用无版权问题的如古画等,原则是根据生成图的需求找对应数据集,要清晰、主体元素干净、风格统一。 2. 数据集处理:包括基础处理如裁剪保证清晰和分辨率,更重要的是写标注。 3. 设置模型触发词:可自定义,完整形式可以是一句话,建议以王 flags 模型为主。 4. 统一标注风格与应用场景:例如未来高科技 3D 天然风格,用于互联网首页图像等,并概括主题内容、描述物体特征等。 5. 利用 GPT 辅助描述并人工审核:让 GPT 按要求描述,人工审核修改。 6. 模型训练的准备与流程:完成数据集描述后进入训练流程,选择模型训练分类和数据集,创建并上传数据集压缩包,注意数据名与图片命名一致。选择训练模式和参数,新手选用普通基础模式,训练集质量重要,训练参数中总步数与训练集图片数量相关,触发词设定要避免概念混乱。
2025-04-09