Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

炼丹需要了解的参数

Answer

炼丹需要了解的参数主要包括以下方面:

  1. 学习步数:指 AI 对每张图片的学习次数。二次元图片的 repeat 一般在 10 - 15,写实人物图片的 repeat 一般在 30 - 50,真实世界的景观场景可能要达到 100。repeat 值越高,AI 对图片的理解越好,但图片精细度越高,学习步数也要越高。
  2. 循环次数:AI 将所有图片按照学习步数学习一轮即为一次循环,循环次数指将这个过程重复的遍数。一般数值在 10 - 20 之间,次数并非越多越好,过多可能导致过拟合,即训练结果过于僵化。
  3. 训练总步数:通过图片张数×学习步数×循环次数计算得出。例如 5 张图片,学习步数 50,循环次数 10,训练总步数为 2500 步。
Content generated by AI large model, please carefully verify (powered by aily)

References

【Lora炼丹术】从零开始,炼制你的第一个LoRA(1)

我们点击“开启炼丹炉”,正式进入到丹炉内部。打开素材库可以看到5张tifa的图片图片,这是丹炉中自带的,我们先用这个来炼制第一炉丹吧。我们可以选择一个任意的基础模型,然后给我们想要炼制的lora取一个名字,即召唤词。正常来说,这个丹炉已经帮我们按照类型设定好了参数,所以你只需要点击“人物”选项卡就可以开始训练了。但是,我们这里最好还是要了解一下相关的参数,所以我们选择“自定义参数”。点击确定,我们就进入了一个参数设置的面板。接下来,我们就来了解一下,这些参数的具体含义。1首先是学习步数,指的是AI对我们每一张图片的学习次数。根据我们的训练内容,二次元图片的repeat一般在10-15,写实人物图片的repeat一般在30-50,真实世界的一些景观场景可能要达到100。repeat值越高,ai就能更好的读懂我们的图片,理论上讲图片的精细度越高,学习步数就要越高。循环次数:AI将我们的所有图片按照学习步数学习一轮就是一次循环,那循环次数就是将这个过程重复多少遍。一般数值在10-20之间,次数并不是越多越好,因为学多了就会知识固化,变成一个书呆子,画什么都和我们的样图一样,我们称之为过拟合。每一次循环我们都会得到一个炼丹结果,所以epoch为10的话,我们就训练完之后就会得到10个丹。我们总的训练步数,就是:图片张数*学习步数*循环次数=训练步数。即:5*50*10=2500步

【Lora炼丹术】从零开始,炼制你的第一个LoRA(1)

等待预处理完成,就可以看到图片被处理成了脸部和上半身的聚焦图片。进入TAG编辑当中,可以看到每张图片都被自动加上了标签,可以说是非常方便了。纯英文的tag看起来还是有点费劲的,我们可以打开这个翻译设置来开启双语tag。我们进入百度翻译开放平台,注册一个账号,点击“通用文本翻译”、点击“免费体验通用文本翻译API”。接下来会有注册为开发者的选项,大家可以注册个人开发者,按照流程填写即可。注册好之后,进入开发者信息,就可以看到AppID和密钥了。将信息填入,开启双语TAG,可以看到下面的tag就变成双语的了。接下来就是检查每幅图的tag,看看描述词是否和人物匹配,删除不正确的,新增一些你需要的。检查完没有问题之后,就可以点击“开始训练”,炼制我们的第一枚丹了。

【Lora炼丹术】国庆节去哪玩?炼个丹儿玩!人像lora炼制(2)

选一个基础大模型,我使用的是“麦橘写实”,然后填一个lora的名字。准备好之后,将照片导入到丹炉,选择适合的分辨率,可以勾选“脸部加强训练”,然后点击“预处理”。其实这里有一个自动的裁剪模式,但是我试过觉得自动的不太靠谱,所以还是手动裁吧。预处理之后,就会出现一个脸部的文件夹,和一个整体的文件夹,并且每一张照片都已经自动打好了tag标签。我们可以给整体添加统一的标签,也可以单独给每一张修改标签。这个标签的作用主要是帮助AI去理解我们的图片,告诉它画面里面有什么。这里要注意的是,如果你想让这个特征成为人物的固定的效果,你就不要填写这个关键词。比如我不描写他的发型,只描写他的头发颜色,那么后期出图的时候,他的发型就不能被改变,但是头发颜色却可以被改变。这个过程挺漫长的,每一张图片都要仔细检查,打标的好坏会影响到后面人物lora是否有比较好的泛化性。所以如果你想让你的人物能多一些变化,就尽量描述的详细一些吧。[heading1]#03[heading1]参数调整[content]前面两个环节比较重要,这个参数调节其实就可以佛系一点了。大部分参数是固定的,主要的几个按照我之前讲解过的人物参数配置一遍就可以了,后期再根据生成的结果来调整。设置好之后就可以开始训练了。[heading1]#04[heading1]炼丹[content]18张脸部图片,20张整体图片,各训练50步,循环训练10次,并行步数为1,所以训练总步数为19000,训练时长为45分钟,loss值为0.0769。从数值上来看是个不错的丹,但具体好坏还是要我们自己通过测试来判断,毕竟像不像只有我们自己知道。

Others are asking
炼丹
炼丹是指在 Lora 模型训练中的一系列过程,主要包括以下步骤: 1. 训练过程:每训练 50 步,右下角会生成一张图查看效果,训练完毕后会有一个 loss 值,数值在 0.07 0.09 之间为最优。 2. 模型查看:训练完成后点击模型文件夹查看炼丹成果,可修改丹的后缀名。 3. 跑图测试:炼丹完成后需放入 SD 中进行跑图测试。 4. 打标:选择基础大模型,如“麦橘写实”,填写 lora 名字,将照片导入丹炉,选择分辨率,可勾选“脸部加强训练”并点击“预处理”,手动裁剪,为脸部和整体文件夹中的照片打好 tag 标签,注意描述的详细程度会影响人物 lora 的泛化性。 5. 参数调整:大部分参数固定,主要参数按人物参数配置,后期根据生成结果调整。 6. 炼丹:如 18 张脸部图片、20 张整体图片,各训练 50 步,循环训练 10 次,并行步数为 1 。 7. 测试:将丹放入 SD 的 lora 文件夹,启动 SD 后在 lora 选项卡中刷新查看,通过 XYZ 脚本测试不同 lora 在不同权重下的效果,用肉眼对比寻找最像的,再更换提示词查看效果。
2025-02-12
Flux炼丹,炼丹物品如何打标
在 Flux 炼丹中,炼丹物品的打标步骤如下: 1. 选择一个基础大模型,如“麦橘写实”,并填写一个 lora 的名字。 2. 将照片导入到丹炉,选择适合的分辨率,可勾选“脸部加强训练”,然后点击“预处理”。手动裁剪照片,预处理后会出现脸部和整体的文件夹,且每张照片会自动打好 tag 标签。 3. 可以给整体添加统一的标签,也可单独给每一张修改标签。标签的作用是帮助 AI 理解图片内容,若想让某些特征成为人物的固定效果,则不填写相关关键词。打标过程需仔细检查每张图片,打标的好坏会影响人物 lora 的泛化性,若想让人物有更多变化,应尽量描述详细。 在打标过程中还需注意以下几点: 1. 注册为开发者,按照流程填写信息,获取 AppID 和密钥,并填入相关位置,开启双语 TAG,检查每幅图的 tag,删除不正确的,新增需要的。 2. 打标要用自然语言,语句精简,选好触发词和打标模型,推荐短标并检查。
2025-02-12
lora炼丹活动
以下是关于 Lora 炼丹活动的相关信息: 魔多·LoRA 模型创作大赛正在进行中。基于 SD1.5、SDXL、FLUX.1 底模创作 LoRA 模型,有中国神话、武侠风云、写实人像、灵动萌兽、银幕穿梭机、盲盒幻想六个赛题方向可供选择。 10 月 17 日晚 8 点有免费的 0 基础炼丹课程,由忠忠(设计类模型 Top1,Canva、平安科技、华为、腾讯等领先互联网公司培训讲师)授课。会议主题为教你 0 基础炼丹,会议时间为 20:00 22:00,会议 ID 为 370 697 604,会议链接为 https://vc.feishu.cn/j/370697604 。 此外,还有关于人像 lora 炼制的详细步骤: 1. 打标:选一个基础大模型,如“麦橘写实”,填一个 lora 的名字。将照片导入丹炉,选择适合的分辨率,可勾选“脸部加强训练”,然后点击“预处理”。手动裁剪照片,预处理后会出现脸部和整体的文件夹,且每张照片自动打好 tag 标签。可给整体添加统一标签或单独修改每张的标签,注意描述的详细程度会影响人物 lora 的泛化性。 2. 参数调整:前面环节重要,此环节可佛系,大部分参数固定,主要参数按人物参数配置,后期根据生成结果调整。 3. 炼丹:18 张脸部图片,20 张整体图片,各训练 50 步,循环训练 10 次,并行步数为 1,训练总步数为 19000,训练时长为 45 分钟,loss 值为 0.0769。但具体好坏需通过测试判断。 活动详情地址:
2025-02-07
什么是炼丹
在AI图像设计领域,"炼丹"这个术语被用来形象地描述一些复杂且需要大量实验的模型训练和优化过程。具体来说,它可能涉及以下几个方面: 1. 模型训练:在图像识别、分类、生成等任务中,需要训练深度学习模型以从大量图像数据中学习特征和模式。 2. 参数调整:调整模型的超参数(如学习率、网络层数、神经元数量等)以优化性能,这个过程可能需要大量的实验和试错。 3. 数据增强:为了提高模型的泛化能力,需要通过数据增强技术(如旋转、缩放、裁剪等)来增加训练数据的多样性。 4. 特征工程:在图像处理中,选择合适的特征是关键。这可能涉及到复杂的特征提取和选择过程。 5. 风格迁移:在图像风格迁移任务中,需要训练模型将一种图像的风格应用到另一种图像上,这通常需要精细的参数调整和多次迭代。 6. 图像生成:在生成对抗网络(GAN)等生成模型中,训练过程需要精心设计网络结构和损失函数,以达到逼真的图像生成效果。 7. 损失函数设计:设计合适的损失函数以指导模型训练,使其能够更好地学习图像的特征和结构。 8. 网络架构设计:尝试不同的网络架构(如卷积神经网络、循环神经网络等)来解决特定的图像处理任务。 9. 实验迭代:在图像设计中,通常需要多次实验和迭代来优化模型,这个过程可能非常耗时且需要耐心。 10. 结果验证:验证模型在不同数据集上的性能,确保其泛化能力和鲁棒性。 11. 自动化工具:使用自动化机器学习(AutoML)工具来辅助模型选择和参数调整,减少"炼丹"的工作量。 在AI图像设计领域,"炼丹"强调的是模型训练和优化过程中的复杂性和不确定性,以及需要投入大量时间和精力来达到理想的效果。随着技术的进步,研究人员正在探索更高效的方法来简化这一过程。
2024-07-16
2025年人工智能大模型的技术提升有哪些,是参数?推理能力?还是语料
2025 年人工智能大模型的技术提升可能体现在以下几个方面: 1. 视频生成能力:如 2024 年推出的多个先进的 AI 模型能够从文本输入生成高质量视频,相比 2023 年有显著进步。 2. 模型规模与性能:更小的模型能驱动更强的性能,如 2022 年最小能在 MMLU 上得分高于 60%的模型是具有 5400 亿参数的 PaLM,到 2024 年,参数仅 38 亿的微软 Phi3mini 也能达到相同阈值。 3. 推理能力:尽管加入了如思维链推理等机制显著提升了大语言模型的性能,但在一些需要逻辑推理的问题上,如算术和规划,尤其在超出训练范围的实例上,这些系统仍存在问题。 4. AI 代理:在短时间预算设置下,顶级 AI 系统得分高于人类专家,但随着时间预算增加,人类表现会超过 AI。 5. 算法变革:如 DeepSeek 的出现标志着算力效率拐点显现,其通过优化算法架构显著提升了算力利用效率,同时 2025 年发布的大模型呈现低参数量特征,为本地化部署到 AI 终端运行提供了可能,其训练过程聚焦于强化学习,提升了模型的推理能力。
2025-04-14
大模型的temperature参数是什么
大模型中的 temperature 参数用于控制模型输出的随机性。具体来说: 当 temperature 参数值较小时,模型会返回更确定的结果。 调高 temperature 参数值,模型可能会返回更随机的结果,带来更多样化或更具创造性的产出。 在实际应用中,对于质量保障(QA)等任务,可设置更低的 temperature 值,促使模型基于事实返回更真实和简洁的结果。 对于诗歌生成或其他创造性任务,可以适当调高 temperature 参数值。 同时,一般建议在调整参数时,改变 Temperature 和 Top P 其中一个参数就行,不用两个都调整。
2025-04-09
怎么搭建扣子智能体提取抖音文案并进行改写用到哪些插件,并给我配置参数与步骤图
以下是搭建扣子智能体提取抖音文案并进行改写所需的插件、配置参数及步骤: 1. 插件搭建: 点击个人空间,选择插件,点击创建插件。 插件名称:使用中文,根据需求起名。 插件描述:说明插件的用途和使用方法。 插件工具创建方式:选择云侧插件基于已有服务创建,填入所使用 API 的 URL。 在新的界面点击创建工具,填写工具的基本信息,如工具名称(只能使用字母、数字和下划线)、工具描述、工具路径(以“/”开始,若使用 path 方式传参,用“{}”包裹变量)、请求方法等,结束后点击保存并继续。 2. 配置输入参数: 点击新增参数,填写所有需要使用的参数,保存并继续。 3. 配置输出参数: 如果一切填写正确,可直接点击自动解析,会自动调用一次 API 给出对应的输出参数。 填入汉字“张”,点击自动解析。 解析成功后显示解析成功,可看到输出参数已填好,然后点击保存并继续。 4. 调试与校验: 测试工具是否能正常运行。 运行后查看输出结果,Request 为输入的传参,Response 为返回值,点击 Response 可看到解析后的参数。 此外,安仔使用 Coze 免费创建 24 小时英语陪练的步骤包括: 1. 打开扣子首页,点击左上角创建 AI Bot 按钮。 2. 在弹窗输入 Bot 相关信息。 3. 设计人设与回复逻辑,根据功能需求设计提示词。 4. 调整模型设置,如改为 20 轮对话记录。 5. 选择使用插件,如英文名言警句、Simple OCR 等。 6. 设置开场白和预置问题。 7. 设置语音,选择亲切的英语音色。
2025-03-18
可以给出国内出名的大语言模型的信息吗,包括其模型名称,版本,发布时间,发布公司,模型参数,性能特点等信息,尽可能覆盖更多的大模型,使用表格输出,并按照发布时间排序
|模型名称|版本|发布时间|发布公司|模型参数|性能特点|适合应用| |||||||| |Baichuan213BChat|Baichuan2192K|10月31日|百川智能|未提及|在逻辑推理、知识百科、生成与创作、上下文对话等基础能力上排名200亿参数量级国内模型第一,在计算和代码能力上有一定优化空间|场景相对广泛且可以私有化部署,重点推荐在小说/广告/公文写作等内容创作场景、智能客服/语音助手以及任务拆解规划等场景,可部署在教育、医疗、金融等垂直行业中应用,同时可部署在低算力终端处理基础智能任务| |文心一言|V4.0|10月17日|百度|未提及|在计算、逻辑推理、生成与创作、传统安全这4大基础能力上排名国内第一,在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三,各项能力表现均衡且绝大部分能力有很高的水平|能力栈较为广泛,可应用的场景较多,重点推荐在查询搜索知识应用、任务拆解规划Agent、文案写作以及代码编写及纠错等方面的应用,由于在逻辑推理方面的不俗表现,可以重点关注在科学研究、教育、工业方面的落地能力| |通义千问 2.0|2.0|10月31日|阿里云|千亿级参数|未提及|未提及|
2025-03-15
token与参数的关系
Token 与参数存在密切关系。在大模型中,用于表达 token 之间关系的参数众多,主要指模型中的权重(weight)与偏置(bias)。例如,GPT3 拥有 1750 亿参数,而词汇表 token 数相对较少,只有 5 万左右。 目前使用的大模型存在 token 限制,如 Claude2100k 模型的上下文上限是 100k Tokens(100000 个 token),ChatGPT16k 模型的上下文上限是 16k Tokens(16000 个 token),ChatGPT432k 模型的上下文上限是 32k Tokens(32000 个 token)。这种 token 限制同时对一次性输入和一次对话的总体上下文长度生效,当达到上限时不是停止对话,而是遗忘最前面的对话。 在分词过程中,不同的字符串会被编码为不同的 token,例如字符串“Tokenization”编码到 token30642 及其后的 token1634,token“is”(包括前面的空格)是 318 等。数字的分解可能不一致,如 127 是由 3 个字符组成的 token,677 是 2 个 token 等。 为了让计算机理解 Token 之间的联系,需要把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法包括基于统计的 Word2Vec、GloVe 等,基于深度网络的 CNN、RNN/LSTM 等,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力机制来学习不同 token 之间的依赖关系,生成高质量 embedding。
2025-03-06
ai大模型有哪些常用参数
以下是关于 AI 大模型常用参数的相关内容: 1. 架构方面: Encoderonly:适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT。 Encoderdecoder:结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,用例包括翻译和摘要,代表是谷歌的 T5。 Decoderonly:更擅长自然语言生成任务,众多 AI 助手采用此结构,如 ChatGPT。 2. 规模方面: 预训练数据量大,往往来自互联网上的论文、代码、公开网页等,一般用 TB 级别数据进行预训练。 参数众多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。参数指的是神经网络的输入权重和输出阈值的总和。假定一个神经元有 9 个输入权重和 1 个输出阈值,就有 10 个参数。当有 100 亿个这样的神经元时,就形成千亿级参数的大模型。 3. 模型部署方面: 在 LLM 中,Token 是输入的基本单元。由于大模型参数多,如 GPT2 有 1.5B 参数,每个参数用 float32 表示需 6GB 内存,更先进的模型如 LLAMA 有 65B 参数则需 260G 内存(还不考虑词汇表)。因此实际部署时会进行模型压缩。 在训练 LLM 中,CPU 与内存之间的传输速度往往是系统瓶颈,核心数反而不是大问题,减小内存使用是首要优化点。使用内存占用更小的数据类型是直接方式,如 16 位浮点数可将内存使用减倍。目前有几种相互竞争的 16 位标准,英伟达在其最新一代硬件中引入了对 bfloat16 的支持。
2025-03-03
了解学习阿里云百炼
阿里云百炼是基于通义系列大模型和开源大模型打造的一站式大模型服务平台,具有以下特点和优势: 提供「生成式大模型的应用编排搭建能力」和「企业大模型的全链路训练部署能力」,是企业 AI 时代的首选。 核心能力和优势: 大模型 API 服务:高可用、高性能、高性价比,提供通义闭源和开源系列大模型,以及图片、语音等多模态大模型和国内优质三方大语言模型。 AI 应用搭建:可观测、可干预、可追踪,提供 RAG 智能体应用、工作流编排和智能体编排三类使用场景的应用构建能力,以及包含插件能力、运营工具箱等适配工具,实现 10 分钟拖拉拽快速搭建 AI Agent。 同时提供很多行业级的解决方案,如短剧剧本创作、企业线索挖掘、泛企业 VOC 挖掘等。 其能力以原子级别的能力出售,即 API 能力,可结合日常场景进行二次加工应用。 体验相关: 百炼大模型平台体验入口:https://bailian.console.aliyun.com//home (需要登陆阿里云账号,也可以使用支付宝、钉钉、手机号快速注册登陆)。 建议注册后先进行实名认证,方便后续的一系列体验工作,以及领取一些免费的学习云资源。 此外,还有以下相关内容: 第一期「AI 实训营」手把手学 AI 中,本期共学直播地址:会议时间为 20:00 21:30 。 「第一天」COW 项目中,此教程是为 COW 项目接入千问、百炼而作,使用此教程的前提是已完成 COW 机器人的搭建,或者准备进行搭建。百炼首页:https://bailian.console.aliyun.com/ 。在调用阿里云的 AI 服务时有两种方式,一是直接调用模型,如通义千问系列以及其他的大模型产品服务。
2025-04-14
我想了解最新的ai的即时信息(最新资讯与ai工具)
以下是为您提供的最新 AI 即时信息和工具: 4 月 1 日 AI 资讯: 【AI 模型及应用】 OpenAI:将会开源一个推理模型,ChatGPT 即将推出推理强度控制选项,Gpt4o 生图能力面向免费用户。 Gemini 2.5 Pro:免费使用,任何人都可以使用 Canvas 进行编码和创作。 【AI 视频】 Higgsfield:发布 50 多个电影级摄影机动作预设,提升动态镜头表现力。 luma:为 Ray 2 引入摄像机运动概念,可基于预设镜头并组合编辑。 Remakes:支持基于用户上传图像直接编辑,并融合 Remade 视频特效,简化创意流程。 Meta:宣布推出 MoCha 系统,实现电影级说话角色合成效果。 【AI 3D】 HSMR:推出从单张图像重建人体 3D 骨骼和网格模型的系统。 krea:引入 AI 3D 生成能力,扩展其创意工具的功能范围。 PGC:推出基于物理的单一姿势高斯布料模拟技术,提升数字服装的真实感。 【AI 音频】 MiniMax Audio:发布全新 Speech02 语音模型,提升语音合成质量。 3 月 19 日 AI 资讯: 【AI 模型】 英伟达:发布全球首个开源人形机器人基础模型 Isaac GR00T N1 及相关 GTC 信息。 谷歌 Gemini:放出了两个功能 Canvas 和 Audio Overview。 【AI 视频】 STAbility AI:发布 Stable Virtual Camera,2D 图像转化 3D 视频。 Domo AI:推出“图片说话”功能,带口型匹配。 【AI 3D】 Roblox:推出 AI 3D 技术 Cube 3D。 Claude MCP Unity 版本推出。 【AI 音乐】 AI 音乐工具 Udio:推出 v1.5 Allegro。 LVAS Agent:基于多智能体协作的长视频音频合成。 获取 AI 资讯的渠道: 公众号:超时空视角、AI 替代人类。 小红书/抖音:EverAI。 B 站:Ever AI 酱(这里会有教程及 AI 工具界面操作)。 关于“通往 AGI 之路”知识库和社区平台: WaytoAGI(通往 AGI 之路)是一个致力于人工智能(AI)学习的中文知识库和社区平台。为学习者提供系统全面的 AI 学习路径,覆盖从基础概念到实际应用的各个方面。 汇集了上千个人工智能网站和工具,提供最新的 AI 工具、AI 应用、AI 智能体和行业资讯。 提供丰富的学习资源,包括文章、教程、工具推荐以及最新的 AI 行业资讯等。 社区定期组织活动,如视频挑战赛、模型创作大赛等,鼓励成员在实践中学习,促进交流与合作。 引领并推广开放共享的知识体系,倡导共学共创等形式,孵化了 AI 春晚、离谱村等大型共创项目。 在没有任何推广的情况下,WaytoAGI 一年时间已有超过 100 万用户和超千万次的访问量。 目前合作过的公司/产品包括阿里云,通义千问,淘宝,智谱,支付宝,豆包,火山引擎,marscode,coze,堆友,即梦,可灵,MiniMax 海螺 AI,阶跃星辰,百度,Kimi,吐司,liblib,华硕,美团,美的,360,伊利,魔搭,央视频,Civitai,Openart,Tripo3D,青椒云等。
2025-04-10
我想了解AI的应用方式
AI 的应用方式广泛且多样,主要包括以下几个方面: 1. 医疗保健: 医学影像分析,辅助诊断疾病。 药物研发,加速研发过程。 个性化医疗,提供个性化治疗方案。 机器人辅助手术,提高手术精度和安全性。 2. 金融服务: 风控和反欺诈,降低金融机构风险。 信用评估,辅助贷款决策。 投资分析,帮助投资者做出明智决策。 客户服务,提供 24/7 服务并回答常见问题。 3. 零售和电子商务: 产品推荐,根据客户数据推荐感兴趣的产品。 搜索和个性化,改善搜索结果和提供个性化购物体验。 动态定价,根据市场需求调整产品价格。 聊天机器人,回答客户问题和解决问题。 4. 制造业: 预测性维护,预测机器故障避免停机。 质量控制,检测产品缺陷提高质量。 供应链管理,优化供应链提高效率和降低成本。 机器人自动化,控制工业机器人提高生产效率。 5. 交通运输: 自动驾驶,提高交通安全性和效率。 交通管理,优化交通信号灯和流量缓解拥堵。 物流和配送,优化路线和配送计划降低运输成本。 无人机送货,将货物快速送达偏远地区。 6. 其他应用场景: 教育,提供个性化学习体验。 农业,分析农田数据提高农作物产量和质量。 娱乐,开发虚拟现实和增强现实体验。 能源,优化能源使用提高能源效率。 此外,还有众多具体的 AI 应用产品,如辅助创作与学习方面的 AI 智能写作助手、语言学习助手等;推荐与规划方面的图像识别商品推荐、旅游行程规划器等;监控与预警方面的宠物健康监测设备、家居安全监控系统等;优化与管理方面的办公自动化工具、物流路径优化工具等;销售与交易方面的艺术作品生成器、汽车销售平台等。总之,AI 的应用场景还在不断扩展,未来将对我们的生活产生更加深远的影响。
2025-04-09
AI的基础知识了解
以下是关于 AI 基础知识的介绍: AI 背景知识: 基础理论:明确人工智能、机器学习、深度学习的定义以及它们之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等基本概念。 概率论:掌握基础的概率论知识,如条件概率、贝叶斯定理。 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:了解其基本概念。 评估和调优: 性能评估:知道如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习使用网格搜索等技术优化模型参数。 神经网络基础: 网络结构:理解包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)等基本结构。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 对于新手学习 AI,建议: 了解 AI 基本概念:阅读「」部分,熟悉术语和基础概念,了解其主要分支及联系,浏览入门文章。 开始学习之旅:在「」中找到为初学者设计的课程,推荐李宏毅老师的课程,通过在线教育平台按自己节奏学习并获取证书。 选择感兴趣的模块深入学习:AI 领域广泛,可根据兴趣选择特定模块,如掌握提示词技巧。 实践和尝试:理论学习后进行实践,尝试使用各种产品并分享作品。 体验 AI 产品:与如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式。
2025-04-09
我想了解如何提取自己的声音并实现大模型以我的声音回答我
要提取自己的声音并实现大模型以您的声音回答,目前提供的知识库中没有直接相关的详细内容。但可以为您提供一些可能有用的思路和参考方向: 对于声音提取,可能需要使用专业的音频处理软件和设备,将您的声音录制并进行处理和分析。 关于让大模型以您的声音回答,这可能涉及到语音合成技术。您可以先了解一些常见的语音合成模型和工具,例如通过创建大模型问答应用,获取推理 API 服务等。 同时,还可以参考一些关于大模型和语音处理的专业知识,比如大模型的本质是基于语言的概率模型,通过设置合适的 Prompt 来引导模型输出更准确的结果。 由于知识库中没有确切的针对您需求的详细步骤和方法,以上内容仅供您初步参考。
2025-04-01
我希望了解人工智能大模型公司的整体产业情况
以下是关于人工智能大模型公司的整体产业情况: 2024 年被称为国内大模型落地元年,经过一年时间的发展,呈现出以下特点: 1. 竞争格局:国内大模型行业基本形成了以百度、阿里、字节等科技大厂和创业“AI 六小虎”为主要玩家的竞争态势。 2. 落地增长:2024 年 1 至 11 月,国内大模型中标项目数量和金额大幅增长。中标项目共 728 个,是 2023 年全年的 3.6 倍;中标金额 17.1 亿元,是 2023 年全年的 2.6 倍。中标项目数前五的行业分别是运营商、能源、教育、政务、金融。 3. 厂商表现:百度在中标数量和金额方面排名所有厂商之首,科大讯飞居第二。在金融行业,百度也排名第一。 4. 行业应用:在智能终端行业,超半数手机厂商使用文心大模型,多家车企已接入百度文心大模型。 5. 能力要求:大模型进入产业落地后,除模型本身能力外,落地应用所需的全栈技术能力、工程化配套工具等对落地效果有直接影响。企业落地大模型需要具备构建算力、数据治理、模型训练、场景落实、应用搭建、持续运营、安全合规等整套能力,大模型的竞争正成为体系化之战。 此外,2023 年国内大模型发展情况包括:智谱推出了 4 代 GLM,MiniMax 推出新模型及“星野”APP,月之暗面在长 Token 能力上表现出色。但在 2C 端真正出圈的产品较少,在 2B 行业中,大模型对收入撬动有限。硬件层上,国内仍缺乏胜任大模型训练的芯片,华为昇腾在单卡指标上接近,但存在稳定性和生态问题。
2025-03-27
作为AI小白,需要一些AI常用专业术语的名词解释
以下是一些 AI 常用专业术语的名词解释: Agents(智能体):一个设置了一些目标或任务,可以迭代运行的大型语言模型。与大型语言模型在像 ChatGPT 这样的工具中的通常使用方式不同,Agent 拥有复杂的工作流程,模型本质上可以自我对话,无需人类驱动每一部分的交互。 ASI(人工超级智能):尽管存在争议,但通常被定义为超越人类思维能力的人工智能。 Attention(注意力):在神经网络的上下文中,有助于模型在生成输出时专注于输入的相关部分。 Bias(偏差):AI 模型对数据所做的假设。“偏差方差权衡”是模型对数据的假设与给定不同训练数据的模型预测变化量之间必须实现的平衡。归纳偏差是机器学习算法对数据的基础分布所做的一组假设。 Chatbot(聊天机器人):一种计算机程序,旨在通过文本或语音交互模拟人类对话。通常利用自然语言处理技术来理解用户输入并提供相关响应。 CLIP(对比语言图像预训练):由 OpenAI 开发的 AI 模型,用于连接图像和文本,使其能够理解和生成图像的描述。 Gradient Descent(梯度下降):在机器学习中,是一种优化方法,根据模型损失函数的最大改进方向逐渐调整模型的参数。 Hallucinate,Hallucination(幻觉):在人工智能的背景下,指模型生成的内容不是基于实际数据或与现实明显不同的现象。 Hidden Layer(隐藏层):神经网络中不直接连接到输入或输出的人工神经元层。 Hyperparameter Tuning(超参数调优):为机器学习模型的超参数(不是从数据中学习的参数)选择适当值的过程。 Inference(推理):使用经过训练的机器学习模型进行预测的过程。 Instruction Tuning(指令调优):机器学习中的一种技术,其中模型根据数据集中给出的特定指令进行微调。 Latent Space(潜在空间):在机器学习中,指模型创建的数据的压缩表示形式。类似的数据点在潜在空间中更接近。 Compute(计算):用于训练或运行 AI 模型的计算资源(如 CPU 或 GPU 时间)。 CNN(卷积神经网络):一种深度学习模型,通过应用一系列过滤器来处理具有网格状拓扑(例如图像)的数据。通常用于图像识别任务。 Data Augmentation(数据增强):通过添加现有数据的略微修改的副本来增加用于训练模型的数据量和多样性的过程。 Double Descent(双降):机器学习中的一种现象,其中模型性能随着复杂性的增加而提高,然后变差,然后再次提高。 EndtoEnd Learning(端到端学习):一种不需要手动设计功能的机器学习模型。该模型只是提供原始数据,并期望从这些输入中学习。 Expert Systems(专家系统):人工智能技术的应用,为特定领域的复杂问题提供解决方案。 XAI(可解释的人工智能):Explainable AI,人工智能的一个子领域专注于创建透明的模型,为其决策提供清晰易懂的解释。
2025-04-18
你是福州市政府工作人员,中国移动拟邀请福州市委书记参加中国移动人工智能生态大会并致辞,该大会是第八届数字峰会的组成部分,需要撰写市委书记的致辞稿,需要中国移动准备哪些素材,请告诉我提示词
以下是为您整理的相关内容: 《促进创新的人工智能监管方法》:包含了关于通用人工智能价值链、相关案例研究以及对人工智能监管框架的探讨等内容。 陶力文律师关于律师写好提示词用好 AI 的方法:包括初始化的欢迎语、遵循的规则、获取案例洞察报告和目标群体、输出纲要和写作方案、根据用户反馈调整等流程。 开幕式主持稿:涉及基地代表发言的时间、主题、物料配合和人员配合等信息。 但这些素材似乎与为中国移动准备市委书记致辞稿所需的素材关联不大。一般来说,为撰写市委书记在中国移动人工智能生态大会上的致辞稿,中国移动可能需要准备以下素材: 1. 本次大会的详细介绍,包括主题、目标、议程安排等。 2. 中国移动在人工智能领域的发展成果、战略规划和未来愿景。 3. 中国移动人工智能生态的构建情况,如合作伙伴、合作项目等。 4. 本次大会在第八届数字峰会中的地位和作用。 5. 相关行业的人工智能发展现状和趋势。 6. 福州市在人工智能领域的发展情况和与中国移动合作的展望。
2025-04-18
需要做一个自动化出视频的工作流
以下是一个关于自动化出视频工作流的详细介绍: 优势: 全自动化处理,解放双手。 40 秒快速出片,效率提升。 成本低廉,每条仅需 0.0x 元。 输出质量稳定专业。 DeepseekR1 保证文案质量。 还能改进,例如可以加入配套 BGM,让视频更有感染力;增加更丰富的画面内容和转场效果;使用免费节点替代付费插件,进一步降低成本;优化模板样式,支持更多展示形式;增加自动化程度,支持批量处理。 工作流程: 1. 可以在扣子商店体验,建议自己搭建。 2. 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 3. 选择发布渠道,重点如飞书多维表格,填写上架信息(为了快速审核,选择仅自己可用),确认发布等待审核,审核通过后即可在多维表格中使用。 4. 创建飞书多维表格,添加相关字段,配置选择“自动更新”,输入相关字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 5. 表单分享,实现“填写表单,自动创建文案短视频”的效果。 6. 全自动视频合成使用多视频融合插件,一键导出成品。但需注意节点产生的视频是异步生成,可能无法马上展现,需耐心等待几秒。 如果您还有其他疑问或需要进一步的帮助,请随时联系。
2025-04-14
我要写论文,需要用什么ai工具‘
在论文写作中,以下是一些常用的 AI 工具: 1. 文献管理和搜索: Zotero:结合 AI 技术,能自动提取文献信息,便于管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术进行文本校对、语法修正和写作风格建议,提升语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,方便进行数据分析和可视化。 Knitro:用于数学建模和优化,助力复杂数据分析和模型构建。 4. 论文结构和格式: LaTeX:虽不是纯粹的 AI 工具,但结合自动化和模板,能高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化论文编写。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:检测潜在抄袭问题。 利用 AI 写课题的步骤和建议如下: 1. 确定课题主题:明确研究兴趣和目标,选择有价值和创新性的主题。 2. 收集背景资料:使用学术搜索引擎和文献管理软件等 AI 工具搜集相关文献和资料。 3. 分析和总结信息:借助 AI 文本分析工具提取关键信息和主要观点。 4. 生成大纲:用 AI 写作助手生成包括引言、文献综述、方法论、结果和讨论等部分的大纲。 5. 撰写文献综述:利用 AI 工具确保内容准确完整。 6. 构建方法论:根据研究需求,采用 AI 建议的方法和技术设计研究方法。 7. 数据分析:若涉及数据收集和分析,使用 AI 数据分析工具处理和解释数据。 8. 撰写和编辑:借助 AI 写作工具撰写各部分,并检查语法和风格。 9. 生成参考文献:使用 AI 文献管理工具生成正确格式。 10. 审阅和修改:用 AI 审阅工具检查逻辑性和一致性,根据反馈修改。 11. 提交前的检查:使用抄袭检测工具确保原创性,做最后的格式调整。 AI 文章排版工具方面: 1. Grammarly:不仅检查语法和拼写,还具备一定排版功能,可改进文档风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,能改进文本清晰度和流畅性。 3. Latex:常用于学术论文排版,使用标记语言描述格式,有 AI 辅助的编辑器和插件简化过程。 4. PandaDoc:文档自动化平台,用 AI 帮助创建、格式化和自动化生成文档,适用于商业和技术文档。 5. Wordtune:AI 写作助手,重新表述和改进文本,使其更清晰专业。 6. Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作排版。 选择合适的 AI 文章排版工具需考虑文档类型、出版标准和个人偏好。学术论文常用 Latex 和 Overleaf,一般文章和商业文档则 Grammarly 和 PandaDoc 等可能更适用。
2025-04-14
我有秋叶整合包,然后需要怎么搭建本地部署?
以下是使用秋叶整合包搭建本地部署的步骤: 1. 下载整合包:可以从。 2. 复制启动器到下载仓库的目录下。 3. 打开启动器,可一键启动。如果有其他需求,可以在高级选项中调整配置。 显存优化根据显卡实际显存选择,不要超过当前显卡显存。xFormers 能极大地改善内存消耗和速度,建议开启。 4. 准备工作完毕后,点击一键启动即可。等待浏览器自动跳出,或是控制台弹出本地 URL 后说明启动成功。 如果报错提示缺少 Pytorch,则需要在启动器中点击配置。 5. Stable Diffusion webui 的更新比较频繁,请根据需求在“版本管理”目录下更新,同时注意插件的更新。 在 webui 的“扩展”选项卡下,可以安装插件。点击“加载自”后,目录会刷新,选择需要的插件点击右侧的 install 即可安装。安装完毕后,需要重新启动用户界面。 具体安装方法: 1. 打开整合包链接(https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,提取码:caru),下载《1.整合包安装》,存放到电脑本地。 2. 打开保存到电脑里的文件夹。 3. 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 4. 选择解压到 D 盘或者 E 盘(避免 C 盘被占满),点击确定。 5. 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 6. 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,选择桌面快捷方式,方便下次进入。 7. 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择。 8. 回到第一个一键启动,点击右下角的一键启动。出现代码页面不用管,等待 SD 的主界面在网页上自动弹出。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。
2025-04-12
我想要自学AI相关的知识,但不知道从哪里开始,需要一个行动方案,我未来想做一个ai产品经理
以下是为您提供的自学 AI 知识并成为 AI 产品经理的行动方案: 1. 应用方面: 深入了解 Prompt,选择适合自己的 AI 对话、绘画和语音产品,每天使用并用于解决实际问题或提升效率。 2. 分析方面: 大量阅读各类文章、视频以及行业报告,理解各知识之间的关系。 3. 掌握相关技能: 了解目前 AI 提示词工程师岗位的招聘技能要求,例如: 本科及以上学历,计算机科学、人工智能、机器学习相关专业背景。 熟悉 ChatGPT、Llama、Claude 等 AI 工具的使用及原理,并具有实际应用经验。 熟练掌握 ChatGPT、Midjourney 等 AI 工具的使用及原理。 负责制定和执行 AI 项目,如 Prompt 设计平台化方法和模板化方法。 了解并熟悉 Prompt Engineering,包括常见的 Prompt 优化策略(例如 CoT、Fewshot 等)。 对数据驱动的决策有深入的理解,能够基于数据分析做出决策。 具有创新思维,能够基于业务需求提出并实践 AI first 的解决方案。 对 AI 技术与算法领域抱有强烈的好奇心,并能付诸实践。 对 AIGC 领域有深入的理解与实际工作经验,保持对 AI 技术前沿的关注。 具备一定的编程和算法研究能力,能应用新的 AI 技术和算法于对话模型生成。 具有一定的编程基础,熟练使用 Python、Git 等工具。 4. 了解产品经理工作: 调研市场、思考需求、转化需求、思考解决方案、设计解决方案、分配任务、进行测试、实现解决方案。 像善用提示词工程的人一样,将需求抽象再具象成产品。 总之,要成为 AI 产品经理,需要不断学习和实践,适应行业的发展和变化。
2025-04-12