Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

怎么快速生产训练语料

Answer

以下是快速生产训练语料的一些方法:

  1. 在 LORA 模型训练中:
    • 首先在脚本的 LoraTraining 目录下新建训练文件夹命名为 train。
    • 如果需要训练多个概念,就在(input_角色名称)下面再新建一个文件夹,命名写(训练次数_角色名称_泳装)进行文件夹区分。
    • 在脚本根目录下面建立一个训练文件夹(train),在(train)文件夹内建立一个概念文件夹和一个正则化文件夹(reg,不需要正则化可不建立),在概念文件夹内建立--训练素材文件夹(训练素材文件夹前面的需要加“_”你想训练的次数)之后将训练素材放置进去即可。
    • 正则化素材方面,正则化在深度学习中指的是给模型加一些规则和约束,限制要优化的参数有效防止过拟合。假设在训练集里面放入了一个泳装角色的训练素材,那么为了防止过拟合的问题,在正则化文件夹内放入一些同样是泳装的图片素材。正则化素材注意不要过多,不然机器会过多的学习到里面的素材导致跟训练目标角色不一致。
  2. 对于神经网络大模型:
    • 大模型生成文字的过程,是根据输入的文字,预测下一个字。通过一次又一次反复的调用同一个神经网络模型,一个一个字的往后续写,直到输出结束符号为止。
    • 大模型的输出并不是一个字,而是所有字都输出一个概率。可以选择最高概率的或者第二高的汉字作为输出结果,也可以从前几名当中随机挑选。
    • 可以将任何网络上的文本直接当作训练素材来训练神经网络模型。把任意一段文字的前几个字作为输入,而下一个字作为答案用做训练素材,从而方便地得到大量的训练素材。
  3. 在雅思口语备考中:
    • 如果时间充裕,建议把每个 topic 的问题喂给 GPT,让它一道道问您,您回答,然后转成文本查看发音问题。
    • 让 GPT 对您的内容执行 correct 或者 another native answer 两个指令。前者可以基于您的内容做修正,后者是在自己完全没思路时让它给出答案。
    • 对语料进行分类归纳,如按照教育、工作、购物、科技、消费分成几大类,再弄吃、环保、交通、历史等专题,挑最不熟悉、现场水不出来的准备。考前 1 小时,再顺一遍语料,多看两眼关键表达。
Content generated by AI large model, please carefully verify (powered by aily)

References

《LORA模型训练超入门级教程》--人人都可以当炼金术士

注:这里把概念名称转换成角色名称方便理解,具体概念名称按照需求进行填写,*文件夹命名不能用中文。1.首先在脚本的LoraTraining目录下新建训练文件夹命名为train2.如果需要训练多个概念(例如:角色除了本体之外,还要加一个穿着泳装训练素材),这时候就在(input_角色名称)下面再新建一个文件夹,命名写(训练次数_角色名称_泳装)进行文件夹区分。[heading3]a.训练文件夹建立步骤:[content](1).在脚本根目录下面建立一个训练文件夹(train)(2).在(train)文件夹内建立一个概念文件夹和,一个正则化文件夹(reg),不需要正则化可不建立(3).在概念文件夹内建立--训练素材文件夹(训练素材文件夹前面的需要加“_”你想训练的次数)之后将训练素材放置进去即可。[heading3]b.正则化文件夹搭建:[content][heading3]c.正则化素材示意:[content]正则化在深度学习中指的是:给模型加一些规则和约束,限制要优化的参数有效防止过拟合。正则化素材【假设我在训练集里面放入了一个泳装角色的训练素材,那么为了防止过拟合的问题,在正则化文件夹内放入一些同样是泳装的图片素材】可以用SD进行快速生成*正则化素材不需要生成tag文本文件!!!正则化素材注意不要过多,不然机器会过多的学习到里面的素材导致跟训练目标角色不一致,*简单来说就是让AI稍微克制一下学习的程度,防止发生过拟合。在我的理解看来正则化手段是目前控制过拟合问题,最容易理解的一个操作的方法。

一个希望有点意思的AI分享(二)

从PPT里可以看到,这个神经网络大模型其实只做一件事,就是根据输入的文字,预测下一个字是什么。你输入台湾大,它会预测学。如果你输入的已经是完整的一段文字带有句号,那么它会预测下一个应该是结束。所以,大模型生成文字的过程,并不是一次性输出整段,而是通过一次又一次反复的调用同一个神经网络模型,一个一个字的往后续写,直到输出结束符号为止。你可能想到,一段文字的下一个字会有多种可能性,事实上,大模型的输出并不是一个字,而是所有字都输出一个概率。你可选择最高概率的或者第二高的汉字作为输出结果,你更可以从前几名当中随机挑选。也正是由于这样,现在AI生成的文章才能体现出这么多的创意性。这么做的一大好处是,我们几乎可以将任何网络上的文本直接当作训练素材来训练我们的神经网络模型。因为我们可以把任意一段文字的前几个字作为输入,而下一个字作为答案用做训练素材。这使得我们可以非常方便的得到大量的训练素材。而AI也是通过这种方式,“读”过了当前网络上几乎所有的文字资料。这种“预测下一个词”的行为可以看作是一种信息压缩。AI将它看过的所有文章压缩在了它的上亿参数中。当然,你或许发现了,既然是预测,那么它就不一定保证正确。它只是根据它看过的海量资料的“印象”猜了一个结果。事实上,这一点也很像人类,其实人类自己也无法保证记忆的正确性。另外,这种预测下一个字的方式可以拓展到图像、声音等等领域,只要定义好“下一个”是什么信号即可。当前的AI也正是类似这样学会处理图像、声音等等信息的。

外语:雅思口语急速备考

part3是重头戏,据说直接决定分数。3.1.如果时间充裕,建议把每个topic的问题喂给GPT,让它一道道问你,你回答(我用苹果自带的录音转文字)。转成文本你差不多也能知道自己发音都有啥问题了。3.2.然后让它对你的内容执行correct或者another native answer两个指令就行。前者可以基于你的内容给你做修正,后者是自己完全没思路让它给你弄一个。我只能说效果很惊艳,我说得再烂,它都能给我润色得不错。当然这种练习比较废时间,我之前的效率差不多2小时能搞完2、3个topics,如果时间充裕p1也可以用这个方法练习。不过当时没时间绝望的我只能暴力出奇迹,把25个新题的p3问题全部丢给它让它直接给我出答案,要求是critical,2sides,50字左右。3.3.然后还是要归纳,我把语料按照教育,工作,购物,科技,消费分成几大类,然后再弄吃、环保、交通、历史几个专题(专题多少完全看自己脑子还剩多少容量了),可以挑最不熟悉、现场水不出来的准备。分完类还是找关键表达。p3差不多5、6面A4。考前1小时,拿着10多面A4纸再顺一遍语料,画线的关键表达多看两眼。进考场开始你的表演...

Others are asking
2025年人工智能大模型的技术提升有哪些,是参数?推理能力?还是语料
2025 年人工智能大模型的技术提升可能体现在以下几个方面: 1. 视频生成能力:如 2024 年推出的多个先进的 AI 模型能够从文本输入生成高质量视频,相比 2023 年有显著进步。 2. 模型规模与性能:更小的模型能驱动更强的性能,如 2022 年最小能在 MMLU 上得分高于 60%的模型是具有 5400 亿参数的 PaLM,到 2024 年,参数仅 38 亿的微软 Phi3mini 也能达到相同阈值。 3. 推理能力:尽管加入了如思维链推理等机制显著提升了大语言模型的性能,但在一些需要逻辑推理的问题上,如算术和规划,尤其在超出训练范围的实例上,这些系统仍存在问题。 4. AI 代理:在短时间预算设置下,顶级 AI 系统得分高于人类专家,但随着时间预算增加,人类表现会超过 AI。 5. 算法变革:如 DeepSeek 的出现标志着算力效率拐点显现,其通过优化算法架构显著提升了算力利用效率,同时 2025 年发布的大模型呈现低参数量特征,为本地化部署到 AI 终端运行提供了可能,其训练过程聚焦于强化学习,提升了模型的推理能力。
2025-04-14
AI 分为哪些层?如:语料,大模型
AI 可以分为以下几个层面: 1. 概念层面: AI 即人工智能。 生成式 AI 生成的内容称为 AIGC。 2. 学习方式层面: 机器学习,包括监督学习(有标签的训练数据,算法目标是学习输入和输出之间的映射关系,包括分类和回归)、无监督学习(学习的数据没有标签,算法自主发现规律,经典任务如聚类)、强化学习(从反馈里学习,最大化奖励或最小化损失,类似训小狗)。 3. 技术方法层面: 深度学习,参照人脑有神经网络和神经元(因有很多层所以叫深度),神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 即大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),像上下文理解、情感分析、文本分类。 4. 技术里程碑层面:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,无需依赖循环神经网络(RNN)或卷积神经网络(CNN)。
2025-03-30
有没有一种小模型,语料只是一个知识库,超出范围的无法回答?
以下是关于您问题的回答: 在医疗领域,存在一种智能体,其在提示词中约定回答只能来自于知识库。例如生物医药小助手,为了避免在医疗这个严肃领域出现误导性的回答,其回答被限制在特定的知识库范围内,可能存在问题超出知识库范畴的情况,但尚未发现有医学上不严谨的回答现象。 同时,模型存在一定的局限性。在训练过程中,模型虽接触大量知识,但未完美记忆且不清楚知识边界,可能尝试回答深奥话题并虚构不正确内容,产生幻觉。例如要求模型描述虚构的牙刷产品时,会给出逼真但虚构的描述。在构建应用程序时,可使用一些技术避免这种情况,如要求模型先从文本中找相关引文,再用引文回答问题并追溯源文件,以减少幻觉的发生。 另外,“小模型”在特定任务上表现出色,如专门识别猫或狗的模型,但无法用于其他任务。而“大模型”像多功能基础平台,能处理多种任务,应用范围广泛且有更多通识知识,但大模型的知识来源于有限的训练数据,不能拥有无限知识,且知识库不会自动更新,在某些特定或专业领域知识可能不够全面。
2025-03-05
语料库训练相关文档
以下是为您提供的语料库训练相关文档: 中文数据集 |ID|标题|更新日期|数据集提供者|许可|说明|关键字|类别|论文地址|备注| ||||||||||| |6||2020 年|CLUE||CLUENER2020 数据集,是在清华大学开源的文本分类数据集 THUCTC 基础上,选出部分数据进行细粒度命名实体标注,原数据来源于 Sina News RSS。数据包含 10 个标签类别,训练集共有 10748 条语料,验证集共有 1343 条语料|细粒度;CULE|命名实体识别|\\|中文| |7||英文| |8||||EMNLP2015|命名实体识别||| |9||2005 年|MSR/PKU|||bakeoff2005|命名实体识别||| TTS 超全教程 音库制作和文本前端 音库制作 音频录制 音频的录制对合成语音的表现较为重要,较差的语音甚至会导致端到端声学模型无法正常收敛。用于训练的录音至少要保证录音环境和设备始终保持一致,无混响、背景噪音;原始录音不可截幅;如果希望合成出来的语音干净,则要删除含口水音、呼吸音、杂音、模糊等,但对于目前的端到端合成模型,有时会学习到在合适的位置合成呼吸音、口水音,反而会增加语音自然度。录音尽可能不要事先处理,语速的调节尚可,但调节音效等有时会造成奇怪的问题,甚至导致声学模型无法收敛。音频的录制可以参考录音公司的标准,购买专业麦克风,并保持录音环境安静即可。在音库录制过程中,可尽早提前尝试声学模型,比如音库录制 2 个小时语音后,就可尝试训练基线语音合成系统,以防止录音不符合最终的需求。 语料整理 检查文本和录制的语音是否一一对应,录制的音频本身一句话是否能量渐弱,参与训练的语音前后静音段要保持一致,能量要进行规范化。可使用预训练的语音活动检测(Voice Activity Detection,VAD)工具,或者直接根据语音起止的电平值确定前后静音段。可以使用一些开源的工具,比如统一所有语音的整体能量,这将有助于声学模型的收敛。当然,在声学模型模型训练时,首先就要对所有语料计算均值方差,进行统一的规范化,但是这里最好实现统一能量水平,防止一句话前后能量不一致。能量规整的示例代码如下。
2025-01-02
怎么投喂语料库给ai
以下是关于投喂语料库给 AI 的一些方法和步骤: 在音乐学习方面: 1. 步骤 3:把 Midi 导出到 MP3 虚拟演奏文件。可以直接导总谱,也可以分轨导出(适用于不同乐器组合)。由于制谱软件有很重的 midi 味,有时需要调整乐器音色。320kbit 码率是各大音乐平台的门槛,而向 Suno 导出的是 192k 的,后期如果想输出到 QQ 音乐之类,需要转个码。导出以后就可以喂给 AI 了。修改音色这一步不是必须,也有很多染色的软件可以用,比如用 Neutron4 从 Youtube 上面下载一些自己喜欢的乐器音色(比如雅马哈大钢琴),然后用宿主软件打开插件,导入这段音频,就可以实现渲染。 2. 步骤 4:丢给 AI 做二次创作。比较喜欢丢完整的小节给 AI,这样节奏的识别性更好,当然也可以在中间掐断,AI 的识别能力还是不错的。接下来就是细化去 roll 后面的部分,大家可以自由发挥。 在 OpenAI 方面: 如果作为输入的一部分提供,模型可以利用外部信息源。这可以帮助模型生成更明智和最新的响应。例如,如果用户询问有关特定电影的问题,将有关电影的高质量信息(例如演员、导演等)添加到模型的输入中可能会很有用。嵌入可用于实现高效的知识检索,以便在运行时将相关信息动态添加到模型输入中。文本嵌入是一个向量,可以衡量文本字符串之间的相关性。相似或相关的字符串将比不相关的字符串靠得更近。这一事实以及快速向量搜索算法的存在意味着嵌入可用于实现高效的知识检索。特别是,一个文本语料库可以被分割成块,每个块都可以被嵌入和存储。然后,给定的查询可以被嵌入,可以进行向量搜索,以找到与查询最相关的语料库的嵌入文本块(即,在嵌入空间中最接近的)。可以在中找到示例实现。有关如何使用知识检索来最小化模型编造错误事实的可能性的示例,请参阅策略“指示模型使用检索到的知识来回答查询”。
2024-12-30
大模型中的参数和语料是什么意思
大模型中的参数和语料含义如下: 语料:大模型通过输入大量的语料来学习,从而获得类似人类的“思考”能力,能够进行诸如文本生成、推理问答、对话、文档摘要等工作。这些语料通常来自互联网,包括论文、代码、公开网页等,数据量巨大,一般以 TB 级别计。 参数:大模型的参数数量非常多,例如 OpenAI 在 2020 年发布的 GPT3 就已经达到 170B 的参数。参数规模的大小对模型的性能和表现有重要影响。 在大模型的训练和使用过程中,可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有有资本购买大量 GPU 的才有能力训练自己的大模型。 2. 确定教材:大模型需要大量的数据量,几千亿序列(Token)的输入基本是标配。 3. 找老师:即采用合适的算法让大模型更好地理解 Token 之间的关系。 4. 就业指导:为了让大模型更好地胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行诸如翻译、问答等工作,在大模型里称之为推导(infer)。 大模型的发展历程起源于 2017 年发布的 Attention Is All You Need 论文,之后基于大量语料的预训练模型百花齐放,如 BERT(参数规模:110M 到 340M)、GPT(参数规模:1750 亿)、LLAMA(参数规模:十亿到千亿)等。 大模型的架构包括 encoderonly、encoderdecoder 和 decoderonly 三种,目前常见的 AI 助手基本采用 decoderonly 架构。
2024-08-10
这个网站的作用是什么?是通过这个网站更好的使用训练AI吗?
WaytoAGI 网站具有以下功能: 1. 和 AI 知识库对话:您可以在此询问任何关于 AI 的问题。 2. AI 网站:集合了精选的 AI 网站,可按需求找到适合您的工具。 3. AI 提示词:集合了精选的提示词,能复制到 AI 对话网站使用。 4. 知识库精选:将每天知识库的精华内容呈现给大家。 总之,WaytoAGI 网站和 WaytoAGI 知识库相互独立又有关联,希望成为您学习 AI 路上的好助手。
2025-04-13
想自学ai训练师 推荐哪个视频去学习
以下是为您推荐的自学 AI 训练师的视频: 1. 3 月 26 日|自由讨论|离谱视频切磋大会 猫先生介绍自己的背景和擅长领域 AI 学习与实践的重要性 AI 交流会:分享项目经验和技能 讨论比赛规则和资源分配 AI 工具学习与合作 广州 AI 训练师叶轻衣分享使用 AI 工具的经验和想法 组队提升工作效率 AI 技术在 3D 动画制作中的应用与优势 链接:https://waytoagi.feishu.cn/minutes/obcnc915891t51l64uyonvp2?t=0 2. AI 大神 Karpathy 再发 LLM 入门介绍视频 神经网络训练的目标:训练神经网络的目标是让模型学习 token 在序列中彼此跟随的统计关系,即预测给定上下文(token 序列)后,下一个最有可能出现的 token。 Token 窗口:训练时,模型从数据集中随机抽取固定长度的 token 窗口(例如 8000 个 token)作为输入。 神经网络的输入与输出:输入为 Token 序列(上下文),输出为预测下一个 token 的概率分布,词汇表中每个 token 都有一个概率值。 随机初始化与迭代更新:神经网络初始参数是随机的,预测也是随机的。训练过程通过迭代更新参数,调整预测结果,使其与训练数据中的统计模式相匹配。 损失函数与优化:训练过程使用损失函数来衡量模型预测与真实 token 的差距。优化算法(如梯度下降)用于调整参数,最小化损失函数,提高预测准确率。 神经网络内部结构:Transformer 包含注意力机制和多层感知器等组件,能够有效地处理序列数据并捕捉 token 之间的复杂关系。 链接:无
2025-04-12
想自学ai训练师
如果您想自学成为 AI 训练师,以下是一些相关的知识和建议: 一、AI 训练的基本概念 训练是指通过大数据训练出一个复杂的神经网络模型。这需要使用大量标记过的数据来训练相应的系统,使其能够适应特定的功能。训练过程需要较高的计算性能,能够处理海量的数据,并具有一定的通用性,以便完成各种各样的学习任务。 二、相关领域的知识 1. 机器学习:机器学习是人工智能的一个分支,是实现人工智能的途径之一,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。 2. 自然语言处理:自然语言(NLP)认知和理解是让电脑把输入的语言变成有意思的符号和关系,然后根据目的再处理。自然语言生成系统则是把计算机数据转化为自然语言,是人工智能和语言学领域的分支学科。 三、学习资源和实践 您可以参考以下的一些资源和实践方式: 1. 参加相关的线上交流会,例如 3 月 26 日的自由讨论活动,其中会分享项目经验、技能以及使用 AI 工具的经验和想法。 2. 了解一些健身的 AI 产品,如 Keep(https://keep.com/)、Fiture(https://www.fiture.com/)、Fitness AI(https://www.fitnessai.com/)、Planfit(https://planfit.ai/)等,虽然这些主要是健身领域的应用,但也能帮助您了解 AI 在不同场景中的应用和创新。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-04-12
怎么用把AI训练成自己的东西?
要将 AI 训练成自己的东西,可以参考以下方法: 1. 像马斯克提到的,对于公开的推文数据可以合理使用,但不能使用私人的东西进行训练。同时,要注重数据的质量和使用方式,高质量的数据对于训练效果至关重要。 2. 张梦飞的方法中,例如部署 LLama Factory 时,需要添加选中“identity”数据集,将训练轮数改成 15 等,并通过一系列操作进行训练和测试。但需要注意的是,训练大模型是复杂的过程,数据集和训练参数都会影响最终效果,需要反复调试和深入学习实践。 3. 在写作方面,我们可以根据自身需求选择人类驱动为主,利用 AI 进行修改完善,或者先由 AI 生成内容再进行修改以符合自己的风格。
2025-04-11
如何训练一个AI 阅读教练
训练一个 AI 可以类比为培养一位职场新人,主要包括以下三个阶段: 1. 规划阶段:明确目标 确定 AI 的具体任务,比如结构化外文精读等。 将任务拆解为可管理的子任务。 设计每个子任务的执行方法。 2. 实施阶段:实战指导 搭建工作流程。 为每个子任务设置清晰的操作指南。 像指导新员工一样,手把手引导 AI 完成任务,并及时验证其输出质量。 3. 优化阶段:持续改进 通过反复测试和调整,不断优化 AI 的性能。 调整工作流程和 Prompt 配置,直到 AI 能稳定输出高质量的结果。 当前大模型在处理多步骤复杂任务时存在明显局限,比如在“数据分析图表、剧情游戏”或“本文结构化外文精读”等任务中,仅依靠单一 Prompt 指令难以稳定执行,现阶段的 AI 更像缺乏独立解决问题能力的职场新人,需要遵循指引和给定的流程才能完成特定任务。如果您已经完全了解上述内容,不妨自己设定一个任务目标,动手构建一个专属于自己的 AI 。
2025-04-11
模型训练的基本名词和方法
以下是关于模型训练的基本名词和方法的介绍: 基本名词: 1. 过拟合&欠拟合:过拟合和欠拟合都是不好的现象,需要加以控制以让模型达到理想效果。解决方法包括调整训练集、正则化和训练参数等,过拟合可减少训练集素材量,欠拟合则增加训练集素材量。 2. 泛化性:泛化性不好的模型难以适应其他风格和多样的创作。可通过跑 lora 模型生图测试判断泛化性,解决办法与过拟合和欠拟合类似,从训练集、正则化、训练参数等方面调整。 3. 正则化:是解决过拟合和欠拟合情况、提高泛化性的手段,给模型加规则和约束,限制优化参数,有效防止过拟合,提高模型适应不同情况的表现和泛化性。 方法: 1. 全面充分采集训练素材:例如在角色训练素材中,应包含各种角度、表情、光线等情况的素材,确保模型具有较好泛化性。 2. 图像预处理:对训练素材进行分辨率调整、裁切操作,并对训练集进行打标签处理。 3. 参数调优:尽量将训练时长控制在半小时左右,过长易导致过拟合,通过调整参数控制时长。 4. 观察学习曲线:通过观察学习曲线来调整训练素材和参数。 5. 过拟合&欠拟合处理:测试训练好的模型,观察过拟合和欠拟合问题,进一步通过调整训练素材和正则化等手段优化。 此外,在模型训练中还需注意: 1. 数据集获取渠道:可通过网上收集、购买、使用无版权问题的如古画等,原则是根据生成图的需求找对应数据集,要清晰、主体元素干净、风格统一。 2. 数据集处理:包括基础处理如裁剪保证清晰和分辨率,更重要的是写标注。 3. 设置模型触发词:可自定义,完整形式可以是一句话,建议以王 flags 模型为主。 4. 统一标注风格与应用场景:例如未来高科技 3D 天然风格,用于互联网首页图像等,并概括主题内容、描述物体特征等。 5. 利用 GPT 辅助描述并人工审核:让 GPT 按要求描述,人工审核修改。 6. 模型训练的准备与流程:完成数据集描述后进入训练流程,选择模型训练分类和数据集,创建并上传数据集压缩包,注意数据名与图片命名一致。选择训练模式和参数,新手选用普通基础模式,训练集质量重要,训练参数中总步数与训练集图片数量相关,触发词设定要避免概念混乱。
2025-04-09
我想要一个助手,能帮助我快速计算式子
如果您想要一个能帮助快速计算式子的助手,可以通过以下步骤实现: 1. 搭建示例网站: 创建应用:点击打开提供的函数计算应用模板,参考相关图示选择直接部署,并填写获取到的百炼应用 ID 以及 APIKEY,其他表单项保持默认,点击页面左下角的创建并部署默认环境,等待项目部署完成(预计耗时 1 分钟)。 访问网站:应用部署完成后,在应用详情的环境信息中找到示例网站的访问域名,点击即可查看,确认示例网站已经部署成功。 2. 为网站增加 AI 助手: 增加 AI 助手相关代码:回到应用详情页,在环境详情的最底部找到函数资源,点击函数名称,进入函数详情页。在代码视图中找到 public/index.html 文件,然后取消相应位置的代码注释。最后点击部署代码,等待部署完成。 验证网站上的 AI 助手:重新访问示例网站页面以查看最新效果,此时网站的右下角会出现 AI 助手图标,点击即可唤起 AI 助手。 此外,零代码自建决策助手可以帮您解决生活中的决策问题,决策链设计包括: 1. 加权得分计算:将每个选项在各个标准上的得分与相应的权重相乘,然后求和,得出每个选项的总加权得分。 2. 机会成本分析:考虑选择每个选项时可能放弃的其他机会。 3. 简单情景分析:为每个选项构想最佳和最坏的情况。 4. 决策矩阵分析:将前面步骤的分析结果汇总到一个表格中,包括预期收益、机会成本、净收益、长期影响和风险评估。 决策阶段包括: 1. 敏感性分析:通过调整不同因素的权重,检验决策是否稳健。 2. 情感检验:反思个人对每个选项的情感反应,并考虑其与理性分析的一致性。 3. 提供最终决策建议:基于前面的所有分析,提出一个综合的建议。 案例——帮你选工作: 假设您是一名在职的产品经理,想跳槽并拿到两个不错的 offer,向决策助手求助。整个流程始于您向决策助手提出问题,决策助手随即要求您提供 offer 的基本信息。在您提供完信息后,决策助手开始定义基本的评估标准,并让您审核,还会根据您的喜好和目标给出权重分配的建议。在您认可权重分配后,决策助手对每个选项进行评分,评分采用 1 到 10 分的制度,涵盖所有评估标准。评分完成后,决策助手会整理出一个清晰的表格,包含各项评估标准的权重以及每个选项在各个标准下的得分。
2025-04-12
物质三态变化图,用什么ai工具能快速绘制?
以下是一些可以快速绘制物质三态变化图的 AI 工具: 1. 麻省理工学院与瑞士巴塞尔大学合作开发的机器学习框架,利用生成式人工智能模型自动绘制物理系统的相图,几乎无需人类监督。 2. 在软件架构设计中,以下工具可用于绘制相关视图,包括物质三态变化图: Lucidchart:流行的在线绘图工具,支持多种图表创建,包括物质三态变化图。 Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能。 ArchiMate:开源的建模语言,与 Archi 工具一起使用可创建相关视图。 Enterprise Architect:强大的建模、设计和生成代码的工具。 Microsoft Visio:广泛使用的图表和矢量图形应用程序。 draw.io(现在称为 diagrams.net):免费的在线图表软件。 PlantUML:文本到 UML 的转换工具。 Gliffy:基于云的绘图工具。 Archi:免费的开源工具。 Rational Rose:IBM 的 UML 工具。 此外,Photoshop 2023 Beta 爱国版在某些图像处理和绘图方面也具有一定的能力,但可能不是专门针对物质三态变化图的绘制。
2025-04-11
如何快速上手Cursor、Windsurf、V0.dev、bolt.new、Devin等AI编程产品的经验,能快速转型为AI产品经理?
以下是关于快速上手 Cursor、Windsurf、V0.dev、bolt.new、Devin 等 AI 编程产品并转型为 AI 产品经理的一些经验: 1. 深入理解用户场景和 AI 能力边界:要构建差异化的 AI Native 体验,需要同时对 AI 能力边界和用户场景有深入洞察。 2. 持续迭代产品:在快速变化的模型能力下,避免在每次的基座模型迭代中掉队或被淘汰。 3. 构建良好的模型产品化能力和基础设施:使得应用可以持续收集用户数据以迭代模型。 对于具体的产品: Cursor: 允许用自然语言描述需求,对上下文有深度理解能力,能理解整个项目的结构和依赖关系,进行跨文件的语义分析。 提供智能的代码重构建议,自动诊断和修复常见错误,基于代码自动生成文档。 但要注意,即使有 AI 辅助,当好产品经理也不容易,需要反复沟通和调整。 Devin:作为 2024 年横空出世的产品,预示着软件开发范式的根本转变。 Windsurf、V0.dev、bolt.new 等: 可以使用如 Cursor Composer 构建产品、使用 Bolt.new 构建产品、使用 V0.dev 生成组件等。 此外,国内知名的 AI 全栈开发者 @idoubi 分享了相关使用经验,包括自动补全代码、Debug&&Fix Error、实时对话&&联网搜索、写提示词、写前端页面、截图生成组件、写常用的代码逻辑/函数、代码重构、多语言翻译等方面。同时,对于零代码基础的人员,也有使用相关工具实现想法的方法,如使用 Cursor Composer、Bolt.new、Claude 等构建不同类型的应用。还可以盘点常用的 AI 辅助编程工具和使用场景,如 AI 编辑器(Cursor、Windsurf、Pear Al 等)、编辑器 AI 扩展(Github Copilot、Continue、Cline 等)、UI 组件生成工具(Cursor、V0.dev、Claude、screenshottocode 等)、完整项目构建工具(Cursor、Bolt.new、Replit Agent、Wordware 等)。
2025-04-10
如何快速成为一名ai产品经理
要快速成为一名 AI 产品经理,可以参考以下步骤: 1. 入门级:通过 WaytoAGI 等开源网站或相关课程了解 AI 概念,使用 AI 产品并尝试动手实践应用搭建。 2. 研究级: 技术研究路径:对某一领域有认知,能根据需求场景选择解决方案,或利用 Hugging face 等工具手搓出一些 AI 应用来验证想法。 商业化研究路径:熟悉传统互联网中偏功能实现的产品经理和偏商业运营的产品经理的工作,最好能将两者结合。 3. 落地应用级:拥有成功落地应用的案例,产生商业化价值。 同时,对 AI 产品经理的要求是懂得技术框架,不一定要了解技术细节,而是对技术边界有认知,最好能知道一些优化手段和新技术的发展。AI 本质上是工具和手段,产品经理要关注的还是场景、痛点、价值。 此外,当 AI 与多维表格结合,为用户带来了更多可能性,任何人都能通过多维表格成为 AI 产品经理。例如在一些活动中,如多维表格 AI Maker Day,参与者来自不同领域和岗位,有着各自的优势和想法,包括产品落地服务、多 Agent 处理任务流、宠物与 AI 结合、AI 绘画精灵等方向。
2025-04-09
我想寻找一个AI模型,能快速读懂视频,并总结成为知识架构的应用或网站
以下为您推荐能快速读懂视频并总结成为知识架构的应用或网站: 百炼大模型平台:其影视传媒视频理解能力可对视频进行语音转写、视觉语言分析等处理并总结成文,有清晰使用步骤,可生成爆款文案,还能根据偏好调试提示词。2025 年 1 月 9 号更新的模型可通过 API 调用纹身 AI 等,Windows 用户可在左下角开始运行输入命令提示符进行本地调用,但生成过程较缓慢。 应用场景:包括商品信息图片生成淘宝上架规格参数、智能手表文案生成、社交媒体内容生成、合同提取、拍照搜题、图片转换、模特换装等。 提供 AI 硬件底层能力,AI 拍立得相机拍照可快速成诗并打印,其对接多模态能力可通过智能体应用或工作流形式的 API 调用。 开源使用:有开源地址,可下载到本地,配置阿里云百炼平台的 API key 及 appid 实现场景,运行项目需特定 Python 包和依赖,可新建应用获取 appid,拍照时需设置 API key。 此外,关于 AI 技术原理与框架的相关知识: 生成式 AI 生成的内容称为 AIGC。 相关技术名词: AI 即人工智能。 机器学习包括监督学习、无监督学习、强化学习,电脑通过找规律进行学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习从反馈里学习,最大化奖励或最小化损失,类似训小狗。 深度学习参照人脑有神经网络和神经元,因层数多称为深度,神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 即大语言模型,生成图像的扩散模型不属于大语言模型,对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制处理序列数据,无需依赖循环神经网络或卷积神经网络。
2025-04-09
开源flux模型如何快速使用
以下是关于开源 Flux 模型快速使用的方法: 1. 模型的下载: 如果因为环境问题,可以在网盘中下载。 siglipso400mpatch14384(视觉模型):siglip 由 Google 开发的视觉特征提取模型,负责理解和编码图像内容。工作流程包括接收输入图像、分析图像的视觉内容并将这些视觉信息编码成一组特征向量。打开 ComfyUI\models\clip,在地址栏输入 CMD 回车,打开命令行,输入下面的命令拉取模型(也可以在网盘里下载)。 image_adapter.pt(适配器):连接视觉模型和语言模型,优化数据转换。工作流程包括接收来自视觉模型的特征向量、转换和调整这些特征,使其适合语言模型处理。通过 https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,如果该文件夹不存在,就新建一个。 MetaLlama3.18Bbnb4bit(语言模型):大型语言模型,负责生成文本描述。工作流程包括接收经过适配器处理的特征、基于这些特征生成相应的文本描述、应用语言知识来确保描述的连贯性和准确性。打开 ComfyUI\models\LLM,地址栏输入 CMD 回车,在命令行里面输入下面命令。 2. 下载地址: ae.safetensors 和 flux1dev.safetensors 下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 准备了夸克和百度的网盘链接,方便部分同学下载: flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b 。 flux 相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。 3. 工作流下载: 最后我们再下载 dev 的工作流: 。或者下面官方原版的图片链接,图片导入 comfyUI 就是工作流:https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png 。我们打开 ComfyUI,把工作流或图片拖拽到 ComfyUI 里。
2025-04-08
分析AI颠覆性发展的生产策略调查的研究情况综述
以下是关于企业构建和购买生成式 AI 方式的 16 个变化的研究情况综述: 生成式人工智能在 2023 年迅速席卷消费市场,创下超过 10 亿美元的消费支出纪录。预计 2024 年企业领域的收入机会将数倍于消费市场。去年,企业对 genAI 的参与多局限于少数明显用例,且以“GPTwrapper(GPT 套壳)”产品作为新的 SKU 交付,一些人对其在企业中的扩展持怀疑态度。 然而,在过去几个月,a16Z 与数十家财富 500 强和顶级企业领导人交谈并对 70 多位进行调查后发现,过去 6 个月里,企业对生成式 AI 的资源配置和态度有显著变化。尽管仍有保留,但企业领导人几乎将预算增加两倍,更多应用部署在较小的开源模型上,并将更多业务从早期实验转移到生产环境中。 这对创始人是巨大机遇。a16Z 认为,为客户“以 AI 为中心的战略计划”构建解决方案,能预见痛点,从重服务模式转向构建可扩展产品的人工智能初创公司,将抓住新投资浪潮并占据重要市场份额。 任何时候,为企业构建和销售产品都需深入了解客户预算、关注点和路线图。a16Z 根据访谈结果总结了 16 个最为关键的考虑因素,涉及资源、模型和应用。
2025-04-15
请问DeepSeek如何与生产型企业进行结合创造效益 ?
DeepSeek 与生产型企业的结合可以从以下几个方面创造效益: 1. 模型优化与性能提升:英伟达基于 FP4 优化的 DeepSeekR1 检查点现已在 Hugging Face 上开源。这种优化将模型Transformer 模块内的线性算子的权重和激活量化到了 FP4,适用于 TensorRTLLM 推理。每个参数从 8 位减少到 4 位,使磁盘空间和 GPU 显存的需求减少约 1.6 倍。使用 TensorRTLLM 部署时,需要支持 TensorRTLLM 的英伟达 GPU(如 B200),并且需要 8 个 GPU 来实现 tensor_parallel_size=8 的张量并行。代码利用 FP4 量化、TensorRT 引擎和并行计算,实现高效、低成本的推理,适合生产环境或高吞吐量应用。 2. 部署指南:社区伙伴 Hua 投稿的《在 Azure AI Foundry 部署 DeepSeek 大模型全指南》,手把手指导在微软 Azure AI Foundry 平台上完成 DeepSeek R1(671B)模型的完整部署流程,包含环境准备、资源管理、模型测试及 API 调用说明。 3. 为企业带来实质提升:DeepSeek 的强化学习和联网搜索能力改变了信息获取方式,从“检索—阅读—摘要”转变为“提问—获得答案”,大幅提升工作效率。其开源策略打破了技术垄断,让国内大模型能力迅速提升。在企业级部署方面,通过行业知识蒸馏和领域自适应训练,实现对企业非结构化数据的深度解析能力。特别是在实时决策支持、多模态交互及复杂知识图谱构建方面,为企业打造具备持续进化能力的数字神经中枢。这种“AI 即服务”的部署模式,重构了传统工作流效率,并通过预测性分析和认知自动化开启企业智能化的第二增长曲线。同时,还可以考虑垂直场景强化学习机制的增加,如在智能制造场景中嵌入设备故障模式自发现的奖惩机制;以及可信计算架构的升级,针对金融、医疗等高合规需求场景。
2025-04-10
怎么用AI标准化批量生产内容
以下是关于如何用 AI 标准化批量生产内容的详细指导: 一、需求分析 在批量制作单词卡片时,为降低人工成本和节约时间,选用搞定设计来批量产图。因为其对新手友好,且借助 AI 加成模板容易制作。 二、提示词编写测试 1. 完整提示词:核心是生成符合要求的单词卡内容并将其填入 Excel 文件中,需给出基本示例和规则限制。 2. 测试结果:一次输入多个单词可同时解析,虽效果有差异但大体格式符合要求,部分设定有改变,可通过复制粘贴调整。 三、批量产出 1. 准备压缩格式的文件(如 zip、rar、7z),内含放置内容的 Excel 文档,格式固定。 2. 利用 ChatGPT 生成单词内容并整理填入 Excel。 3. 上传压缩文件,完成套版,获得符合要求的单词卡片。 此外,在测试 AI 视频产品模型 txt2vid、img2vid 能力时,撰写提示词通常基于特定结构,也可让 Claude 等大模型协助,参考“我正在测试 Runway、Luma 等视频生成产品对文本的语义理解能力和视频生成效果,现在需要你帮我写几段提示词。提示词需要满足:主体物+场景+运动内容+相机视角+氛围描述的基本内容描写,请分别给出中英文提示词内容。”今年 AI 技术进步迅速,图像、视频生成主要解决素材生产问题,各产品在数据集、模型能力等方面竞争,AI 功能的打磨需要团队多方面精心投入,对使用者综合能力要求高。
2025-04-09
有没有免费的生产一分钟时长的数字人AI工具
以下为您介绍免费生成一分钟时长数字人的方法: 1. 利用剪映App: 在剪映右侧窗口顶部,打开“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。 选择数字人形象时,软件会播放其声音,可判断是否需要,然后点击右下角“添加数字人”,软件会根据提供的内容生成对应音视频并添加到当前视频中。 左下角会提示渲染完成时间,可点击预览按钮查看生成的数字人效果。 2. 增加背景图片: 可直接删除先前导入的文本内容,因为视频音频已包含文字内容。 点击左上角“媒体”菜单并点击“导入”按钮,选择本地一张图片上传。 点击图片右下角的加号将图片添加到视频轨道上(会覆盖数字人)。 点击轨道最右侧的竖线向右拖拽,直到与视频对齐。 希望以上内容对您有所帮助。
2025-03-27
AI生产三视图
以下是关于 AI 生产三视图的相关信息: DALL·E 3 操作中,生成游戏角色三视图时最大的挑战是正确生成侧视图,若失败可删除聊天重新开始。 设计师三思用 Midjourney 生成了精致可爱且一致性和完成度非常好的小鹿吉祥物三视图。 AI 绘画常用提示词中,与视图相关的有:front,side,rear view(前视图、侧视图、后视图)、Bottom view(底视图)、product view(产品视图)、extreme closeup view(极端特写视图)、look up(仰视)、firstperson view(第一人称视角)、isometric view(等距视图)、closeup view(特写视图)、high angle view(高角度视图)、microscopic view(微观)、super side angle(超博角)、thirdperson perspective(第三人称视角)、Aerial view(鸟瞰图)、twopoint perspective(两点透视)、Threepoint perspective(三点透视)、portrait(肖像)、Elevation perspective(立面透视)、ultra wide shot(超广角镜头)、headshot(爆头)、a crosssection view of(景深)
2025-03-24
作为产品经理,如何完成生产级的提示词调优,保证ai功能的上线效果
作为产品经理,完成生产级的提示词调优以保证 AI 功能上线效果可参考以下内容: 1. 明确与大模型对话产品的提示词不同。对于大模型 API,要利用插件预先获取的网页内容变量、提示词和 API 请求参数,拼搭出完整的 API 提示请求,精确引导 API 返回想要的生成结果。 2. 根据 BigModel 官网给出的请求示例,在请求中传递 Model 类型、系统提示词、用户提示词、top_p、temperature 等关键参数。 3. 构建相应的 API 请求内容: 设定系统提示词,定义基础任务。 设定用户提示词,提供具体任务数据,并要求大模型按 JSON 格式返回生成结果。需注意为确保大模型能有效进行内容总结,提示词中使用${}语法动态引用插件获取的网页数据(如标题、描述、正文等),在实际发送 API 请求时,这些变量会被替换为真实的网页内容。 4. 最后,根据文本总结类任务的通常经验与实际调试情况,设定其他 API 所需关键参数。如果缺少参数设定的经验,可以先询问 AI 文本总结类的模型 API 请求,temperature 设定多少合适,再逐步调试效果。 此外,在星流一站式 AI 设计工具中: 1. 提示词用于描绘想生成的画面,支持中英文输入。不同基础模型对输入语言有不同要求。 2. 写好提示词要做到内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等。还可调整负面提示词,利用“加权重”功能让 AI 明白重点内容,使用预设词组、辅助功能(如翻译、删除所有提示词、会员加速等)优化提示词。启用提示词优化后,能帮您扩展提示词,更生动地描述画面内容。
2025-03-11