Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

lora炼丹活动

Answer

以下是关于 Lora 炼丹活动的相关信息:

魔多·LoRA 模型创作大赛正在进行中。基于 SD1.5、SDXL、FLUX.1 底模创作 LoRA 模型,有中国神话、武侠风云、写实人像、灵动萌兽、银幕穿梭机、盲盒幻想六个赛题方向可供选择。

10 月 17 日晚 8 点有免费的 0 基础炼丹课程,由忠忠(设计类模型 Top1,Canva、平安科技、华为、腾讯等领先互联网公司培训讲师)授课。会议主题为教你 0 基础炼丹,会议时间为 20:00 - 22:00,会议 ID 为 370 697 604,会议链接为 https://vc.feishu.cn/j/370697604 。

此外,还有关于人像 lora 炼制的详细步骤:

  1. 打标:选一个基础大模型,如“麦橘写实”,填一个 lora 的名字。将照片导入丹炉,选择适合的分辨率,可勾选“脸部加强训练”,然后点击“预处理”。手动裁剪照片,预处理后会出现脸部和整体的文件夹,且每张照片自动打好 tag 标签。可给整体添加统一标签或单独修改每张的标签,注意描述的详细程度会影响人物 lora 的泛化性。
  2. 参数调整:前面环节重要,此环节可佛系,大部分参数固定,主要参数按人物参数配置,后期根据生成结果调整。
  3. 炼丹:18 张脸部图片,20 张整体图片,各训练 50 步,循环训练 10 次,并行步数为 1,训练总步数为 19000,训练时长为 45 分钟,loss 值为 0.0769。但具体好坏需通过测试判断。

活动详情地址:点击进入

Content generated by AI large model, please carefully verify (powered by aily)

References

魔多 · LoRA模型创作大赛

?魔多·LoRA模型创作大赛来啦!基于SD1.5、SDXL、FLUX.1底模,创作你的LoRA模型。从中国神话到武侠风云,从写实人像到灵动萌兽,从银幕穿梭机到盲盒幻想,六个赛题方向任你选择,让你的创意自由翱翔![heading4]活动详情地址:[点击进入](https://club.houdeyun.cn/article/317[heading3]10月17日晚8点教你0基础炼丹(免费课程,免费云资源教学,还能拿奖)[content]讲师:忠忠(设计类模型Top1,Canva、平安科技、华为、腾讯等领先互联网公司培训讲师)会议主题:教你0基础炼丹会议时间:20:00-22:00会议ID:370 697 604会议链接:https://vc.feishu.cn/j/370697604

魔多 · LoRA模型创作大赛

?魔多·LoRA模型创作大赛来啦!基于SD1.5、SDXL、FLUX.1底模,创作你的LoRA模型。从中国神话到武侠风云,从写实人像到灵动萌兽,从银幕穿梭机到盲盒幻想,六个赛题方向任你选择,让你的创意自由翱翔![heading4]活动详情地址:[点击进入](https://club.houdeyun.cn/article/317[heading3]10月17日晚8点教你0基础炼丹(免费课程,免费云资源教学,还能拿奖)[content]讲师:忠忠(设计类模型Top1,Canva、平安科技、华为、腾讯等领先互联网公司培训讲师)会议主题:教你0基础炼丹会议时间:20:00-22:00会议ID:370 697 604会议链接:https://vc.feishu.cn/j/370697604

【Lora炼丹术】国庆节去哪玩?炼个丹儿玩!人像lora炼制(2)

选一个基础大模型,我使用的是“麦橘写实”,然后填一个lora的名字。准备好之后,将照片导入到丹炉,选择适合的分辨率,可以勾选“脸部加强训练”,然后点击“预处理”。其实这里有一个自动的裁剪模式,但是我试过觉得自动的不太靠谱,所以还是手动裁吧。预处理之后,就会出现一个脸部的文件夹,和一个整体的文件夹,并且每一张照片都已经自动打好了tag标签。我们可以给整体添加统一的标签,也可以单独给每一张修改标签。这个标签的作用主要是帮助AI去理解我们的图片,告诉它画面里面有什么。这里要注意的是,如果你想让这个特征成为人物的固定的效果,你就不要填写这个关键词。比如我不描写他的发型,只描写他的头发颜色,那么后期出图的时候,他的发型就不能被改变,但是头发颜色却可以被改变。这个过程挺漫长的,每一张图片都要仔细检查,打标的好坏会影响到后面人物lora是否有比较好的泛化性。所以如果你想让你的人物能多一些变化,就尽量描述的详细一些吧。[heading1]#03[heading1]参数调整[content]前面两个环节比较重要,这个参数调节其实就可以佛系一点了。大部分参数是固定的,主要的几个按照我之前讲解过的人物参数配置一遍就可以了,后期再根据生成的结果来调整。设置好之后就可以开始训练了。[heading1]#04[heading1]炼丹[content]18张脸部图片,20张整体图片,各训练50步,循环训练10次,并行步数为1,所以训练总步数为19000,训练时长为45分钟,loss值为0.0769。从数值上来看是个不错的丹,但具体好坏还是要我们自己通过测试来判断,毕竟像不像只有我们自己知道。[heading1]#05

Others are asking
Lora训练
以下是关于 Lora 训练的详细步骤: 创建数据集: 1. 进入厚德云模型训练数据集(https://portal.houdeyun.cn/sd/dataset)。 2. 在数据集一栏中,点击右上角创建数据集。 3. 输入数据集名称。 4. 可以上传包含图片+标签 txt 的 zip 文件,也可以只有图片没有打标文件(之后可在 C 站使用自动打标功能),或者一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。 5. Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 6. 上传 zip 以后等待一段时间。 7. 确认创建数据集。 8. 返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,预览到数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 4. 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 5. 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 6. 然后等待训练,会显示预览时间和进度条。 7. 训练完成的会显示出每一轮的预览图。 8. 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 此外,还有一些相关的补充内容: Flux 的 Lora 训练准备: 需要下载几个模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意: 1. 不使用的话它们放到哪里都可以,甚至放一起一个文件夹,只要知道“路径”,后面要引用到“路径”。 2. 因为是训练,不是跑图,训练的话,模型就用 flux1dev.safetensors 这个版本,编码器也用 t5xxl_fp16.safetensors 这个版本最好。 下载脚本和安装虚拟环境: 1. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 2. 下载完解压,在文件中找到 installcnqinglong.ps1 这个文件,右键选择“使用 PowerShell 运行”,新手的话这里就点击“Y”,然后等待 1 2 小时的漫长下载过程,下好了之后最后会提示是否下载 hunyuan 模型,选择 n 不用下载。 SD 训练一套贴纸 LoRA 模型: 1. 在 lora 训练器的根目录下,点击【A 强制更新国内加速】,跑完即可关闭窗口。 2. 双击【A 启动脚本】,请保持终端一直运行,不要关闭。出现下列代码即为启动成功。 3. 滚动至最下点击【LoRA 训练】或者直接点击左侧菜单【LoRA 训练】。
2025-03-30
lora微调
LoRA 微调相关内容如下: 微调脚本: LoRA 微调脚本见:,单机多卡的微调可通过修改脚本中的include localhost:0 来实现。 全量参数微调脚本见:。 加载微调模型: 基于 LoRA 微调的模型参数见:基于 Llama2 的中文微调模型,LoRA 参数需要和基础模型参数结合使用。通过加载预训练模型参数和微调模型参数,示例代码中,base_model_name_or_path 为预训练模型参数保存路径,finetune_model_path 为微调模型参数保存路径。 对于全量参数微调的模型,调用方式同模型调用代码示例,只需要修改其中的模型名称或者保存路径即可。 此外,在 Comfyui AnimateDiff 项目中,有一个关键的 lora 对图像模型进行了微调,lora 地址为 https://huggingface.co/guoyww/animatediff/blob/main/v3_sd15_adapter.ckpt,lora 的强度越高,画面越稳定,但需在合理范围。 在 100 基础训练大模型的 Lora 生图中,模型上的数字代表模型强度,可在 0.61.0 之间调节,默认为 0.8。您也可以自己添加 lora 文件。正向提示词输入您写的提示词,可选择基于提示词一次性生成几张图,选择生成图片的尺寸(横板、竖版、正方形)。采样器和调度器新手小白可默认,迭代步数可在 2030 之间调整,CFG 可在 3.57.5 之间调整,随机种子1 代表随机生成图。所有设置完成后,点击开始生成,生成的图会显示在右侧。若某次生成结果不错,想要微调或高分辨率修复,可点开图,下滑复制随机种子,粘贴到随机种子处,下次生成的图会与此次结果近似。若确认合适的种子和参数,想要高清放大,点开高清修复,选择放大倍数,新手小白可默认算法,迭代步数建议在 2030 之间,重回幅度在 0.30.7 之间调整。
2025-03-22
lora微调
LoRA 微调相关内容如下: 微调脚本: LoRA 微调脚本见:,单机多卡的微调可通过修改脚本中的include localhost:0 来实现。 全量参数微调脚本见:。 加载微调模型: 基于 LoRA 微调的模型参数见:基于 Llama2 的中文微调模型,LoRA 参数需要和基础模型参数结合使用。通过加载预训练模型参数和微调模型参数,示例代码中,base_model_name_or_path 为预训练模型参数保存路径,finetune_model_path 为微调模型参数保存路径。 对于全量参数微调的模型,调用方式同模型调用代码示例,只需要修改其中的模型名称或者保存路径即可。 此外,在 Comfyui AnimateDiff 项目中,有一个关键的 lora 对图像模型进行了微调,lora 地址为 https://huggingface.co/guoyww/animatediff/blob/main/v3_sd15_adapter.ckpt,lora 的强度越高,画面越稳定,但需在合理范围。 在 100 基础训练大模型的 Lora 生图中,模型上的数字代表模型强度,可在 0.61.0 之间调节,默认为 0.8。您也可以自己添加 lora 文件。正向提示词输入您写的提示词,可选择基于提示词一次性生成几张图,选择生成图片的尺寸(横板、竖版、正方形)。采样器和调度器新手小白可默认,迭代步数可在 2030 之间调整,CFG 可在 3.57.5 之间调整,随机种子1 代表随机生成图。所有设置完成后,点击开始生成,生成的图会显示在右侧。若某次生成结果不错,想要微调或高分辨率修复,可点开图,下滑复制随机种子,粘贴到随机种子处,下次生成的图会与此次结果近似。若确认合适的种子和参数,想要高清放大,点开高清修复,选择放大倍数,新手小白可默认算法,迭代步数建议在 2030 之间,重回幅度在 0.30.7 之间调整。
2025-03-22
lora微调
LoRA 微调相关内容如下: 微调脚本: LoRA 微调脚本见:,单机多卡的微调可通过修改脚本中的include localhost:0 来实现。 全量参数微调脚本见:。 加载微调模型: 基于 LoRA 微调的模型参数见:基于 Llama2 的中文微调模型,LoRA 参数需要和基础模型参数结合使用。通过加载预训练模型参数和微调模型参数,示例代码中,base_model_name_or_path 为预训练模型参数保存路径,finetune_model_path 为微调模型参数保存路径。 对于全量参数微调的模型,调用方式同模型调用代码示例,只需要修改其中的模型名称或者保存路径即可。 此外,在 Comfyui AnimateDiff 项目中,有一个关键的 lora 对图像模型进行了微调,lora 地址为 https://huggingface.co/guoyww/animatediff/blob/main/v3_sd15_adapter.ckpt,lora 的强度越高,画面越稳定,但需在合理范围。 在 100 基础训练大模型的 Lora 生图中,模型上的数字代表模型强度,可在 0.61.0 之间调节,默认为 0.8。您也可以自己添加 lora 文件。正向提示词输入您写的提示词,可选择基于提示词一次性生成几张图,选择生成图片的尺寸(横板、竖版、正方形)。采样器和调度器新手小白可默认,迭代步数可在 2030 之间调整,CFG 可在 3.57.5 之间调整,随机种子1 代表随机生成图。所有设置完成后,点击开始生成,生成的图会显示在右侧。若某次生成结果不错,想要微调或高分辨率修复,可点开图,下滑复制随机种子,粘贴到随机种子处,下次生成的图会与此次结果近似。若确认合适的种子和参数,想要高清放大,点开高清修复,选择放大倍数,新手小白可默认算法,迭代步数建议在 2030 之间,重回幅度在 0.30.7 之间调整。
2025-03-22
flux lora训练
以下是关于 Flux 的 Lora 模型训练的详细步骤: 模型准备: 1. 下载所需模型,包括 t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时存放位置随意,只要知晓路径即可。训练时建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 下载脚本: 1. 网盘链接: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 安装虚拟环境: 1. 下载完脚本并解压。 2. 在文件中找到 installcnqinglong.ps1 文件,右键选择“使用 PowerShell 运行”。 3. 新手在此点击“Y”,然后等待 1 2 小时的下载过程,完成后提示是否下载 hunyuan 模型,选择 n 不用下载。 数据集准备: 1. 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 2. 创建数据集: 在数据集一栏中,点击右上角创建数据集。 输入数据集名称。 可以上传包含图片 + 标签 txt 的 zip 文件,也可以上传只有图片的文件(之后可在 c 站使用自动打标功能),或者一张一张单独上传照片。 Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可点击详情检查,预览数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,选择上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。 4. 模型效果预览提示词则随机抽取一个数据集中的标签填入。 5. 训练参数可调节重复次数与训练轮数,厚德云会自动计算训练步数。若不知如何设置,可默认 20 重复次数和 10 轮训练轮数。 6. 按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 7. 等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图。 8. 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 数据集存放位置:.Flux_train_20.4\\train\\qinglong\\train 运行训练:约 1 2 小时即可训练完成。 验证和 lora 跑图:有 ComfyUI 基础的话,直接在原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点就可以,自行选择 Lora 和调节参数。
2025-03-15
lora模型
LoRA 模型相关信息如下: Fooocus 程序默认用到了 3 个 SDXL 的模型,包括一个 base、一个 Refiner 和一个 LoRA。LoRA 模型默认放在 Fooocus_win64_1110\\Fooocus\\models\\loras 。如果单独安装,需要下载三个模型: SDXL 基础模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_base_1.0_0.9vae.safetensors refiner 模型:https://huggingface.co/stabilityai/stablediffusionxlrefiner1.0/resolve/main/sd_xl_refiner_1.0_0.9vae.safetensors LoRA 模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_offset_examplelora_1.0.safetensors 若部署了 SD 秋叶包,也可共用模型(大模型和 LoRA),可在 Fooocus_win64_1110\\Fooocus\\modules\\path.py 中修改路径为秋叶包模型对应的路径,配置好后点击 run.bat 文件启动。 Lora 全称 LowRank Adaptation Models,中文翻译为低阶自适应模型,作用在于影响和微调画面,通过它可以再现人物或物品的特征。大模型训练复杂且对电脑配置要求高,LoRA 采用在原模型中插入新的数据处理层的方式,避免修改原有模型参数,训练轻量化,显存达到 6G 即可开启训练。 有利用新版 SDXL 生成的 lora 如针线娃娃,需要使用 SDXL1.0 的模型才可以运行,触发词是 BJ_Sewing_doll。想体验可添加公众号【白马与少年】,回复【SDXL】。
2025-03-09
炼丹需要了解的参数
炼丹需要了解的参数主要包括以下方面: 1. 学习步数:指 AI 对每张图片的学习次数。二次元图片的 repeat 一般在 10 15,写实人物图片的 repeat 一般在 30 50,真实世界的景观场景可能要达到 100。repeat 值越高,AI 对图片的理解越好,但图片精细度越高,学习步数也要越高。 2. 循环次数:AI 将所有图片按照学习步数学习一轮即为一次循环,循环次数指将这个过程重复的遍数。一般数值在 10 20 之间,次数并非越多越好,过多可能导致过拟合,即训练结果过于僵化。 3. 训练总步数:通过图片张数×学习步数×循环次数计算得出。例如 5 张图片,学习步数 50,循环次数 10,训练总步数为 2500 步。
2025-02-21
炼丹
炼丹是指在 Lora 模型训练中的一系列过程,主要包括以下步骤: 1. 训练过程:每训练 50 步,右下角会生成一张图查看效果,训练完毕后会有一个 loss 值,数值在 0.07 0.09 之间为最优。 2. 模型查看:训练完成后点击模型文件夹查看炼丹成果,可修改丹的后缀名。 3. 跑图测试:炼丹完成后需放入 SD 中进行跑图测试。 4. 打标:选择基础大模型,如“麦橘写实”,填写 lora 名字,将照片导入丹炉,选择分辨率,可勾选“脸部加强训练”并点击“预处理”,手动裁剪,为脸部和整体文件夹中的照片打好 tag 标签,注意描述的详细程度会影响人物 lora 的泛化性。 5. 参数调整:大部分参数固定,主要参数按人物参数配置,后期根据生成结果调整。 6. 炼丹:如 18 张脸部图片、20 张整体图片,各训练 50 步,循环训练 10 次,并行步数为 1 。 7. 测试:将丹放入 SD 的 lora 文件夹,启动 SD 后在 lora 选项卡中刷新查看,通过 XYZ 脚本测试不同 lora 在不同权重下的效果,用肉眼对比寻找最像的,再更换提示词查看效果。
2025-02-12
Flux炼丹,炼丹物品如何打标
在 Flux 炼丹中,炼丹物品的打标步骤如下: 1. 选择一个基础大模型,如“麦橘写实”,并填写一个 lora 的名字。 2. 将照片导入到丹炉,选择适合的分辨率,可勾选“脸部加强训练”,然后点击“预处理”。手动裁剪照片,预处理后会出现脸部和整体的文件夹,且每张照片会自动打好 tag 标签。 3. 可以给整体添加统一的标签,也可单独给每一张修改标签。标签的作用是帮助 AI 理解图片内容,若想让某些特征成为人物的固定效果,则不填写相关关键词。打标过程需仔细检查每张图片,打标的好坏会影响人物 lora 的泛化性,若想让人物有更多变化,应尽量描述详细。 在打标过程中还需注意以下几点: 1. 注册为开发者,按照流程填写信息,获取 AppID 和密钥,并填入相关位置,开启双语 TAG,检查每幅图的 tag,删除不正确的,新增需要的。 2. 打标要用自然语言,语句精简,选好触发词和打标模型,推荐短标并检查。
2025-02-12
什么是炼丹
在AI图像设计领域,"炼丹"这个术语被用来形象地描述一些复杂且需要大量实验的模型训练和优化过程。具体来说,它可能涉及以下几个方面: 1. 模型训练:在图像识别、分类、生成等任务中,需要训练深度学习模型以从大量图像数据中学习特征和模式。 2. 参数调整:调整模型的超参数(如学习率、网络层数、神经元数量等)以优化性能,这个过程可能需要大量的实验和试错。 3. 数据增强:为了提高模型的泛化能力,需要通过数据增强技术(如旋转、缩放、裁剪等)来增加训练数据的多样性。 4. 特征工程:在图像处理中,选择合适的特征是关键。这可能涉及到复杂的特征提取和选择过程。 5. 风格迁移:在图像风格迁移任务中,需要训练模型将一种图像的风格应用到另一种图像上,这通常需要精细的参数调整和多次迭代。 6. 图像生成:在生成对抗网络(GAN)等生成模型中,训练过程需要精心设计网络结构和损失函数,以达到逼真的图像生成效果。 7. 损失函数设计:设计合适的损失函数以指导模型训练,使其能够更好地学习图像的特征和结构。 8. 网络架构设计:尝试不同的网络架构(如卷积神经网络、循环神经网络等)来解决特定的图像处理任务。 9. 实验迭代:在图像设计中,通常需要多次实验和迭代来优化模型,这个过程可能非常耗时且需要耐心。 10. 结果验证:验证模型在不同数据集上的性能,确保其泛化能力和鲁棒性。 11. 自动化工具:使用自动化机器学习(AutoML)工具来辅助模型选择和参数调整,减少"炼丹"的工作量。 在AI图像设计领域,"炼丹"强调的是模型训练和优化过程中的复杂性和不确定性,以及需要投入大量时间和精力来达到理想的效果。随着技术的进步,研究人员正在探索更高效的方法来简化这一过程。
2024-07-16
AIGC活动
以下是近期的 AIGC 活动: 【线上⬆️】,9 月 1 日9 月 24 日。利用 AI 复原《山海经》中的经典神兽,赢取 35 万元现金和实体大奖,获奖作品将获得全网流量曝光,由中央美术学院等权威高校支持。 ,9 月 3 日11 月 3 日。一等奖 2 名,奖杯、荣誉证书 10000;二等奖 2 名,奖杯、荣誉证书 8000;三等奖 6 名,奖杯、荣誉证书 3000。 【线上⬆️】 。 【线上⬆️】,8 月 22 日9 月 22 日。全球 AI 视觉创意大赛(瓦卡奖 VACATVision Arts Created by AI Technology),致力于构建 AI 视觉创意界的“奥斯卡”平台,推动 AI 视觉技术的应用与创新。 企业权益信息: AI 创作者:活动现场邀请各类、各行业 AI 创作者来参加,展示自己的作品,给 AI 创作者一个亮相的舞台,行业和场景不限。权益:参与成果展示,展台支持的,可以加入工信部人才基地 AIGC 人才联盟;参与圆桌论坛、现场技能 PK 获得基地助理研究员、青年研究员身份。 AI 工具:邀请 AI 工具厂商走进活动,走进社区,让工具和用户能在一个开放的氛围下进行需求碰撞,工具厂商包括软硬结合工具、算法平台、大模型、AI 应用等。权益:对参展工具厂商提供场地及基础物料支持;对提供赞助的工具厂商,进行多渠道推广,在私域定向邀约用户使用,和产品新功能推广。 赞助商:包括但不限于工具厂商、银行、传统企业、政府等。权益:可以给指定展位,同时赞助商指定主题让创作者和参与群众一起参与 PK,PK 的成果可以交与赞助商。 参与群众:包括政府领导、企业家、普通群众,让他们能直观的感受 AI 的魅力,现场参与互动,亲自体验,现场专家分享创作过程,探索更多好玩的场景。 企业权益具体包括: 摆摊:5000,现场提供免费摊位,用于展示产品,也可以用于宣传企业产品信息等。 上台分享(5 分钟):8000,每天 17 点后会优选摊主上台分享产品,每个摊位 15 分钟(10 分钟演讲+5 分钟问答),这个时间点可以给企业上台宣传机会。 大屏宣传(2 秒,1 周):15000,文三路大屏幕,做品牌透出。 pb 主题透出:独家 pb 赞助。价格等 aj。给参与者奖励。活动官媒宣发文章重点露出,包括文章中摊位的重点呈现。海报中联合主办单位的呈现。 AIGC 法律风险研究报告: AIGC 触发的法律与道德风险中的应用风险:由于 AIGC 与输入数据的关联性,AIGC 很可能造成作品、专利、商标侵权、不正当竞争、侵犯商业秘密等各方面问题。 知识产权方面:不同于人格权作为基本权利,知识产权作为私权利可被民事主体以协议的形式约定归属。是否有构成侵犯著作权之可能,这个问题的争议根源在于 GenAI 系统的训练方式上。与大多数其他机器学习模型一样,它们通过识别和复制数据中的模式来工作。因此,为了生成句子、图片等 AIGC 产品,它必须首先从实际人类的工作中学习。此处有两个需要重点探讨的问题:(1)AIGC 产品是否构成著作权保护的产品;(2)AIGC 产品著作权归属。这两个问题都将在本报告第二部分重点讨论。按《中华人民共和国著作权法》,作品是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。目前中国法律体系下,著作权主体仅限于自然人、法人或者非法人组织。因此,AIGC 是否构成作品并没有法律明确规定。尽管尚未出台明文法律,我国已存在认定 AIGC 享有著作权的先例,如北京菲林律师事务所诉北京百度网讯科技有限公司侵害署名权、保护作品完整权、信息网络传播权纠纷案,深圳市腾讯计算机系统有限公司诉上海盈讯科技有限公司侵害著作权及不正当竞争纠纷案,及最新有关虚拟数字人的魔珐公司诉杭州某网络公司案。
2025-03-31
AIGC破冰活动
以下是关于您提到的 AIGC 相关内容的整理: 2025AI 春晚 目标: 把自己这一年对 AI 的理解与感情总结成独特作品。 让 25 年春节比 24 年更特别,用 AI 度过赛博新年。 用 AIGC 共创破圈事件,让更多人见证 AIGC。 给所有人一点来自 AIGC 的小震撼。 计划排期: 前期筹备:立项攒局,初期宣导(10 月上旬)。 执行准备:成立项目组、招商合作(统一招商标准)、媒体资源对接(同步各平台合作进度,对齐认知)、节目单打磨(10 月中旬~10 月下旬,5 次以上节目单研讨会)。 内容共创:内容制作、活动预热、媒体宣发(11~12 月)。 审核校对:穿搭板、审核校对、直播准备(1 月)。 AIGC 电影化叙事实战教程 以的冰工厂赛道为例,介绍了 AIGC 电影化的快速技巧,包括: 分镜头脚本制作 GPTs。 生图及生视频提示词制作 GPTs。 音乐提示词制作 GPTs,参考 prompt 如为短剧结尾部分转折制作纯音乐背景音乐,并提到调整歌曲快慢的技巧是修改 BPM,值越高节奏越快。 智能纪要:AIPO 校园创投全国百校招募启动 WaytoAGI x Trae 2025 年 3 月 24 日 参会人众多,包括:@?AJ、@Corina Fu、@大雨、@黄彬(ben)、@木马、@?Roger...、@皮皮、@披萨、@piggy、@匡芳平、@陈艺博、@朴圣堃、@qdd、@钱炳安、@钱先生、@乔立安、@乔星淇、@青岛法律学生康峻、@青岛计算机学生叶枫 的风、@青木兮、@卿乃文、@邱大、@kk、@权意力、@raine、@晓珍、@Root、@如花、@S、@Sakura、@Sarah、@Selina、@临沂运营关、@上海软件开发工程师pzg、@上海土木工程师千年虫、@上山下、@少年流浪中年掘藏、@沈涛、@石恩名、@筷子科技、@石斯瑾、@Tomoson、@树人与鲁迅、@水果芋头、@宋波、@AIGC 宋嘉文、@苏光影、@苏秦、@孙东来 Sidrel、@一路孙、@孙展、@Sunkim、@索心童、@Sylvain.Zhang、@泰 Q、@唐 3 阿喜、@唐春波、@橙锋、@唐人、@桃桃桃、@THE D1G寒冰、@田聪聪、@田鸿 TIAN Hong、@田华斌、@田佳鑫、@田堂志、@AIGC 跃龙门、@晓岚、@可以改名字哦、@Jason、@晚风、@AIGC、@王博、@王博达、@王超、@王尘莫及、@王大任、@王尔德、@Jason_wang、@小羊不吃草、@王冠行、@王佳斌、@嘉驹、@王嘉绪、@Jeremy、@王久铭 Harrison WANG Jiuming、@王俊伟、@王若楠、@王文、@拓客、@王欣宇、@王亦东、@王永宁、@Luna、@汪云哲、@Marsidea、@王昭君、@花卷、@王智安 WANG Zhian、@王子丰、@魏冰、@茉卷、@魏榕、@魏州、@温晓静、@翁玮蔓
2025-03-31
2024年10月的AIPO活动相关云文档在哪儿?
以下是与 2024 年 10 月的 AIPO 活动相关的云文档: :包含关于 AI 模型训练的介绍与讲解,如 Eagle 插件批量收藏 3D 图表、不同步数训练时间、使用 MZ 数据集训练 Flux、云服务器训练流程、训练集收集要求、训练模型的时机、角色一致性表现、云服务器训练集设置、模型训练参数设置、模型训练启动与等待等内容。 》,列举了美国融资金额超过 1 亿美元的 AI 公司。 :包含 2024 年 10 月 24 日娜乌斯佳:AIGC 商业片落地经验分享等多个日期的智能纪要。
2025-03-28
昨天有什么Ai分享活动
昨天的 AI 分享活动有: 1. AI bot 拟人化大赛的最后一天分享日,五个团队带来精彩分享。冠军团队《》无私分享建构 AI bot 的思路和提示词。相关视频回放: 五个团队的嘉宾分享视频回放:https://www.bilibili.com/video/BV1Kr421M7Cb/ 第一名团队分享的视频回放:https://www.bilibili.com/video/BV1ji421a7zJ/ 投稿作品 2. AI 版权分享课,麦橘教大家用 AI 做小游戏编程的跨界活动,包括: 用 AI 做小游戏编程的活动策划和心得。 使用 Poe 制作小游戏的经验分享。 麦橘谈增量游戏、肉鸽游戏及其制作与 AI 交互。 3. 03 0 基础建站相关分享,包括: 银海老师讲解模型基础、AJ 带大家浏览知识库,大宇老师的建站教程。 未来的课程安排,如明天接触编程,后天 Garmon 老师用 AI 手搓机器人。 AIPO 活动 11 天共学内容,含生图、生视频、模型训练,还有应用搭建课及具身智能机器人课。 线下活动规则,包括组队、物料、角色、资本和奖品等。 以 config UI 为主题的活动,有赞助、线下活动、课程及相关交流等内容。
2025-03-17
coze的进阶教程有哪些,我需要有整个的搭建过程教程的,可以是共学活动里面的
以下是一些 Coze 的进阶教程和搭建过程的资源: 5 月 7 号():大聪明分享,主题为“Agent 的前世今生”,每个分享人分享最初接触 Coze 的经历以及现在用 Coze 做什么。流程为 20:00@?AJ 主持开场,20:00 21:00 大聪明分享,21:00 21:30 关于 Coze 随便聊聊。 5 月 8 号():大圣分享,主题为“我眼中的 AI Agent 以及通过搭建知识库实例入门 Coze”,20:00 21:20 大圣分享。 5 月 9 号():艾木分享,主题为“Agent 系统的核心构成:Workflow 和 Multiagent Flow(以‘Dr.Know’和‘卧底’为例),线上答疑。流程为 20:00 21:00 艾木分享,21:00 21:30 线上答疑。 5 月 10 号():罗文分享,主题为“一个方法解锁 COEZ 所有插件的用法+如何自动化解锁每天抓取 X 内容+改写+发布到飞书”,20:00 21:00 罗文分享。 5 月 11 号():Itao 分享,主题为“和 AI 成为搭子”,线上答疑。流程为 20:00 21:00 Itao 分享,21:00 21:30 线上答疑。 此外,还有以下案例合集和教程:
2025-02-22
活动文案
以下是为您整理的相关活动文案内容: 一、危柯宇:如何让 AI 走进我们的工作和生活 案例四:【读书会活动 AI 赋能】 1. 日常活动文案输出(读书社进行中,AI 复核型玩法“高阶”,依托传音智库+飞书妙记+在线思维导图 Markmap): 运营一个读书俱乐部(策划方案,欢迎仪式,互动玩法) 筹办一场趣味性活动(主题拆解,魔性流程,头脑风暴) 完成一次结构化总结(快速记录,分秒总结,一键同频) 2. 方法一:一键知识图谱 用 kimichat 让 AI 拆解这本书的三级章节并按照 markdown 产出内容,Prompt:帮我拆解《爱的五种语言》,生成全书内容的思维导图,要求每个章节后面有三级展开,下一级是主要知识点,下下一级是知识点的论述。先输出对应的 markdown。访问地址: 复制 AI 内容粘贴到在线思维导图 Markmap 中,一键生成思维导图,还可以自定义微调内容,并免费导出图片。访问地址: 3. 方法二:推导知识图谱(可以参考下面 prompt 自己构建) 二、办公提效神器:飞书多维表格字段插件 1. 第一步,用 AI 插件理解图片 上传参考的海报图片,用 AI 内容生成插件理解。创建表格列时,选择字段捷径,在 AI 中心找到智谱 AI 的内容生成插件。 使用插件,配置如下:选择提示文本,提示词参考:详细描述下海报中的内容;选择上传图片的所在列;选择模型 glm4v。很快 AI 就帮我把海报内容整理出来,并填充到对应的列中。 2. 第二步,生成视频的指令 用飞书自带的插件总结宣语,生成视频的 prompt 指令。有了海报内容参考,使用飞书自带的字段插件进行总结成活动宣传语。 自定义的总结要求:任务:根据活动海报的描述文案,总结为一句话的活动宣传语。要求:删除日期时间;把活动的品牌统一更换为“智谱 AI”;文案风格采用小红书风格,要有鲜明的记忆点;文案字数尽量不超过 50 字。 然后再使用飞书自带的自定义 AI 插件,来给我生成视频所需的 prompt 指令。 输入指令如下,文案引用刚才的总结宣传语:任务:根据文案联想,设计一个定格卡通画面,画面以静态描述为主。文案:<引用字段>要求:画面描述中,删除品牌词,删除日期、链接、文字;画面描述开头包含“卡通风格,镜头从远推进:”;描述文案用英文生成,适合模型指令的格式,字数不超过 100 个字。生成指令建议用英文,视频风格采用卡通的,不需要太长的描述,反正 AI 视频本身也有指令优化。 三、Show Me 扣子 AI 挑战赛大消费行业专场圆满落幕,探索 AI 与大消费行业的深度结合副本 1. 2024 年 11 月 30 日,在北京方恒时尚中心 B 座 B1 报告厅成功举办。 2. 此次活动由扣子携手 NVIDIA、火山引擎开发者社区、通往 AGI 之路、西二旗生活指北等合作伙伴共同举办,旨在推动 AI 技术在大消费领域的应用与创新,同时为各位内容生产者寻求更多变现可能性。 3. 活动流程 扣子产品经理管新源介绍了此次扣子(coze.cn)平台最新公测的各项能力,包括从单一对话模式扩展到完整应用界面,引入 IDE 开发模式,提供零门槛开发体验,优化知识库管理和智能问答能力,以及支持第三方服务接入和标准 API 管理。 NVIDIA 资深解决方案架构师刘一鸣在"Agents:The Next Big Thing in AI Revolution"主题演讲中表示:“AI 不仅是技术的革新,更是商业模式的重塑。” 4. 获奖作品介绍 一等奖:买买买!产品买点提炼神器强化版 开发者:一念星球 一句话介绍:精准提炼产品卖点,生成营销文案,助力社交媒体营销。 作品简介:专注于市场营销领域,帮助用户从产品特性中提炼卖点,并转化为用户友好的买点,生成适用于小红书和抖音的营销文案和视频脚本。此外,它还能将内容保存至飞书文档,方便团队协作和内容管理。 作品链接:https://www.coze.cn/store/agent/7440054773375582258?bid=6ego449t8600c
2025-02-18