Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

liblib的生图技巧

Answer

以下是关于 Liblib 的生图技巧:

  • Lora 模型地址:
    • 原作者:C 站 DucK113
    • 在线下载地址:https://civitai.com/models/802364/flux1-or-labubu-lora
    • 本地下载:file:flux_labubu.safetensors
  • 使用方式:
    • 方式一:Liblib 在线生图Flux.1 | Labubu LoRA_泡泡玛特-LoRA-stax-LiblibAI
    • 方式二:本地 ComfyUI Flux + Lora 工作流,相关介绍可参考之前的作业:第十五期生图新王 FLUX.1,工作流中涉及的主要模型网盘:https://pan.quark.cn/s/2797ea47f691 ,包括 FLUX.1-schnell:https://huggingface.co/black-forest-labs/FLUX.1-schnell/blob/main/flux1-schnell.safetensors ,file:ae.safetensors ,file:clip_l.safetensors ,t5xxl_fp8_e4m3fn:https://huggingface.co/comfyanonymous/flux_text_encoders/blob/main/t5xxl_fp8_e4m3fn.safetensors
  • Lora 效果提示词:
    • Labubu,monkey
    • Labubu,Chinese style
    • 1cowboy,Labubu
  • 简易上手教程:
    • 简明操作流程:
      • 定主题:确定生成图片的主题、风格和表达的信息。
      • 选择 Checkpoint:根据主题选择贴近的模型,如麦橘写实、麦橘男团、墨幽人造人等。
      • 选择 lora:寻找内容重叠的 lora 控制图片效果及质量。
      • 设置 VAE:选择 840000 那一串。
      • CLIP 跳过层:设成 2。
      • Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开。
      • 负向提示词 Negative Prompt:用英文写避免产生的内容,单词和短语组合,用英文半角逗号隔开。
      • 采样方法:一般选 DPM++ 2M Karras,也可参考模型作者推荐的采样器。
      • 迭代步数:选 DPM++ 2M Karras 时,在 30 - 40 之间。
      • 尺寸:根据喜好和需求选择。
      • 生成批次:默认 1 批。
    • 概念与功能说明:
      • 生图入口 1:网页顶部的右方有生图按钮,点击进入生图界面。
      • 生图入口 2:点进模型广场上任意一个模型(checkpoint 或 lora),有立即生图按钮。
      • 生图入口 3:点进任意一个模型下面的返图区,点开一张喜欢的图片,右侧有在线生成的按钮。点开之后可以选择自动复制所有设置,尝试复现图片。
Content generated by AI large model, please carefully verify (powered by aily)

References

第二十三期:Labubu

原作者:C站DucK113在线下载地址:https://civitai.com/models/802364/flux1-or-labubu-lora本地下载:file:flux_labubu.safetensors[heading2]使用方式:[content]方式一:Liblib在线生图[Flux.1 | Labubu LoRA_泡泡玛特-LoRA-stax-LiblibAI](https://www.liblib.art/modelinfo/da87c0d1ead0414a9c7f2df70c488d91?from=personal_page)方式二:本地ComfyUI Flux+Lora工作流file:flux+Labubu Lora.json关于ComfyUI Flux+Lora工作流相关介绍可以参考之前的作业:[第十五期生图新王FLUX.1](https://waytoagi.feishu.cn/wiki/QulMweTajijBakkvtgnc7sHXnPe)工作流中涉及的主要模型网盘:https://pan.quark.cn/s/2797ea47f691 FLUX.1-schnell:https://huggingface.co/black-forest-labs/FLUX.1-schnell/blob/main/flux1-schnell.safetensorsfile:ae.safetensorsfile:clip_l.safetensorst5xxl_fp8_e4m3fn:https://huggingface.co/comfyanonymous/flux_text_encoders/blob/main/t5xxl_fp8_e4m3fn.safetensorsLora效果提示词:Labubu,monkey提示词:Labubu,Chinese style提示词:1cowboy,Labubu,

Liblibai简易上手教程

[title]Liblibai简易上手教程[heading1]简明操作流程[heading2]文生图定主题:你需要生成一张什么主题、什么风格、表达什么信息的图。(没错我是喜欢看plmm多点)选择Checkpoint:按照你需要的主题,找内容贴近的checkpoint。一般我喜欢用模型大佬麦橘、墨幽的系列模型,比如说麦橘写实、麦橘男团、墨幽人造人等等,效果拔群。选择lora:在你想要生成的内容基础上,寻找内容重叠的lora,帮助你控制图片效果及质量。可以多看看广场上做得好看的帖子里面,他们都在用什么lora。设置VAE:无脑选840000那一串就行。CLIP跳过层:设成2就行。Prompt提示词:用英文写你想要AI生成的内容,不用管语法也不要写长句,仅使用单词和短语的组合去表达你的需求。单词、短语之间用英文半角逗号隔开即可。负向提示词Negative Prompt:用英文写你想要AI避免产生的内容,也是一样不用管语法,只需单词和短语组合,中间用英文半角逗号隔开。采样方法:这玩意儿还挺复杂的,现在一般选DPM++ 2M Karras比较多。当然,最稳妥的是留意checkpoint的详情页上,模型作者是否有推荐采样器,使用他们推荐的采样器会更有保障迭代步数:要根据你采样器的特征来,一般我选了DPM++ 2M Karras之后,迭代步数在30~40之间,多了意义不大还慢,少了出图效果差。尺寸:看你喜欢,看你需求。生成批次:默认1批。

Liblibai简易上手教程

1.生图入口1:网页顶部的右方有生图按钮,点击进入生图界面。1.生图入口2:点进模型广场上任意一个模型(checkpoint或lora),有立即生图按钮。1.生图入口3:点进任意一个模型下面的返图区,点开一张你喜欢的图片,右侧有在线生成的按钮。点开之后可以选择自动复制他所有的设置,尝试复现他的图,体验他的设置效果。注意啊注意,这个生图是直接复现大佬操作,但是肯定不会复现大佬的图。好在大概率能出与大佬同水平同要素的图。快速建立起满足感与信心。学累了就来用这个按钮开心一下,加油ヾ(◍°∇°◍)ノ゙

Others are asking
我想图生图,生成高清矢量图
以下是关于图生图生成高清矢量图的相关内容: ControlNet 参数: 预处理器:canny,模型:control_v11p_sd15_canny 预处理器:lineart_standard,模型:control_v11p_sd15_lineart 放大高清大图: 使用 Multi Diffusion + Tiled VAE + ControlNet Tile 模型 将生成的图片发送到图生图,关键词种子会一并发送过去,重绘幅度建议 0.35,太高图片细节会发生变化 Lora 生图: 点击预览模型中间的生图会自动跳转到相应页面 模型上的数字代表模型强度,可在 0.6 1.0 之间调节,默认为 0.8 可自己添加 lora 文件,输入正向提示词,选择生成图片的尺寸(横板、竖版、正方形) 采样器和调度器新手小白可默认,迭代步数在 20 30 之间调整,CFG 在 3.5 7.5 之间调整,随机种子 1 代表随机生成图 生成的图会显示在右侧,若觉得某次生成结果不错,想要微调或高分辨率修复,可复制随机种子粘贴到相应位置 确认合适的种子和参数想要高清放大,可点开高清修复,选择放大倍数,新手小白可默认算法,迭代步数建议在 20 30 之间,重绘幅度正常在 0.3 0.7 之间调整 高清修复: 文生图高清修复原理是命令 AI 按原来内容重新画一幅,新生成绘图和原绘图细节会不同,降低重绘幅度可更接近原图,如重绘幅度 0.7 时帽子和耳机有变化,0.3 时服饰细节接近但手部可能出现问题,可通过反复抽卡、图生图局部重绘或生成多张图片后 ps 合成等解决 由于高清修复渲染耗时长,建议先低分辨率抽卡刷图,喜欢的图再用随机种子固定进行高清修复 SD 放大: 文生图画好图后发送到图生图,点击脚本选择使用 SD 放大 重绘幅度设置 0.3,放大倍率为 2,图块重叠像素设置为 64,原图尺寸加上重叠像素,如 512x768 变为 576x832,重绘幅度要保持较低数值,否则可能出现新人物
2025-04-14
AI生图模型排名
以下是一些常见的 AI 生图模型排名(从高到低): 1. Imagen 3:真实感满分,指令遵从强。 2. Recraft:真实感强,风格泛化很好,指令遵从较好(会受风格影响)。 3. Midjourney:风格化强,艺术感在线,但会失真,指令遵从较差。 4. 快手可图:影视场景能用,风格化较差。 5. Flux.1.1:真实感强,需要搭配 Lora 使用。 6. 文生图大模型 V2.1L(美感版):影视感强,但会有点油腻,细节不够,容易糊脸。 7. Luma:影视感强,但风格单一,糊。 8. 美图奇想 5.0:AI 油腻感重。 9. 腾讯混元:AI 油腻感重,影视感弱,空间结构不准。 10. SD 3.5 Large:崩。 此外,在相关的测评中: 豆包模型在图生图方面效果良好,美感度较高,在中文模型中遥遥领先。 Request 模型自某种风格出圈后很火,在国外模型中表现出色,甚至超过了 Midjourney。 Luma 在图生图方面表现不错,曾是第一个有出色转场效果的模型,在本次评测中是一匹黑马。 Pixverse 在文生视频的评测中获胜率达 70%,表现出乎意料。 Midjourney 常用,但在本次评测中图生图的排行未居前列。
2025-04-14
图生图网站排名推荐
以下是为您推荐的图生图网站排名: 1. 文生图: Imagen 3:真实感满分,指令遵从强。 Recraft:真实感强,风格泛化很好,指令遵从较好(会受风格影响)。 Midjourney:风格化强,艺术感在线,但会失真,指令遵从较差。 快手可图:影视场景能用,风格化较差。 Flux.1.1:真实感强,需要搭配 Lora 使用。 文生图大模型 V2.1L(美感版):影视感强,但会有点油腻,细节不够,容易糊脸。 Luma:影视感强,但风格单一,糊。 美图奇想 5.0:AI 油腻感重。 腾讯混元:AI 油腻感重,影视感弱,空间结构不准。 SD 3.5 Large:崩。 2. 图生视频: pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。 luma 1.6:画面质量挺好,但是太贵了。 可灵 1.6 高品质:YYDS! 海螺01live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。 runway:我的快乐老家,画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。 vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds!就是太贵了!!!!! seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。 pixverse v3 高品质:pincerse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。 sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。 3. 小白也能使用的国内外 AI 生图网站: 可灵可图 1.5:https://app.klingai.com/cn/texttoimage/new 通义万相(每日有免费额度):https://tongyi.aliyun.com/wanxiang/creation 文心一言:https://yiyan.baidu.com/ 星流(每日有免费额度):https://www.xingliu.art/ Libiblib(每日有免费额度但等待较久):https://www.liblib.art/
2025-04-13
文生图
以下是关于文生图的简易上手教程: 1. 定主题:确定您需要生成的图片的主题、风格和要表达的信息。 2. 选择基础模型 Checkpoint:根据主题选择内容贴近的模型,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 3. 选择 lora:在生成内容基础上,寻找重叠的 lora 以控制图片效果和质量,可参考广场上好看的帖子。 4. ControlNet:可控制图片中特定图像,如人物姿态、生成特定文字等,属于高阶技能。 5. 局部重绘:下篇再教。 6. 设置 VAE:无脑选择 840000 即可。 7. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语组合,用英文半角逗号隔开,不用管语法和长句。 8. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,同样是单词和短语组合,用英文半角逗号隔开,不用管语法。 9. 采样算法:一般选 DPM++2M Karras 较多,也可参考 checkpoint 详情页上模型作者推荐的采样器。 10. 采样次数:选 DPM++2M Karras 时,采样次数一般在 30 40 之间。 11. 尺寸:根据个人喜好和需求选择。 以下是一些常见的文生图工具和模型: 1. 腾讯混元 2. luma 3. Recraft 4. 文生图大模型 V2.1L(美感版) 5. 美图奇想 5.0 6. midjourney 7. 快手可图 8. Flux.1.1 9. Stable Diffusion 3.5 Large 10. Imagen 3 网页版
2025-04-12
文生图工具
以下是关于文生图工具的相关信息: 常见的文生图工具包括: DALL·E:由 OpenAI 推出,能根据输入的文本描述生成逼真图片。 StableDiffusion:开源工具,可生成高质量图片,支持多种模型和算法。 MidJourney:因高质量图像生成效果和友好界面在创意设计人群中受欢迎。 更多文生图工具可在 WaytoAGI 网站(https://www.waytoagi.com/category/104)查看。 Stability AI 推出的基于 Discord 的媒体生成和编辑工具的文生图使用方法: 点击链接进入官方 DISCORD 服务器:https://discord.com/invite/stablediffusion 。 进入 ARTISAN 频道,任意选择一个频道。 输入/dream 会提示没有权限,点击链接,注册登录,填写信用卡信息以及地址,提交后可免费试用三天,三天后开始收费。 输入/dream 提示词,和 MJ 类似,可选参数有五类,包括 prompt(提示词,正常文字输入,必填项)、negative_prompt(负面提示词,填写负面提示词,选填项)、seed(种子值,可以自己填,选填项)、aspect(长宽比,选填项)、model(模型选择,SD3,Core 两种可选,选填项)、Images(张数,14 张,选填项)。完成后选择其中一张。 Tusiart 文生图的简易上手教程: 定主题:确定生成图片的主题、风格和表达的信息。 选择基础模型 Checkpoint:根据主题找内容贴近的 checkpoint,如麦橘、墨幽的系列模型。 选择 lora:寻找内容重叠的 lora 控制图片效果及质量。 ControlNet:控制图片中特定图像,如人物姿态、生成特定文字、艺术化二维码等。 局部重绘:下篇再教。 设置 VAE:无脑选择 840000 。 Prompt 提示词:用英文写需求,单词和短语组合,用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文写避免产生的内容,单词和短语组合,用英文半角逗号隔开。 采样算法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 采样次数:选 DPM++2M Karras 时,采样次数在 30 40 之间。 尺寸:根据个人喜好和需求选择。
2025-04-12
文生图大模型排名
以下是文生图大模型的排名(从高到低): 1. Imagen 3:真实感满分,指令遵从强。 2. Recraft:真实感强,风格泛化很好,指令遵从较好(会受风格影响)。 3. Midjourney:风格化强,艺术感在线,但会失真,指令遵从较差。 4. 快手可图:影视场景能用,风格化较差。 5. Flux.1.1:真实感强,需要搭配 Lora 使用。 6. 文生图大模型 V2.1L(美感版):影视感强,但会有点油腻,细节不够,容易糊脸。 7. Luma:影视感强,但风格单一,糊。 8. 美图奇想 5.0:AI 油腻感重。 9. 腾讯混元:AI 油腻感重,影视感弱,空间结构不准。 10. SD 3.5 Large:崩。
2025-04-12
liblib ai 教程
以下是关于 Liblibai 的简易上手教程: 一、概念与功能说明 1. 迭代步数:AI 调整图片内容的次数。步骤越多,调整越精密,出图效果理论上更好,但生图耗时越长。并非越多越好,效果提升非线性,过多后效果增长曲线放平并开始震荡。 2. 尺寸:图片生成的尺寸大小。太小 AI 生成内容有限,太大 AI 易放飞自我。如需高清图,可设中等尺寸并用高分辨率修复(以后再学)。 3. 生成批次:用本次设置重复生成的批次数。 4. 每批数量:每批次同时生成的图片数量。 5. 提示词引导系数:指图像与 prompt 的匹配程度。数字增大图像更接近提示,但过高会使图像质量下降。 6. 随机数种子:生成的每张图都有随机数种子,固定种子后可对图片进行“控制变量”操作,如修改提示词、修改 clip 跳过层等。首次生成图时无种子,不用管。 7. ADetailer:面部修复插件,可治愈脸部崩坏,高阶技能,后续学习。 8. ControlNet:控制图片中特定图像,用于控制人物姿态、生成特定文字、艺术化二维码等,高阶技能,稍后学习。 9. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 二、简明操作流程 1. 文生图 定主题:明确生成图片的主题、风格和表达信息。 选择 Checkpoint:根据主题找贴近内容的 checkpoint,如麦橘、墨幽的系列模型。 选择 lora:寻找与生成内容重叠的 lora,控制图片效果及质量。 设置 VAE:无脑选 840000 那一串。 CLIP 跳过层:设成 2。 Prompt 提示词:用英文写需求,单词、短语组合,用英文半角逗号隔开,不管语法和长句。 负向提示词 Negative Prompt:用英文写避免产生的内容,单词、短语组合,用英文半角逗号隔开。 采样方法:一般选 DPM++2M Karras,也可参考 checkpoint 详情页模型作者推荐的采样器。 迭代步数:选 DPM++2M Karras 后,一般在 30 40 之间,多了意义不大且慢,少了出图效果差。 尺寸:根据喜好和需求选择。 生成批次:默认 1 批。 三、prompt 简易技巧 能简单控制图。 虽然视频教程很多,但看图文说明更方便。Liblibai 网站(https://www.liblib.ai/)可点击进入免费在线生图。若看完不明白,可评论区交流或添加微信:designurlife1st 沟通。
2025-03-31
liblib ai 使用教程
以下是 Liblibai 的使用教程: 简明操作流程: 1. 定主题:明确您想要生成的图片主题、风格和表达的信息。 2. 选择 Checkpoint:根据主题选择贴近的 Checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找与生成内容重叠的 lora,以控制图片效果和质量。 4. 设置 VAE:选择 840000 那一串。 5. 设置 CLIP 跳过层:设为 2。 6. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语组合,用英文半角逗号隔开。 7. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,单词和短语组合,用英文半角逗号隔开。 8. 采样方法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 9. 迭代步数:选 DPM++2M Karras 时,一般在 30 40 之间。 10. 尺寸:根据喜好和需求选择。 11. 生成批次:默认 1 批。 概念与功能说明: 1. 迭代步数:AI 调整图片内容的次数,并非越多越好,需根据采样器特征选择。 2. 尺寸:图片生成的大小,太小或太大都有影响。 3. 生成批次:用本次设置重复生成的批次数。 4. 提示词引导系数:指图像与 prompt 的匹配程度,过高会影响图像质量。 5. 随机数种子:固定后可对图片进行“控制变量”操作。 6. ADetailer:面部修复插件,高阶技能。 7. ControlNet:控制图片中特定图像,高阶技能。 8. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 其他概念: 1. 首页 模型广场:有其他用户发布的模型,收藏和运行数多的模型在首页前排,可查看模型详情并加入模型库。 2. Checkpoint:生图必需的基础模型,必选。 3. lora:低阶自适应模型,可选可不选,用于控制细节。 4. VAE:类似于滤镜,调整生图饱和度,选择 840000 即可。 5. CLIP 跳过层:一般设为 2,早期不用过多关注。 6. Prompt 提示词:想要 AI 生成的内容。 7. 负向提示词 Negative Prompt:想要 AI 避免产生的内容。 8. 采样方法:让 AI 用的生图算法。
2025-03-31
liblib教程
以下是关于 liblib 的教程: 线稿提取教程: 1. 出两张彩色的稍连贯的图片。 2. 提取第一张的线稿图: 用 liblib 提取,进入 https://www.liblib.art/ 。 点击【在线生图】。 滑到下面找出【ControlNet】并点击右侧。 点击上传图片。 勾选【启用】、【允许预览】、【Lineart】,预处理器选择【写实线稿提取】,并点击【运行&预览】。 把右侧的黑白图拉到左侧栏,预处理器改为【invert(白底黑线反色)】,并点击【运行&预览】,线稿提取大功告成!右键图片另存即可。 文生图简明操作流程: 1. 定主题:确定要生成的图片主题、风格和表达的信息。 2. 选择 Checkpoint:根据主题选择贴近的 checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找内容重叠的 lora 以控制图片效果及质量。 4. 设置 VAE:选择 840000 那一串。 5. CLIP 跳过层:设成 2。 6. Prompt 提示词:用英文写需求,单词、短语之间用英文半角逗号隔开。 7. 负向提示词 Negative Prompt:用英文写避免产生的内容,单词、短语组合,中间用英文半角逗号隔开。 8. 采样方法:一般选 DPM++2M Karras,也可参考 checkpoint 详情页上模型作者推荐的采样器。 9. 迭代步数:选 DPM++2M Karras 时,在 30 40 之间。 10. 尺寸:根据喜好和需求选择。 11. 生成批次:默认 1 批。 此外,还有 Liblibai 简易上手教程,包含概念与功能说明、简明操作流程、prompt 简易技巧三部分。可通过进入免费在线生图。若有不明白之处,可在评论区交流或添加微信:designurlife1st 沟通。
2025-01-28
liblib 使用
Liblib 的使用方式如下: 1. 在线生图: 2. 本地 ComfyUI Flux+Lora 工作流: 。 Liblibai 简易上手教程中的概念与功能说明: 1. 迭代步数:AI 调整图片内容的次数。步骤越多,调整越精密,出图效果理论上更好,但生图耗时越长,且并非越多越好,效果的提升非线性,多了以后效果的增长曲线就放平并开始震荡。 2. 尺寸:图片生成的尺寸大小。太小了 AI 生成不了什么内容,太大了 AI 开始放飞自我。如需高清图,可设置中等尺寸并用高分辨率修复。 3. 生成批次:用本次设置重复生成几批图。 4. 每批数量:每批次同时生成的图片数量。 5. 提示词引导系数:指图像与 prompt 的匹配程度。数字增大将导致图像更接近提示,但过高会让图像质量下降。 6. 随机数种子:生成的每张图都有随机数种子,在固定好种子以后,可对图片进行“控制变量”效果的操作,比如修改提示词、修改 clip 跳过层等。第一次生成图时没有种子,不用管,空着就行。第二次生图若用上次图的种子,且其他设置不变,会出一样的图片。 7. ADetailer:面部修复插件,治愈脸部崩坏的超强小工具,高阶技能,后面再学。 8. ControlNet:控制图片中一些特定的图像,可用于控制人物姿态,或生成特定文字、艺术化二维码等。也是高阶技能,后面再学。 9. 重绘幅度:图生图时用到,重绘幅度越大,输出的图和输入的图差别就越大。 此外,Liblib 相关辅助工具中,换脸方面有 FaceFusion 这款开源软件,可在本地运行,不仅能将源图像中的面部与目标图像或视频中的面部进行交换,还提供多种面部和帧处理器以改进或定制面部特征。FaceFusion 1.1.0 更新,增加了摄像头功能,可进行实时换脸和面部改造。其有多种选项和参数,允许用户根据需要进行定制,还内置了一些检查机制,以防止软件被用于不道德或非法的用途。GitHub: 。
2025-01-24
deepseek的使用技巧
以下是关于 DeepSeek 的使用技巧: 1. 了解其特点与优势: 推理型大模型:核心是推理型,无需用户提供详细步骤指令,通过理解真实需求和场景提供答案。 更懂人话:能理解用户用“人话”表达的需求,无需特定提示词模板。 深度思考:回答问题时能深度思考,非简单罗列信息。 文风转换器:可模仿不同作家文风写作,适用于多种文体和场景。 2. 更多提示词技巧请查看 3. 在 AI 切磋大会第十期 2 月 23 日 deepseek 专场中,分享了以下使用方法技巧: 分享使用 DeepSeek 在工作生活上的案例。 分享 DeepSeek 输出“超预期结果”的惊艳场景。 分享别人使用的案例。 方法论碰撞,如使用 DeepSeek 的技巧、与其他工具的协同方案、模型微调/部署的技巧方法、获取流量/客户等。 在 Workshop 自由探讨环节,参与者可自由组队,确定围绕 DeepSeek 应用的项目方向,进行头脑风暴和制定落地方案,并提交项目初稿。推荐使用 DeepSeek + 飞书多维表格、DeepSeek + 扣子等工具。若讨论无方向,可设定标准问题引导;分组混乱,可预设热门主题让参与者自行加入。
2025-04-12
deepseek的使用技巧
以下是关于 DeepSeek 的使用技巧: 1. 了解其特点与优势: 核心是推理型大模型,无需用户提供详细步骤指令,能通过理解真实需求和场景提供答案。 能够理解用户用“人话”表达的需求,无需特定提示词模板。 在回答问题时能深度思考,而非简单罗列信息。 可以模仿不同作家的文风进行写作,适用于多种文体和场景。 2. 更多提示词技巧请查看 3. 活动中的使用方法技巧: 分享使用 DeepSeek 在工作生活上的案例。 分享 DeepSeek 输出“超预期结果”的惊艳场景。 分享 DeepSeek 与其他工具的协同方案。 分享模型微调/部署的技巧方法。 分享用 DeepSeek 获取流量/客户等。 4. 具体使用步骤: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白之后,正式开始对话。 5. 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力基础上优化输出质量,减轻 AI 味,增加可读性。 设计阈值系统,后续可能根据反馈修改。 用 XML 进行更为规范的设定。
2025-03-26
ai大模型和工具组合使用技巧
以下是关于 AI 大模型和工具组合使用的技巧: 1. 在 Obsidian 中的使用: 简单方法:通过命令面板打开创建的页面(默认快捷键 Ctrl+P),在弹出的搜索框中输入插件名称(如 custom frames),选择 OpenKimi 并打开设置好的窗口。 进阶配置:包括笔记仓库嵌入大模型(Copilot)、笔记内容作为 RAG 嵌入大模型(Smart Conections)、笔记内使用大模型编写内容。 2. 利用大模型与工具的典型例子:如使用 Kimi Chat 查询问题时,它会在互联网上检索相关内容并总结分析给出结论,同时还有很多不同领域类型的工具为大模型在获取、处理、呈现信息上做补充。 3. Agentic Workflow 方面: Agent 通过自行规划任务执行的工作流路径,面向简单或线性流程的运行。 多 Agent 协作:吴恩达通过开源项目 ChatDev 举例,让大语言模型扮演不同角色相互协作开发应用或复杂程序。 AI Agent 基本框架:OpenAI 的研究主管 Lilian Weng 提出“Agent=LLM+规划+记忆+工具使用”的基础架构,其中大模型 LLM 扮演“大脑”,规划包括子目标分解、反思与改进。 4. 从提示词优化到底层能力提升: 任务拆解:将复杂任务的提示词拆解成若干步骤的智能体,每个智能体负责特定子任务。 工作流构建:组合多个提示词或 AI 工具搭建高频重复工作的工作流。 创作场景的灵活应用:在创作过程中使用简单提示词和连续追问调整大模型回答。 深度思考辅助:将大模型用于辅助深度思考,从居高临下的指挥变为伙伴式的协作和相互学习,关注利用大模型训练和增强认知能力。
2025-03-26
deepseek的使用技巧
以下是关于 DeepSeek 的使用技巧: 1. 了解其特点与优势: 推理型大模型:核心是推理型大模型,通过理解用户真实需求和场景提供答案,无需详细步骤指令。 更懂人话:能理解用户用“人话”表达的需求,无需特定提示词模板。 深度思考:回答问题时能深度思考,非简单罗列信息。 文风转换器:可模仿不同作家文风写作,适用于多种文体和场景。 2. 更多提示词技巧可查看。 3. 使用方法: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 Deepseek。 认真阅读开场白之后,正式开始对话。 4. 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力基础上优化输出质量,减轻 AI 味,增加可读性。 设计阈值系统,后续可能根据反馈修改。 用 XML 进行更为规范的设定。 5. 在 AI 切磋大会中,分享了使用 DeepSeek 的技巧,包括方法论碰撞,如使用 DeepSeek 的技巧、与其他工具的协同方案、模型微调/部署的技巧方法、获取流量/客户等,还包括应急预案。同时,活动中还涉及分城市各自案例分享、Workshop 自由探讨等环节。
2025-03-26
介绍一下秘塔AI的基本情况和使用技巧
秘塔 AI 是一款优秀的工具,具有以下基本情况和使用技巧: 基本情况: 整体流程较长且完整,首先需要构建专题,并上传文档或者复制网页链接。 搜索完成后的操作类型丰富,例如可以继续追问、导出文档、收藏、保存到秘塔写作猫并编辑、生成在线演示文稿、下载脑图图片等,还能查看与原文的对应关系并进一步搜索。 RAG 和搜索能力出色,是国产之光。 使用技巧: 构建专题时,认真准备上传的文档或网页链接。 搜索时,在搜索框左下角选中专题以定制数据源。 充分利用丰富的搜索完成后的操作,满足不同需求,如追问、编辑、分享等。 您可以通过以下链接访问秘塔 AI 搜索:https://metaso.cn
2025-03-26
DeepSeek使用技巧
以下是关于 DeepSeek 的使用技巧: 1. 了解其特点与优势: 推理型大模型:通过理解用户真实需求和场景提供答案,无需详细步骤指令。 更懂人话:能理解用户自然表达的需求,无需特定提示词模板。 深度思考:回答问题时能深度思考,非简单罗列信息。 文风转换器:可模仿不同作家文风写作,适用于多种文体和场景。 2. 具体使用步骤: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白后正式开始对话。 3. 更多提示词技巧请查看 。 4. 在“AI 切磋大会第十期2 月 23 日 deepseek 专场”中,分享了使用 DeepSeek 的方法技巧,包括: 运用在工作生活上的案例。 输出“超预期结果”的惊艳场景。 与其他工具的协同方案。 模型微调/部署的技巧方法。 用 DeepSeek 获取流量/客户等。
2025-03-23