Navigate to WaytoAGI Wiki →
Home/All Questions
deepseek辅助写论文
DeepSeek 在辅助写论文方面具有一定的优势和特点: 1. 优势:在写文方面表现出色,但长文可能会过于发散,文风用力过猛,导致审美疲劳,且模型多样性不够,相同 prompt 提问多次答案雷同。 2. 配合使用:写理性文章时,可先与 DeepSeek 讨论思路,再用 Cloud 3.5 批量生成。 3. 控制字数:可以使用 O1 模型对创作的字数进行控制,也可通过多轮对话让 AI 增删改查来调整字数。 同时,还有用户使用 DeepSeek 辅助完成了多种任务,如 Yvonne 用其写论文。但需要注意的是,晋江文学发布了 AI 写作辅助规范,明确了 AI 使用边界,其核心原则是 AI 只能提升写作效率,不能取代人类的原创性。
2025-03-25
使用coze提取小红书数据进行汇总及分析
以下是关于使用 Coze 提取小红书数据进行汇总及分析的相关内容: 一、使用 Coze 应用与多维表格结合 1. 准备工作 完成后端准备工作。 2. 创建应用 打开 Coze,创建应用,可选择 PC 模式。 需要几个参数:多维表格地址、多维表格对应的数据表名、小红书博主首页地址。 界面设计为三个输入框和一个按钮。 3. 开发工作流 设计读取博主笔记列表的工作流,切换到业务逻辑,新建工作流。 工作流包括读取、转换、写入三步。 开始节点设置三个参数,分别代表多维表格地址、表名称、博主首页地址。 第一步选读取作者笔记的插件,将开始节点的 auth_link 关联到 userProfileUrl。 第二步的节点需要把数据转换为符合多维表格插件接收的数据格式,添加代码转换节点并复制代码。 在插件市场搜索官方的多维表格插件,选择 add_records 并分配配置参数。 结束节点配置一个值。 二、使用 Coze 智能体(字段捷径)获取笔记+评论信息 1. 创建智能体 使用单 Agent 对话流模式。 2. 编排对话流 点击创建新的对话流并与智能体关联。 配置两个小红书插件,在获取笔记详情节点和笔记评论节点分别配置 cookie,note_link 使用开始节点的 USER_INPUT。 使用代码节点对两个插件获取的结果进行数据处理。 3. 测试 找到一篇小红书笔记,试运行对话流,在对话窗口输入地址查看数据。 回到智能体的编排页面进行测试,确保对话流执行成功。 4. 发布 点击发布,选择多维表格,然后进行配置。 输出类型选文本,输入类型选字段选择器。 完善上架信息,填写表格,选择发布范围。 三、总结 1. 仿写分析的操作与问题处理 新增仿写表,确定字段。 执行仿写动作。 设置字段与评级。 添加智能标签。 处理数据错误。 2. AI 相关内容的分享与讲解 数据提取分析。 潜力笔记判断。 爆款笔记仿写。 3. 社区资源获取 相关文档、代码、教程放在社区,可通过 3W 点 vtwoagi.com 直达飞书知识库,关注公众号找小伙伴获取进群二维码。 4. 活动消息介绍 扣子老师的开发版与硬件结合活动,3 月 22 号或 23 号将在另一城市举办,消息后续发给大家。
2025-03-25
请推荐一份学习rag的资料
以下是为您推荐的学习 RAG(RetrievalAugmented Generation,检索增强生成)的资料: 1. 《RetrievalAugmented Generation for Large Language Models:A Survey》(https://arxiv.org/pdf/2312.10997.pdf),该资料对 RAG 进行了较为全面的介绍和分析。 2. 关于新知识的学习,您可以参考“胎教级教程:万字长文带你理解 RAG 全流程”。其中提到可以通过 Claude 帮助了解细节概念,然后再通过 Coze 搭建 Demo 来实践学习。还不知道 Coze 是什么的同学可以看公开分享: 。 3. 了解“RAG 是什么?”:RAG 是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型提供额外的、来自外部知识源的信息。通过检索模式为大语言模型的生成提供帮助,使生成的答案更符合要求。同时,还介绍了大模型存在的缺点以及 RAG 的优点,如数据库对数据存储和更新稳定、敏捷、可解释等。 希望这些资料对您学习 RAG 有所帮助。
2025-03-25
我现在想做个AI社区应该干什么
如果您想做一个 AI 社区,可以考虑以下方面: 1. 举办多轮比赛并发放高额奖金,例如设置第一名奖金 6000 多,第二名 4000 等,并制作动态海报。 2. 与小红书进行战略合作,鼓励成员在小红书开设自媒体账号,为优质作者提供流量扶持和问题解决帮助。 3. 在北京亚运村设置线下场地,例如赛博禅新的大聪明常驻,方便成员面基。 4. 规划酒吧相关事宜,比如准备开酒吧,名字叫 Bard AGI,并规划好相关细节,还可考虑在北京五道口附近开正式酒吧。 5. 注重社区搭建及成员互动,社区可由朋友圈发起,成员因兴趣相聚,线下见面能增强成员归属感,大家共同成长,一起创业。 6. 为学习者提供清晰的学习路径,从 AI 基础知识到进阶技术,逐步培养他们成为创作者和引领者。 7. 为创作者提供资源,帮助其创作出优质的内容与服务,满足企业需求,为社区发展注入活力。 8. 与企业合作,为其提供优质的 AI 内容与服务,从学习者中获取潜在的工具推广流量。 9. 组织各类活动,如线上线下的活动让对 AI 感兴趣的同学见面,拉近彼此距离,后续还有十几节课。 10. 建立高质量的交流社群,例如讨论话题仅围绕实际需求与 AI 创新应用玩法,持续探索人与 AI 共生新模式,审核门槛尽可能拉高,要求有发布过立足真实需求、有真价值的、让人兴奋的原创 AI 实践分享,群内时刻有脑暴,互相启发,开阔眼界,并整理日常价值讨论成内部总结文。
2025-03-25
如何本地部署
以下是关于本地部署的相关内容: SDXL 的本地部署: 1. SDXL 的大模型分为两个部分: 第一部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化以生成细节更丰富的图片。 第二部分,SDXL 还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 2. 您可以关注公众号【白马与少年】,回复【SDXL】获取这三个模型的下载链接。 3. 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 4. 接下来,将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。 ChatTTS 的本地部署(Linux 系统): 1. 本地部署的前提是您有一张 4G 以上显存的 GPU 显卡。 2. 简单步骤如下: 下载代码仓库。 安装依赖(⚠️这里有两个依赖它没有放在 requirements.txt 里)。 启动 webui 的 demo 程序,然后用浏览器登陆这个服务器的 ip:8080 就能试玩了。 这个 demo 本身提供了 3 个参数: server_name:服务器的 ip 地址,默认 0.0.0.0。 servic_port:即将开启的端口号。 local_path:模型存储的本地路径。 第一次启动后生成语音时,需要看下控制台输出,它会下载一些模型文件,因此比较慢,而且可能因为网络的问题有各种失败。但是第一次加载成功了,后面就顺利了。 开始方式的选择: 如果您的电脑是 M 芯片的 Mac 电脑(Intel 芯片出图速度非常慢,因此不建议)或者 2060Ti 及以上显卡的 Windows 电脑,可以选择本地部署。强烈建议在配有 N 卡的 Windows 电脑上进行。对于电脑不符合要求的小伙伴可以直接使用在线工具,在线工具分为在线出图和云电脑两种,前者功能可能会受限、后者需要自己手动部署,大家根据实际情况选择即可。
2025-03-25
怎么搭建coze工作流
搭建 Coze 工作流的步骤如下: 1. 进入 Coze,点击「个人空间 工作流 创建工作流」,打开创建工作流的弹窗。 2. 根据弹窗要求,自定义工作流信息,点击确认后完成工作流的新建。 3. 在编辑面板中拖入对应的节点,包括: 插件:提供一系列能力工具,拓展 Agent 的能力边界。 大模型:调用 LLM,实现各项文本内容的生成。 代码:支持编写简单的 Python、JS 脚本,对数据进行处理。 开始节点、结束节点:分别对应子任务流程图中的原文输入和结果输出环节。 4. 按照流程图和具体需求,拖入相应的节点完成工作流框架的搭建。 例如: 在创建工作流时,配置工作流基础信息,拖入“HTTP 请求”节点,并根据接口文档设置请求方式、接口地址和请求参数。 对于返回的 JSON 数据,可通过“代码节点”进行数据格式转换。 若要将新闻数据放入飞书多维表格,需在飞书中新建多维表格并创建相关字段,然后在 Coze 工作流中拖入“飞书多维表格”节点进行链接和设置。 另外,在搭建如分析儿童绘画作品心理状态的公益应用时,先新增工作流并命名,根据具体业务逻辑编排流程图,如上传作品 多个多模态大模型识别不同元素 分别提取特征并分析 综合分析结果 给出评估与建议,然后从左到右分组拆解多模态大模型的作用,搭建完工作流后可进行“用户界面”的搭建,选择“桌面网页”类型。相关的 prompt(提示词)文档地址:https://vcn5grhrq8y0.feishu.cn/wiki/Z3NzwrtEKi9h5mk0rTOcAT0xnTc
2025-03-25
知识库有没有相关文档,教怎么做创意积累的?
以下是关于创意积累的相关内容: 在日常浏览、参观场馆时积累描述词,也可参加关键词学社增加认知。 经常参加 AI 绘画的 prompt battle 活动有助于内容创作相关的积累,该活动每周六和周日晚上进行,有 10 分钟创作、2 分钟评选的规则,还有多种主题,现在高校之间可组织此类活动,还有早晨版活动。 某板块收录 made journey 相关内容,这有助于开拓视野,如同 read in prompt out 的过程,需先获取知识再与大语言对话。这里收录了很多有意思的词用于与 AI 对话看效果,还举了如粉色可用空灵粉表示、宋徽宗相关提示词可用于创意等例子。 关键词学设每天有比赛或提示词,很多同学参与共创知识库。学设的微信群难管理已转至飞书群,感兴趣的同学可加入。此外还收集了 AI 视频类词汇,还有类似官方提示工坊的内容可供体验。 社区为学习者提供清晰的学习路径,从 AI 基础知识到进阶技术,逐步培养他们成为创作者和引领者。学习者通过社区内丰富的课程、活动和竞赛不断提升自己,逐步积累能力。 社区中有最全最新的提示词教程和创意。
2025-03-25
生成高清视频
以下是关于生成高清视频的相关信息: Meta 发布的 Meta Movie Gen 文生视频模型: 由视频生成和音频生成两个模型组成。 Movie Gen Video 是 30B 参数的 Transformer 模型,能从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens,可进行精确视频编辑和个性化视频生成,在保持角色身份一致性和运动自然性方面表现出色,通过预训练微调范式完成,沿用了 Transformer 特别是 Llama3 的许多设计,预训练阶段在海量视频文本和图像文本数据集上联合训练,微调阶段进行有监督微调,还引入流匹配作为训练目标,效果优于扩散模型。 Movie Gen Audio 是 13B 参数的 Transformer 模型,能接受视频输入及可选文本提示生成高保真音频。 Sora 相对于其他文本生成视频 AI 的优势: 能够生成高达一分钟的高清视频。 支持生成不同分辨率、纵横比的视频。 能生成显示人物复杂、动态运动的视频,运动自然流畅。 能够捕捉和再现丰富的场景细节。 在生成长视频时能保持场景和角色的一致性。 能够处理多角色交互,角色互动自然有信服力。 采用类似 GPT 的技术,自然语言理解强大。 能模拟动作对环境的影响。 可以模拟视频游戏等数字环境。 一些海外的 AI 视频生成工具: Haiper(有免费额度):https://haiper.ai/ ,能文生视频、图生视频、素描生视频、扩展视频,生成 HD 超高清视频,文生视频支持选择风格、秒数、种子值,图生视频只能写提示词、秒数、种子值,还能进行视频重绘和局部重绘。 DynamiCrafter(免费):https://huggingface.co/spaces/Doubiiu/DynamiCrafter ,https://github.com/Doubiiu/DynamiCrafter?tab=readmeovfile ,能生成 2 秒图生视频,还可以做短视频拼长视频。 Morph studio(内测):https://app.morphstudio.com/ ,暂未对外开放,可在官网提交内测申请,discord 上可以免费体验,支持文生视频、图生视频,英文提示词,支持运镜、运动强度、尺寸、秒数设置,默认生成 3 秒视频。
2025-03-25
如何询问ai
以下是关于如何询问 AI 的一些方法和建议: 1. 在 Cursor 官方中: Chat 聊天:可以与看到您代码库的 AI 交谈,它能看到当前文件和光标,您可以询问如“这里有 bug 吗”,通过⌘+Shift+L 或“@”添加特定代码块到上下文,用⌘+Enter 与整个代码库聊天。 代码库答案:使用@Codebase 或⌘Enter 询问有关代码库的问题,Cursor 会搜索代码库查找相关代码。 引用您的代码:带有@符号的参考代码可用作 AI 的上下文,键入@可查看文件夹中所有文件和代码符号的列表。 使用图像:点击聊天下方的图片按钮或拖入图片到输入框,将视觉上下文包含在聊天中。 2. 罗文提出:比提示词更重要的是逻辑思维推理能力。在使用生成式 AI 时,要学会正确提问,比如解决怎么使用工具的工具(插件)这一卡点。如果不能提出正确的问题,就无法找到答案。 3. 危柯宇的方法: 万能公式法:问 AI 【一个(xxx 职业)需要具备哪些知识?】,然后根据给出的知识框架的每个小点去问。 优质信息源:像没有技术背景的普通人,可在「即刻」App 的“”等免费圈子里获取信息。同时,为应对信息爆炸,可尝试只掌握最好的产品、解决具体问题、关注核心能力、关注理清需求和逻辑、先关注提升认知/洞察等技巧。
2025-03-25
对口型的视频生成网站
以下是一些对口型的视频生成网站: 即梦 AI: 对口型功能介绍:是即梦 AI「视频生成」中的二次编辑功能,现支持中文、英文配音。目前主要针对写实/偏真实风格化人物的口型及配音生成,为用户的创作提供更多视听信息传达的能力。可上传包含完整人物面容的图片,进行视频生成,待视频生成完成后,点击预览视频下的「对口型」按钮,输入台词并选择音色,或上传配音文件进行对口型效果生成。目前支持语言:中文(全部音色),英文(推荐「超拟真」内的音色)。 技巧:上传写实/近写实的人物单人图片,目前不支持多人物图片对口型;输入 prompt,选择参数,点击生成视频,尽量确保人物无形变等扭曲效果;确保人物生成的情绪与希望匹配的口型内容匹配;在生成的视频下方,点击【对口型】;输入或上传需要配音的内容,注意视频生成时长和配音试听时长尽量对齐,点击生成;先对口型,再超分补帧。 基础功能介绍:新增默认参数配置功能,快来设置您惯用的生成参数吧~配置后,后续进入平台,所有功能参数将按照您默认配置的参数展示;若您配置时,已设置过一些内容,配置该参数面板不会修改您的当前的功能配置;参数配置后,您生成前仍然可以改变您每次生成的参数,最终生成按照您提交生成前的选择的配置生成。生成视频卡片的左下方:【重新编辑】:可于左侧面板重新编辑原始输入参数及信息,再次生产;【再次生成】:直接使用现有输入参数及信息再次生成;【发布】:提交满意的视频片段发布至后台,待审核通过后,您的视频会发布并展示至首页视频 tab 下。生成视频右下方(鼠标移动到卡片上显示):【视频延长】:可进行 2 次延长,支持续写 prompt,延长时长可在生成的视频模式内多选(标准模式/流畅模式),最高可支持 36s 的视频延长;【对口型】:针对清晰单人视频,输入音频源,或输入台词选择音色,进行对口型生成;【补帧】:可选 24fps,30fps,60fps,如视频内像素颗粒较为明显,建议选择 24fps/30fps 补帧;【HD】:二倍超分。生成视频卡片右上角(鼠标移动到卡片上显示):【下载】:导出您的视频;【收藏】:您可以收藏您满意的视频,方便后续定位。 其他声音克隆产品: PlayHT:https://play.ht/studio/ 包含预设音色,可免费克隆一个音色,如果想生成多个,把上一个音色删除就可以做新的。 Elevenlabs:https://elevenlabs.io/app 包含预设音色,新用户 1 美元开通一个月会员,可使用克隆音色。 魔搭社区:https://www.modelscope.cn/home 一个模型开源社区及创新平台,由阿里巴巴通义实验室(Institute for Intelligent Computing),联合 CCF 开源发展委员会,共同作为项目发起方。包含各种声音模型,有开发经验的朋友可使用。 Dubbingx:https://dubbingx.com/ 免费克隆音色,有桌面版,Mac、Window 均可用。 魔音工坊:https://www.moyin.com/ 对口型相关: Runway:静态图片+音频文件,可生成对口型视频;动态视频+音频文件,可生成对口型视频,但需要消耗 20 点。 Pika:静态图片+音频文件,可生成对口型视频。
2025-03-25