Navigate to WaytoAGI Wiki →
Home/All Questions
剧本分析(NLP):AI 读取剧本,分析情节、角色发展,甚至预测观众反应。
以下是关于剧本分析(NLP)中 AI 读取剧本并进行相关处理的一些信息: 人物剧本与角色状态: 对人物如李洛云进行“剧本推演”,每天生成 20 40 个时间段剧本,依据人物背景和增长记忆体生成。 可使用 LLM 生成英文提示词用于 Stable Diffusion 出图,图存于“手机相册”用于对话多模态中的图片回复。 选择剧本和图片生成朋友圈文案。 拟人行为: 反感度系统:通过 LLM 分析对话判断角色是否产生反感度。 延迟回复:根据状态忙闲或是否睡觉决定回复时间。 接受多轮输入,一并回复:避免每一条输入回复一句,不像真人。 响应拆分与响应延迟:将一大段响应文本拆分成多段,模拟人类打字速度(3 5 字/秒),回复时概率性使用表情包,有概率主动聊天(与亲密度正相关)。 微信朋友圈:根据每天人物剧本挑选 1 2 个发布朋友圈并配图,目前内容由 AI 生成但手工发布。 将小说做成视频的制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)提取关键场景、角色和情节。 2. 生成角色与场景描述:用工具(如 Stable Diffusion 或 Midjourney)生成视觉描述。 3. 图像生成:用 AI 图像生成工具创建图像。 4. 视频脚本制作:将关键点和图像组合成脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)转换语音,添加背景音乐和音效。 6. 视频编辑与合成:用视频编辑软件(如 Clipfly 或 VEED.IO)合成。 7. 后期处理:剪辑、添加特效和转场提高质量。 8. 审阅与调整:观看视频并根据需要调整。 9. 输出与分享:完成编辑后输出并分享。 Inworld AI: Inworld AI 是一家专注于游戏和人工智能的初创公司,开发了 Inworld 的 AI 角色引擎,可将游戏 NPC 进行 AI 化并集成到游戏中。该引擎超越大语言模型,增加可配置的安全性、知识、记忆、叙事控制、多模态等功能,使 NPC 能够自我学习和适应,具有情绪智能。其角色引擎可创建具有独特个性和上下文意识的角色,无缝集成到实时应用中,内置优化规模和性能的功能。Character Brain(性格大脑)引擎使 AI NPC 能够学习和适应,具有情绪智能的关系导航能力、记忆和回忆能力,并能自主发起目标、执行动作并遵循动机。功能包括目标和行动、长期记忆、个性、情绪等。
2025-03-20
如何一步一步实现RAG 模型的私有化部署
要一步一步实现 RAG 模型的私有化部署,可参考以下步骤: 1. 导入依赖库:加载所需的库和模块,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型,使用前需确保 ollama 服务已开启并下载好模型。 2. 从订阅源获取内容:通过特定函数从指定的 RSS 订阅 url 提取内容,若需接收多个 url 稍作改动即可。然后用专门的文本拆分器将长文本拆分成较小块,并附带相关元数据,如标题、发布日期和链接,最终合并成列表返回用于后续处理或提取。 3. 为文档内容生成向量:使用文本向量模型 bgem3,从 hf 下载好模型后放置在指定路径,通过函数利用 FAISS 创建高效的向量存储。 4. 关于 ollama: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 cpu 和 gpu。 提供模型库,用户可从中下载不同模型,满足不同需求和硬件条件,可通过 https://ollama.com/library 查找。 支持自定义模型,可修改模型温度参数等。 提供 REST API 用于运行和管理模型及与其他应用集成。 社区贡献丰富,有多种集成插件和界面。 需先安装,访问 https://ollama.com/download/ 下载安装,安装后确保 ollama 后台服务已启动。 5. 基于用户问题从向量数据库中检索相关段落,根据设定阈值过滤,让模型参考上下文信息回答问题实现 RAG。 6. 创建网页 UI:通过 gradio 创建网页 UI 并进行评测。 总结: 1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署资讯问答机器人,结合 RSSHub 处理和提供资讯。 2. 上下文数据质量和大模型的性能决定 RAG 系统性能上限。
2025-03-20
本地部署
SDXL 的本地部署步骤如下: 1. 模型下载:SDXL 的大模型分为两个部分,第一部分 base+refiner 是必须下载的,base 是基础模型用于文生图操作,refiner 是精炼模型用于细化图片生成细节更丰富的图片;还有一个配套的 VAE 模型用于调节图片的画面效果和色彩。您可以关注公众号【白马与少年】,回复【SDXL】获取下载链接。 2. 版本升级:在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 3. 放置模型:将 base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下,vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。 4. 启动使用:启动 webUI 后即可在模型中看到 SDXL 的模型。正常使用时,先在文生图中使用 base 模型填写提示词和常规参数生成图片,然后将图片发送到图生图中切换大模型为“refiner”重绘。 5. 插件使用:可在扩展列表中搜索 refine 安装插件并重启,启用后可在文生图界面直接使用 refine 模型绘画。 另外,关于本地部署资讯问答机器人,实现 Langchain+Ollama+RSSHub 的 RAG 步骤包括: 1. 导入依赖库:加载所需的库和模块,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型(使用前确保 ollama 服务已开启并下载好模型)。 2. 从订阅源获取内容:从指定的 RSS 订阅 url 提取内容,通过专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,最终合并成列表返回。 3. 为文档内容生成向量:使用文本向量模型 bgem3,从 hf 下载好模型放置在指定路径,通过函数利用 FAISS 创建高效的向量存储。
2025-03-20
实践案例推荐,仅搜索教育、多邻国相关的内容
以下是与教育、多邻国相关的实践案例推荐: 张翼然:用 AI 为教师减负(3H) 教师的 AI 减负指南生成式人工智能在教学中的应用 教师使用 AI 小技巧 想让 AI 做好,首先你得会做 教学目标:是否明确,与课程标准和学生实际需求相符合 教学方法:是否使用多种,考虑学生不同学习风格 能力培养:是否注重培养学生的思维、创新和实践能力 教学实践 教案中的教学过程是否紧密结合学生现实生活和个人经验 群里“公开问”创造良好探究学习气氛,提问技巧可见的快速提高 是否充分利用课堂时间,让学生参与教学 是否在教学中关注学生反馈和理解,及时调整教学策略 师生关系 是否营造良好教学氛围和师生关系 是否平等尊重学生主体地位,体现尊重和关爱学生的教育理念 是否注重发挥学生积极性和主动性,激发学习热情 移动教学应用: 多邻国 六六写字 幕布 “遇见苏轼”项目式教学 在教育实践中,针对二年级学生对于抽象数学概念感到困惑的痛点问题,也有相关的探索和尝试。
2025-03-20
RAG 模型的私有化部署
RAG 模型的私有化部署通常在商业化过程中被用于结合企业私有数据。在企业有特殊需求时,还可对模型进行微调以优化性能。基础模型负责提供推理提示,RAG 用于整合新知识,实现快速迭代和定制化信息检索。 构建有效的 RAG 系统需要考虑多个因素: 1. 数据安全性:若有需求,需进行私有化部署,并考虑硬件成本。 2. 数据集复杂度和数量级:复杂数据集带来高昂的文档清洗、解析和分割成本,大数据量级带来存储成本上升。 3. 回答质量要求:要求越高,需要越复杂的检索算法和更强大的 LLM,带来算力成本。 4. 数据更新频率:频繁更新可能需要高昂的维护成本。 此外,实现本地部署资讯问答机器人时,如 Langchain + Ollama + RSSHub 实现 RAG,需导入依赖库、从订阅源获取内容、为文档内容生成向量等步骤。
2025-03-20
RAG 模型的私有化部署
RAG 模型的私有化部署通常在商业化过程中被用于结合企业私有数据。在企业有特殊需求时,还可对模型进行微调以优化性能。基础模型负责提供推理提示,RAG 用于整合新知识、实现快速迭代和定制化信息检索。 构建有效的 RAG 系统并不简单,企业若要进行私有化部署,需考虑以下因素: 1. 数据安全性:若有需求,需考虑硬件成本。 2. 数据集复杂度和数量级:复杂数据集会带来高昂的文档清洗、解析和分割成本,大数据量级会带来存储成本上升。 3. 回答质量要求:要求越高,需要越复杂的检索算法和更强大的 LLM,会带来算力成本。 4. 数据更新频率:频繁更新可能需要高昂的维护成本。 此外,实现 RAG 模型私有化部署还涉及一些技术操作,如本地部署资讯问答机器人时,需要导入依赖库、从订阅源获取内容、为文档内容生成向量等。
2025-03-20
育儿智能体落地实践推荐,相关案例和资讯
以下是为您整理的育儿智能体落地实践的相关案例和资讯: 在“通往 AGI 之路知识库使用指南”中,提到了智能纪要、智能章节等内容。包括博主精美解释六大策略,小七姐在社区带来共学课程及直播分享与回放,介绍了官方最佳 prompt 的 6 个实践办法。还提到了 AI 智能体的进阶、案例拆解及扣子的应用,如景淮老师的相关成果,阐述扣子、千帆百炼属于智能体范畴,扣子更偏 ToC 应用。同时提到 Cos 平台功能全面,社区共学成果显著,学习 AI agent 建议先吃透 prompt,官方文档内容全面,社区小伙伴参加 cos 比赛常获奖并分享经验。 在“张翼然:AI 赋能教学,创新引领未来.pdf_AI 赋能教学创新引领未来”中,涵盖了教育目标由知识本位向能力为重的转型、群智协同与知识动态生成、核心能力、关键价值等方面。还包括设计实验或观察方法、收集与分析数据、得出结论并撰写报告等研究过程的指导,以及黎加厚关于让教师掌握教育智能体金钥匙的相关内容。同时探讨了 AIGC 教育革命、AI 从工具到助手、赋能教师提升效率与能力、大语言模型的教学潜力、AI 与教育场景融合拓展教学边界与创新场景、一线教师的 AI 需求与高效工具推荐、AI 赋能课堂的核心逻辑、AI 与人类智能的共生放大学生思考力塑造深度学习能力、解码 AI 教学案例、能力的普遍性与局限性、现阶段 AI 在教育领域应用的局限性等内容。 在“扣子案例合集社区内容分享”中,包含了如“用 Coze 扣子轻松搭个 Bot,从此告别‘标题党’”“扣子官方:用扣子/Coze 揭秘吴恩达的 4 种 AI Agent 设计模式”“扣子官方:这届 00 后已经学会用扣子/Coze‘偷懒’了”“【2 万字长文】如何用 Kimi 全自动创建扣子智能体?这喂饭级教程将揭晓一切!”“保姆级教程:Coze 打工你躺平”“扣子 Coze 智能体开发实战教程|智能体开发”等案例。
2025-03-20
llamaindex
LlamaIndex 是一个为构建大型语言模型(LLM)应用而设计的开发框架,具有以下特点和优势: 1. 为开发人员提供强大且灵活的工具,能更有效地理解和处理文本数据。对于熟悉 LangChain 的开发者来说不陌生。 2. 核心优势在于对大型语言模型的深度支持,允许利用如 GPT3.5 Turbo 这样的模型执行多种文本处理任务,如文档问答、文章生成和自动翻译等。 3. 特别提供构建文档问答系统的功能,能自动从大量文档中检索相关信息并生成答案,对处理大量知识信息的领域有价值。 4. 允许对嵌入模型进行微调以适应特定任务需求,提升文档问答系统性能。 5. 支持连接不同类型的数据源,包括结构化、半结构化和非结构化数据,为应用程序提供全面信息。 6. 设计注重简化开发流程,复杂的 NLP 任务通过少量代码即可实现,无需深入了解底层复杂性,降低开发大型语言模型应用的门槛,提升开发效率和应用性能。 7. 之前叫 GPT Index,是更高一层 LangChain 的抽象。简化了 LangChain 对文本分割、查询的接口,提供更丰富的 Data Connector。只针对 GPT Model 做 Index,而 LangChain 可对接多个 LLMs,可扩展性更强。 其 GitHub 地址:https://github.com/runllama/llama_index/
2025-03-20
怎么安装ChatGPT
以下是安装 ChatGPT 的详细步骤: 安卓系统 1. 打开系统自带的谷歌服务框架 打开系统设置 拉到最底下,点击更多设置 点击账号与同步 点击谷歌基础服务 打开基础服务按钮 2. 安装 Google Play 到小米自带的应用商店搜索 Google Play 进行安装 安装好后打开谷歌商店,点击右上角登录谷歌账号 3. 安装 ChatGPT 到谷歌商店搜索 ChatGPT 进行下载安装,建议把谷歌邮箱也安装上,平时接收验证码那些比较方便。 如果您只想体验 ChatGPT 3.5 版本,不升级 GPT4,可跳转到第 4 步第 6 小步进行登录使用,如果想直接订阅 GPT4 Plus 版本,请接着往下看: 4. 订阅 GPT4 Plus 版本 先在 Google play 中的【支付和订阅】【支付方式】中绑定好银行卡 然后在 ChatGPT 里订阅 Plus 苹果系统 1. 在 Apple Store 下载 ChatGPT 中国区正常下载不了,需要切换到美区才可以下载,美区 Apple ID 注册教程参考如下知乎链接:【账号指南】美区 Apple ID 注册教程(保姆教程)https://zhuanlan.zhihu.com/p/696727277 。最终在 Apple Store 搜到 ChatGPT 结果如下,下载安装即可,注意别下错啦。 2. 支付宝 购买苹果礼品卡 充值 订阅付费 App 打开支付,地区切换到【美区任意区】,往下滑,找到【品牌精选 折扣礼品卡】,点击进去,可以看到【大牌礼品卡】,往下滑找到【App Store&iTunes US】礼品卡,按需要的金额购买即可,建议先买 20 刀就行。 支付宝购买礼品卡 在 apple store 中兑换礼品卡 在 chatgpt 中购买订阅 gpt plus,如果中途不想继续订阅了,可到订阅列表中取消订阅即可。 完成上述步骤后,就可以开始使用 ChatGPT 4o 了!
2025-03-19
GPT
GPT 是“生成式预训练变换器”(Generative Pretrained Transformer)的缩写,是一种大型语言模型(LLM),也是生成式人工智能的重要框架。首个 GPT 由 OpenAI 于 2018 年推出。GPT 模型是基于 Transformer 模型的人工神经网络,在大型未标记文本数据集上进行预训练,并能够生成类似于人类自然语言的文本。 Transformer 是一个相对专业的概念,其工作原理涉及一些线性代数和概率学知识。 生成式预训练是机器学习领域由来已久的概念。直到 2017 年 Google 推出 Transformer 模型,才有了如 BERT 和 XLNet 这样的大型语言模型的诞生。这些模型基于预训练的转换器,但并非为生成文本设计,而是作为“仅编码器”使用。2018 年,OpenAI 发表文章首次介绍了基于转换器的生成式预训练模型(GPT)系统,即“GPT1”。 ChatGPT 从网络、书籍等来源获取大量人类创作的文本样本,然后训练神经网络生成“类似”的文本,能够从“提示”开始,继续生成“类似于训练内容”的文本。ChatGPT 中的实际神经网络由非常简单的元素组成,尽管数量庞大。其基本操作也简单,为每个新单词生成“输入”,然后将其“通过其元素”。但这个过程能产生成功的类似于网络、书籍等内容的文本,这表明人类语言及背后思维模式的结构比想象中更简单和具有“法律属性”。ChatGPT 在生成文本方面表现出色,结果接近人类所产生的,但它并不像大脑一样工作,其基本人工神经网络结构最终基于大脑的理想化模型,人类生成语言时许多方面的工作与之有相似之处。 所谓的大模型,简而言之,就是那些拥有庞大参数数量的模型。它们通过处理和理解海量数据,能够胜任一系列复杂的任务。大模型强大的原因在于庞大的参数数量和大量的数据训练。参数帮助模型更深入地理解和生成数据,大量数据是学习的基础,使其掌握丰富的知识和技能。
2025-03-19