Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

有哪些针对CoT能力的微调工具

Answer

以下是一些针对 CoT 能力的微调工具:

  1. Self-consistency CoT:使用手动设计的 Prompt 生成采样一组不同的推理路径,再通过“多数投票”找到推理步骤中“最一致”的路径,使用这条解码路径驱动原始的贪心解码方式来提示 CoT 性能。
  2. MM-CoT:侧重使用微调方法嵌入 CoT,通过将语言和图像合并在一个包含推理生成与答案推理的两阶段的框架中,使用微调大模型赋予输入多模态 CoT 的能力。
  3. GoT-Input 方法:通过对 CoT 生成的思维图进行抽取构建三元组,并使用 GNN 将文本、图像与 CoT 统一,从而生成包含 CoT 信息的最终答案。
  4. VCoT:解决了一个输出多模态的问题,通过以生成图片的“标题”以及识别核心关注点作为图像生成的启动过程,通过递归的方式填充图像信息,从而实现输出多模态。

此外,在将 DoT 扩展到预训练的扩散语言模型 Plaid 1B 并在更复杂的推理任务上进行评估时,自回归模型和扩散模型在使用 CoT 或 DoT 进行微调时都显示出显著提高的性能。在微调 Plaid 1B 时,也探索了几种替代方案。

在强化学习驱动的合成数据生成与模型优化流程中,也涉及到 CoT 的相关应用和优化,如初始 CoT 生成、CoT 存储等。

Content generated by AI large model, please carefully verify (powered by aily)

References

AI Agent系列(二):Brain模块探究

除了各种XoT以外,对于推理过程的“解码”问题,也有一些工作进行了研究。其中,推理聚合的代表性工作是Self-consistency CoT。Self-consistency CoT使用手动设计的Prompt生成采样一组不同的推理路径,再通过“多数投票”找到推理步骤中“最一致”的路径,使用这条解码路径驱动原始的贪心解码方式来提示CoT性能。[heading4]8.3.3多模态CoT[content]除了对CoT本身的改变,还有许多工作将CoT“部署”于不同的应用场景之下以提升各种场景下大模型的能力,譬如最简单的从单语言CoT扩展到多语言CoT。这些应用场景包括从单模态到多模态以及从复杂推理任务到通用推理任务的扩展。其中,多模态CoT具有很大的应用前景,在CoT中,多模态可以分为两类:输入多模态与输出多模态。其中,MM-CoT侧重使用微调方法嵌入CoT,通过将语言和图像合并在一个包含推理生成与答案推理的两阶段的框架中,使用微调大模型赋予输入多模态CoT的能力。基于MM-CoT,GoT-Input方法通过对CoT生成的思维图进行抽取构建三元组,并使用GNN将文本、图像与CoT统一,从而生成包含CoT信息的最终答案。而区别于输入多模型,VCoT解决了一个输出多模态的问题,VCoT通过以生成图片的“标题”以及识别核心关注点作为图像生成的启动过程,通过递归的方式填充图像信息,从而实现输出多模态。

融合RL与LLM思想,探寻世界模型以迈向AGI「中·下篇」

接下来作者将DoT扩展到预训练的扩散语言模型Plaid 1B并在更复杂的推理任务上进行评估,即GSM8K。在下表中,与不使用CoT/DoT相比,自回归模型和扩散模型在使用CoT或DoT进行微调时都显示出显著提高的性能。这表明增加的计算(推理时间)带来了实质性的好处。DoT,与隐式CoT有类似的公式,但展现出比它更显著增强的推理能力,可与微调CoT模型的GPT-2相媲美。多通道DoT表现略优于单通道版本,而后者更高效。在微调Plaid 1B时,作者探索了几种替代方案并进行了如表3所示的消融研究。使用GSM8K增强数据集继续预训练Plaid 1B并使用基于梯度的条件进行推理,对于在下游任务上微调扩散LM来说不是一个好选择,因为推理任务需要更具体的指导。我们看到,这篇文章采用diffusion的思想对问题上下文及链式思考推理路径z0=EMB([s;r1...n])进行过程学习采样,并在其中通过一些tricks进行施躁和降噪的梯度修正。

工具包|通往 AGI 之路

|标题|附件|标签|备注|链接|时间|SourceID||-|-|-|-|-|-|-||强化学习驱动的合成数据生成与模型优化流程||技术|数据生成与整合:<br>结合真实数据与合成数据。<br>利用合成数据生成器和合成对话数据集(CoT Generator)创建训练数据。<br>通过人类专家提供反馈,实现持续学习。<br><br>模型训练:<br>使用强化学习(RL)和高级技术训练模型,基于奖励和效率进行优化。<br>包括人类标注(非正式领域)和验证(正式领域)。<br>探索与利用的平衡。<br>训练阶段涉及奖励函数、语言模型、RL环境、策略优化器、梯度计算和参数更新。<br><br>模型优化:<br>多智能体训练、课程学习和对抗性训练。<br>高级RL技术,如基于模型的RL和元学习。<br><br>推理与迭代优化:<br>从真实世界数据中学习,考虑测试时计算变量。<br>初始CoT生成,效率监控,变量细化时间和搜索回溯。<br>测试时计算与准确性的权衡,首次推理,训练模型,CoT细化和最终响应。<br><br>存储与应用:<br>CoT存储,使模型能够持续更新和优化。<br>整个流程展示了一个以强化学习为核心的数据生成、模型训练和优化的闭环系统,旨在提高模型的推理能力和准确性。||2024/09/12|NzM2MTQwNjg2MzI4NTUxODM0MDpyZWN1cGhEYmRDMHRvVDo1NjlmMzkzYzEzYjI1YzhhZmFmNmNmZTQ5Yjc5Y2RhMjox|

Others are asking
ChatGPT CoT 的system prompt
ChatGPT CoT 的系统提示词包括以下方面: 核心功能:扮演过度思考但讨喜的 AI 助手,将原始思维流转化为易读版本,保留用户喜爱的特质,去除冗余和混乱,平衡思考的真实性与可读性。 关键设计原则: 语气与风格:友好好奇,使用第一人称视角、口语化表达。 内容处理规则:信息过滤,忠实于原始思维链,明确标注思考修正,结构化输出。 安全与合规机制:隐私保护,过滤敏感话题和内容审查。 输出要求:符合特定的语言风格和格式,如使用特定短语、避免学术化术语等。
2025-03-02
什么是CoT
CoT(思维链)是一种在 AI 领域中应用的方法,它可以分为多种类型,具体取决于应用场景和具体任务。广义上,其类型基于以下几个维度来分类: 1. 逻辑推理链:运用逻辑推理来解决问题,如通过演绎、归纳或类比推理得出结论。 2. 步骤序列:在某些任务中表现为一系列操作或步骤的顺序,需按特定顺序执行以解决问题,像算法问题解决或复杂任务规划。 3. 因果链:处理因果关系问题时,用来表示事件之间的因果链条,帮助模型理解因果关系。 4. 情境模拟:在某些情况下涉及模拟或想象一个场景并在该情境下进行思考,以解决问题或做出决策。 5. 对话链:在对话系统或交互式任务中,指一个连续的对话过程,每一步回应都基于之前的交流内容。 在不同的研究和应用中,CoT 的具体实现和分类可能有所不同。在 AI 领域,特别是在开发能够进行复杂推理和理解的模型时,CoT 方法正变得越来越重要。通过模拟人类的思考过程,CoT 旨在帮助 AI 系统更好地理解问题的上下文、解决问题的步骤,以及如何有效地应用知识来得出结论。 例如,在让克劳德处理复杂问题或任务时,采用思维链(CoT)提示,让其逐步思考问题然后再给出最终答案往往是有益的。这种技术可以显著提高克劳德回答问题的准确性和细微差别。允许克劳德在回答问题之前进行推理,可以导致更准确和智能的输出,特别是对于多方面或具有挑战性的查询。 在输出防护提示词中,还引入了 CCoT(Contrastive ChainofThought Prompting,对比思维链提示)技术,其作用是通过举正反例的方式告诉模型什么状况下做出的举动是对的或错误的。如果想通过这种对比的形式提升模型的表现性,那么意味着这些例子(对的或错的)总是成对出现的。
2025-02-11
LLM和COT分别是什么
LLM 即大型语言模型(Large Language Model),是一种基于深度学习的自然语言处理模型,具有强大的语言理解和生成能力。例如 FlanT5、ChatGLM、UL2、Qwen、Chinchilla、OPT、PaLM、LLaMA、LLaMA2、Vicuna 等都是常见的 LLM 模型。 COT 即思维链(ChainofThought),它能引导 LLM 逐步推理,增强其逻辑推理能力,对于需要逻辑解决方案的任务非常有效,但在创造性问题解决中存在局限性。在一些研究中,如多模态大模型中,LLM 作为核心智能体可以继承包括 COT 在内的一些显著属性。同时,ReAct 框架中也提到了将 ReAct 和 COT 结合使用的方法。
2024-10-28
COT技术
COT 技术,即思维链(Chain of Thought)提示技术,当面对复杂问题或任务时,让模型如 Claude 逐步思考问题然后再给出最终答案往往是有益的。这种技术可以显著提高模型回答问题的准确性和细微差别。 在输出防护提示词中,还引入了 CCoT 技术,即对比思维链提示(Contrastive ChainofThought Prompting)。简单来说,其作用是通过举正反例的方式来告诉模型什么状况下做出的举动是对的或错误的。如果想通过这种对比的形式来提升模型的表现性,那么意味着这些例子(对的或错的)总是成对出现的。想进一步深入了解技术的朋友可以进入此链接查看原文:《Contrastive ChainofThought Prompting》(https://arxiv.org/pdf/2311.09277.pdf )
2024-08-14
CoT是什么
CoT(思维链)是一种表达思维过程的方式,通过一系列有逻辑关系的步骤来呈现完整的思考过程。它可以分为多种类型,具体取决于应用场景和具体任务。在广义上,CoT 的类型可以基于以下几个维度来分类: 1. 逻辑推理链:涉及使用逻辑推理来解决问题,例如通过应用演绎、归纳或类比推理来得出结论。 2. 步骤序列:在某些任务中,表现为一系列操作或步骤的顺序,这些步骤需要按照特定的顺序执行以解决问题,如算法问题解决或复杂任务的规划。 3. 因果链:在处理因果关系问题时,用来表示事件之间的因果链条,帮助模型理解事件之间的因果关系。 4. 情境模拟:在某些情况下,涉及模拟或想象一个场景并在该情境下进行思考,以解决问题或做出决策。 5. 对话链:在对话系统或交互式任务中,指一个连续的对话过程,其中每一步回应都基于之前的交流内容。 在不同的研究和应用中,CoT 的具体实现和分类可能有所不同。在 AI 领域,特别是在开发能够进行复杂推理和理解的模型时,CoT 方法正变得越来越重要。通过模拟人类的思考过程,CoT 旨在帮助 AI 系统更好地理解问题的上下文、解决问题的步骤,以及如何有效地应用知识来得出结论。
2024-07-01
请问COT与思维导图、系统图等的关系是什么?
我总结了以下关于 CoT(ChainofThought)与思维导图、系统图等的关系: 1. CoT 与思维导图的关系: 思维导图是一种可视化的思维表达方式,通过节点和连线展示思维过程。 CoT 也是一种表达思维过程的方式,通过一系列有逻辑关系的步骤来呈现完整的思考过程。 两者都旨在清晰地展示思维过程,但表达形式不同,思维导图更注重可视化,CoT 更注重文字描述。 2. CoT 与系统图的关系: 系统图是用来描述系统结构和组件之间关系的一种建模方式。 而 CoT 则更侧重于描述解决问题的思维过程,即系统内部的推理逻辑。 系统图和 CoT 都试图以图形化的方式表达复杂的逻辑关系,但前者关注系统架构,后者关注思维过程。 3. CoT 与思维树(ToT)的关系: 思维树(Tree of Thoughts)是 CoT 的一种扩展,在 CoT 的基础上引入了多路径探索的思维模式。 思维树允许在每个步骤中生成多个可能的思维分支,形成一个树状结构,以覆盖更广泛的推理空间。 相比 CoT 单一的思维链,思维树提供了更丰富的思维表达能力。 总的来说,CoT、思维导图、系统图等都是用于表达和组织复杂思维过程的方式,各有侧重点,但都旨在帮助更好地理解和解决问题。它们之间存在一定的联系和区别。
2024-04-22
热点的大模型微调蒸馏工具有哪些
以下是一些热点的大模型微调蒸馏工具: FLUX.1:包括 FLUX.1(可商用,为本地开发和个人使用定制,生成速度快,内存占用小,在 Apache 2.0 许可下公开提供,支持在 Replicate、fal.ai 和 Comfy UI 等平台使用,且支持用户根据自己数据集微调)。其训练参数高达 120 亿,在图像质量、提示词跟随等多方面超越流行模型,工作原理基于混合架构,结合变换器和扩散技术。 基于阿里云 PAI 平台:可复现 R1 蒸馏及蒸馏训练模型过程。部署 32b 的蒸馏模型展示效果,包括模型部署(如选中模型卡片后的操作、选择 vLLM 部署、涉及竞价系统等)、蒸馏数据获取(在本地 python 环境或 notebook gallery 建立实例执行代码获取蒸馏数据集)等。 DeepSeek:PaaS 平台支持多机分布式部署,满足推理性能要求,能一站式完成模型蒸馏。可登录 Pad 控制台通过 model gallery 进行部署,如 Deepseek R1 模型,可选择 SG 浪或 Vim 推理框架,根据资源出价部署,部署后可在模型在线服务 EAS 查看状态。还介绍了模型 API 调用、服务关停、蒸馏概念、应用场景及部署实操等。
2025-04-13
deepseek v3微调
以下是关于 Deepseek V3 微调的相关信息: 云舒文章总结卡 2.0 提示词全面支持 Deepseek V3,效果媲美 Claude3.7。V3 需要为 0324 更新的版本,DS 官网及 API 已更新,如调用其它平台 API 需要查看 DS 版本号。提示词复制链接:。横版为 1080 x 800 卡片提示词,竖版为 750 x 不限高卡片提示词。 各平台均需下载 html 文件,打开后才能查看真实效果,平台自带预览因兼容性问题无法正常展示效果。Claude 使用平台包括 Claude3.7 官网、API、Cursor,使用时需要下载为 HTML 文件打开查看效果。Deepseek 使用平台包括 Deepseek 官网、API(V3 需要为 0324 更新的版本),Deepseek 需要复制代码到 html 文件里,然后保存进行查看。 关于智能纪要,会带着大家复现模型的蒸馏和微调,并讲解相关知识。用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面。 北京时间 00:30 至 08:30 期间,DeepSeek API 价格大幅下调,DeepSeekV3 降至原价的 50%。
2025-04-12
本地部署大模型,如何微调建立本地知识库
以下是关于本地部署大模型并微调建立本地知识库的详细步骤: 一、使用 AnythingLLM 进行本地知识库搭建 1. 安装 AnythingLLM 安装地址:https://useanything.com/download 安装完成后进入配置页面,主要分为三步: 第一步:选择大模型 第二步:选择文本嵌入模型 第三步:选择向量数据库 2. 构建本地知识库 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型根据训练数据和上传文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 二、张梦飞的全本地部署教程 1. 部署大语言模型 下载并安装 Ollama 点击进入,根据电脑系统,下载 Ollama:https://ollama.com/download 下载完成后,双击打开,点击“Install” 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 下载 qwen2:0.5b 模型 如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入,点击回车。 三、智能纪要中的相关内容 在智能纪要中,许键介绍了模型 API 调用方法与知识库创建,包括获取 API key 位置及调用设置,详细讲解了创建 Rag 应用(知识库)流程,如上传非结构化文件、数据解析、切分段落等操作,并回答了诸多问题。同时还涉及工作流创建、模型能力及相关问题的探讨,以及通义千问相关应用及明天课程安排交流等内容。 总之,本地部署大模型并建立本地知识库需要按照上述步骤进行操作和配置,同时不断实践和探索,以达到理想的效果。
2025-04-10
如何做 deepseek 微调
要进行 DeepSeek 微调,以下是一些相关的知识和步骤: 1. 模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。 2. 本地部署介绍:如果拥有云服务器,可以进行本地部署,了解满血版本地部署的实际情况。 3. 免费额度说明:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 4. 平台服务差异:了解 DLC、DSW 和 EAS 等模型部署平台服务的差别。 5. 对于微调的全过程,建议阅读 Unsloth 笔记本和 HuggingFace 的《如何微调开放式 LLMs》,也可以使用《如何在一小时内阅读论文》作为指南。 6. 更加完善的训练说明,可直接阅读官方论文:DeepSeekAI《DeepSeekR1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948
2025-04-08
怎么本地部署ai模型,并进行微调
以下是本地部署 AI 模型并进行微调的主要步骤: 1. 选择合适的部署方式:包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源:确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础:可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练:根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型:将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护:大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 此外,关于本地部署还有以下相关内容: 如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。 在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。 会带着大家复现模型的蒸馏和微调,并讲解相关知识。 PaaS 平台支持多机分布式部署,满足推理性能要求,使用独占资源和专有网络,能一站式完成模型蒸馏。 登录 Pad 控制台,通过 model gallery 进行部署,如 Deepseek R1 模型,可选择 SG 浪或 Vim 推理框架,根据资源出价,部署后可在模型在线服务 EAS 查看状态。 介绍了模型 API 的调用方法,包括查找位置、获取 token 等,强调使用后要及时停止或删除服务以避免持续付费。 总的来说,部署和训练自己的 AI 模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-03-27
微调大模型的优势与运用的功能场景是什么?微调具体步骤是?
微调大模型具有以下优势和运用的功能场景: 优势: 提高模型在特定任务中的性能:可以输入更多示例,经过微调的模型在特定任务中表现更好,虽然可能会失去一些通用性。 提高模型效率:实现更低的延迟和更低的成本,可通过专门化模型使用更小的模型,且只对输入输出对进行训练,舍弃示例或指令进一步改善延迟和成本。 功能场景:适用于需要在特定领域(如法律、医学等)获得更优表现的情况。 微调大模型的具体步骤如下: 从参数规模的角度,大模型的微调分成两条技术路线:全量微调(FFT)和参数高效微调(PEFT)。全量微调是对全量的模型参数进行全量的训练,PEFT 则只对部分模型参数进行训练。从成本和效果综合考虑,PEFT 是目前业界较流行的微调方案。 微调是在较小的、特定领域的数据集上继续大模型的训练过程,通过调整模型本身的参数来提高性能。 您可以参考 OpenAI 官方微调教程:https://github.com/openai/openaicookbook/blob/main/examples/How_to_finetune_chat_models.ipynb
2025-03-23
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
根据简历,模拟面试的工具
以下是一些根据简历进行模拟面试的工具: 1. Kimi 新出的常用语功能中有“【🎤面试模拟】”,它可以作为私人面试 mock 伙伴,根据简历信息和求职岗位进行模拟面试。 2. 通过让 ChatGPT 接入 Siri 可以模拟前端电话面试。具体操作是首先按照特定文章接入,然后在手机上唤起 ChatGPT 版本的 Siri 并设定身份和对话目的,如让其作为一位来面试的前端高级开发工程师,接着依次提问。 3. ChatGPT 可以更高效地辅助复习面试,您可以把问题给到 ChatGPT 让它帮您生成答案,并展示 demo 和解释,帮助您更好地掌握知识。相关文档在线地址:https://xzfeinterview.gitbook.io/feinterview/readme
2025-04-18
作为一个想要使用AI工具提升工作效率的AI小白,我已经学习了怎么编写prompt,接下来我应该学习什么
如果您已经学习了如何编写 prompt ,接下来可以学习以下内容: 1. 理解 Token 限制:形成“当前消耗了多少 Token”的自然体感,把握有效记忆长度,避免在超过限制时得到失忆的回答。同时,编写 Prompt 时要珍惜 Token ,秉承奥卡姆剃刀原理,精简表达,尤其是在连续多轮对话中。 熟练使用中英文切换,若 Prompt 太长可用英文设定并要求中文输出,节省 Token 用于更多对话。 了解自带方法论的英文短语或句子,如“Chain of thought”。 2. 学习精准控制生成式人工智能:重点学习提示词技术,编写更清晰、精确的指令,引导 AI 工具产生所需结果。 探索构建智能体(AI Agents),将工作单元切割开,赋予其特定角色和任务,协同工作提高效率。 在实际应用中遵循准则,如彻底变“懒人”、能动嘴不动手、能让 AI 做的就不自己动手、构建自己的智能体、根据结果反馈调整智能体、定期审视工作流程看哪些部分可用更多 AI 。 3. 若想进一步提升: 学习搭建专业知识库、构建系统知识体系,用于驱动工作和个人爱好创作。 注重个人能力提升,尤其是学习能力和创造能力。 您还可以结合自身生活或工作场景,想一个能简单自动化的场景,如自动给班级孩子起昵称、排版运营文案、安排减脂餐、列学习计划、设计调研问卷等。选一个好上手的提示词框架开启第一次有效编写,比如从基础的“情境:”开始。
2025-04-15
那些ai工具可以world转pdf
以下是一些可以将 Word 转换为 PDF 的 AI 工具: 1. DeepL(网站):点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件):安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML/TXT 文件」、「翻译本地字幕文件」。 3. Calibre(电子书管理应用):下载并安装 calibre,并安装翻译插件「Ebook Translator」。 4. 谷歌翻译(网页):使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页):点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 6. 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 内容由 AI 大模型生成,请仔细甄别。
2025-04-15
作图的ai工具
以下是一些常见的作图 AI 工具: 绘制软件架构视图(逻辑视图、功能视图、部署视图)的工具: Lucidchart:流行的在线绘图工具,支持多种图表创建,有拖放界面方便创建架构图。 Visual Paradigm:全面的 UML 工具,提供多种架构视图创建功能。 ArchiMate:开源建模语言,与 Archi 工具配合可创建逻辑视图。 Enterprise Architect:强大的建模、设计和生成代码工具,支持多种架构视图创建。 Microsoft Visio:广泛使用的图表和矢量图形应用程序,有丰富模板。 draw.io(diagrams.net):免费在线图表软件,支持多种视图创建。 PlantUML:文本到 UML 转换工具,可通过描述文本生成逻辑视图相关图表。 Gliffy:基于云的绘图工具,支持创建架构图。 Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型。 Rational Rose:IBM 的 UML 工具,支持逻辑视图和部署视图创建。 绘制 CAD 图的工具: CADtools 12:Adobe Illustrator 插件,添加绘图和编辑工具。 Autodesk Fusion 360:集成 AI 功能的云端 3D CAD/CAM 软件。 nTopology:基于 AI 的设计软件,帮助创建复杂 CAD 模型。 ParaMatters CogniCAD:基于 AI 的 CAD 软件,自动生成 3D 模型。 主流 CAD 软件(如 Autodesk 系列、SolidWorks 等)中的生成设计工具。 此外,Controlnet 的作者 lllyasviel(张吕敏)在 Github 上发布了全新的开源 AI 绘画工具 Fooocus,可像 Stable diffusion WebUI 一样部署到本地免费使用,且有类似 midjourney 的便捷操作界面。
2025-04-15
装修设计可以使用哪些AI工具
以下是一些可用于装修设计的 AI 工具: 1. 酷家乐装修设计软件:利用图像生成和机器学习技术,为用户提供装修设计方案,用户可根据喜好选择和调整。 2. CADtools 12:Adobe Illustrator 插件,为 AI 添加 92 个绘图和编辑工具,包括图形绘制、编辑、标注、尺寸标注、转换、创建和实用工具。 3. Autodesk Fusion 360:集成了 AI 功能的云端 3D CAD/CAM 软件,能创建复杂几何形状和优化设计。 4. nTopology:基于 AI 的设计软件,可创建复杂 CAD 模型,包括拓扑优化、几何复杂度和轻量化设计等。 5. ParaMatters CogniCAD:基于 AI 的 CAD 软件,能根据用户输入的设计目标和约束条件自动生成 3D 模型,适用于拓扑优化、结构设计和材料分布等领域。 6. 生成设计工具:一些主流 CAD 软件,如 Autodesk 系列、SolidWorks 等,提供基于 AI 的生成设计工具,可根据输入自动产生多种设计方案。 7. HDAidMaster:云端工具,在建筑、室内和景观设计领域表现出色,搭载自主训练的建筑大模型 ArchiMaster。 8. Maket.ai:面向住宅行业,在户型和室内软装设计方面有探索,能根据输入自动生成户型图。 9. ARCHITEChTURES:AI 驱动的三维建筑设计软件,在住宅设计早期引入标准和规范约束生成的设计结果。 10. Fast AI 人工智能审图平台:形成全自动智能审图流程,将建筑全寿命周期内信息集成,实现数据汇总与管理。 但每个工具都有特定应用场景和功能,建议根据具体需求选择合适的工具。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
runway属于什么ai能力类型
Runway 是一家总部位于旧金山的 AI 创业公司推出的产品。 在 AI 能力类型方面: 年初爆火,其 Gen2 代表了当前 AI 视频领域最前沿的模型,能够通过文字、图片等方式生成 4 秒左右的视频。 内测能力可根据参考图像进行 Video to Video 视频风格化。 致力于专业视频剪辑领域的 AI 体验,同时也在扩展图片 AI 领域的能力。 11 月 25 日发布新图像生成模型 Frames,专注打造特定美学和视觉氛围,支持细粒度控制“外观、感觉和氛围”,强调“世界构建”,可设计完整的视觉世界,包括场景、氛围、情感等,提供全面的视觉叙事支持。 目前 Runway 支持在网页、iOS 访问,网页端目前支持 125 积分的免费试用额度(可生成约 105 秒视频),iOS 则有 200 多,两端额度貌似并不同步。官方网站:https://runwayml.com/
2025-04-15
runway的能力类型,核心功能
Runway 的能力类型和核心功能包括以下方面: 在 Gen2 模型上推出了较多细节控制能力,并且支持精细数值调节,是当下 AI 视频生成产品中可控性最强的产品。 多笔刷控制局部运动:支持最多 5 个笔刷控制,包括物体运动方向、运动曲线调节。调高 Ambient,笔刷绘制区域物体的运动将和周边环境产生更多关联,并加大运动幅度。 相机控制:支持水平/垂直平移,水平/垂直翻转,镜头缩放/旋转。 Lip Sync Video:支持文本转 TTS 音频、音频文件换音,还有上半年大火的 Lip sync video 对口型能力。 不论是工具栏中不断丰富的音频、视频处理能力,还是 Runway Watch 栏目中的优秀合作案例,都能看出 Runway 一直坚定得在影视制作方向发展。未来若能打通 AI 生成和视频剪辑能力,Runway 未来将对影视制作起到至关重要的作用,成为视频领域必不可少的重要工具。
2025-04-15
你都有什么能力呢?
我作为 AI 知识专家,具备以下能力: 1. 作为提示词专家,能将常规的提示词转化为结构化的提示词,并输出符合预期的回复。了解 LLM 的技术原理和局限性,具有丰富的自然语言处理经验,具备迭代优化能力。 2. 能为您介绍小白参与活动的流程和组队所需的人员类型,如脚本编写、出图、出视频、配音乐、剪辑、统筹等。 3. 为您讲解扣子提供的基础功能,包括提示词(设定 Bot 身份及回复逻辑)、插件(通过 API 连接集成平台和服务)、工作流(规划和实现复杂功能逻辑)、记忆库(保留和理解对话细节,添加外部知识库),并为您提供相关参考链接。
2025-04-14
2025年人工智能大模型的技术提升有哪些,是参数?推理能力?还是语料
2025 年人工智能大模型的技术提升可能体现在以下几个方面: 1. 视频生成能力:如 2024 年推出的多个先进的 AI 模型能够从文本输入生成高质量视频,相比 2023 年有显著进步。 2. 模型规模与性能:更小的模型能驱动更强的性能,如 2022 年最小能在 MMLU 上得分高于 60%的模型是具有 5400 亿参数的 PaLM,到 2024 年,参数仅 38 亿的微软 Phi3mini 也能达到相同阈值。 3. 推理能力:尽管加入了如思维链推理等机制显著提升了大语言模型的性能,但在一些需要逻辑推理的问题上,如算术和规划,尤其在超出训练范围的实例上,这些系统仍存在问题。 4. AI 代理:在短时间预算设置下,顶级 AI 系统得分高于人类专家,但随着时间预算增加,人类表现会超过 AI。 5. 算法变革:如 DeepSeek 的出现标志着算力效率拐点显现,其通过优化算法架构显著提升了算力利用效率,同时 2025 年发布的大模型呈现低参数量特征,为本地化部署到 AI 终端运行提供了可能,其训练过程聚焦于强化学习,提升了模型的推理能力。
2025-04-14
应用到律师软件的AI能力
以下是应用到律师软件的 AI 能力相关内容: 律师在工作中的优势包括: 1. 在沟通和谈判中能够与客户方、相对方、其他机构建立信任、表达观点、促成交易等。 2. 能够针对新兴行业或监管空白提出合规建议,如为新技术制定合法性指导。 3. 作为专业人士,在紧急情况下能做出专业判断,提供及时的法律建议和解决方案。 律师不擅长的方面有: 1. 处理大量信息和数据,在需要处理大量文本和数据的情况下,人工效率非常有限,如大量文件调查中的数据提取和整理。 2. 处理细节,可能难以记住各类案件中的所有事实和细节,尤其是在复杂案件中。 3. 精力与情绪,在处理复杂案件时,可能会面临情绪、精力、时间等带来的压力,从而影响专业判断。 基于以上,律师和 AI 的协同并非简单相加,而是一种借助互相优势、相互加持的关系。律师在运用大模型这一强大工具时,最关键的任务是根据不同的法律业务场景,精准地提出问题、指令(Prompt),以引导 AI 发挥其最大的效用。 在处理信息检索与整理任务时,律师可以指导 AI 精确抓取相关法律法规、先例判决等关键信息,能够迅速获得案件准备所需的素材,花更多的时间进行法律分析。当需要自动化处理文档时,律师可以指导 AI 生成和修改标准化合同。 在法律领域,生成式 AI 具有文本总结方面的能力。通过使用大模型,律师可以快速总结法律研究报告、实务文章、法学论文以及法律法规,帮助他们更高效地获取核心内容和深度见解。 对于如何认识 AI,作为不具备理工科背景的文科生,可以把 AI 当成一个黑箱,只需要知道它是某种模仿人类思维可以理解自然语言并输出自然语言的东西。驱动 AI 工具和传统道教的驱神役鬼拘灵遣将有奇妙的相似之处,都是通过特定的文字、仪轨程式来引用已有资源,驱使某种可以一定方式/程度理解人类文字的异类达成自己预设的效果,且皆需要面对工具可能突破界限(发疯)的情况。当想让 AI 实现愿望时,基于它的“非人”一面,需要尽可能通过语言文字(足够清晰的指令)压缩它的自由度,不仅要清晰告诉它需要干什么、边界在哪里、目标是什么、实现路径方法是哪一条,最好还直接给到它所需的正确的知识。
2025-04-10