Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

长短期记忆

Answer

长短期记忆(LSTM)是一种用于解决循环神经网络(RNN)难以处理长序列中长程依赖问题的方法。

Hochreiter 和 Schmidhuber(1997)构建了长短期记忆网络。LSTM 单元使用具有自连接的线性单元,其恒定权重为 1.0,这使得流入该自循环单元的值或梯度可以无限期地保留,以便在需要时准确检索,从而为处理长序列提供了强大的能力,例如对于文本数据,LSTM 单元可以存储前一段中包含的信息并将其应用于当前段落中的句子。

此外,深度网络中常见的“梯度消失”问题在 LSTM 中得到解决。借助 LSTM 中的存储单元,拥有连续的梯度流,能够从数百个时间步长的序列中进行学习。

有时需要丢弃存储单元中的信息,LSTM 单元有一个遗忘门,通过将 0(删除)和 1(保留所有内容)之间的数字乘以存储单元的值来删除自循环单元中的信息,而不将信息释放到网络中。同时,为了保护存储单元中的数据,LSTM 还添加了输入门或写入门,该门可以关闭,以便没有新信息流入存储单元。

在训练长序列的 RNN 中,梯度很容易爆炸或消失,而 LSTM 有效地解决了这一问题。基本上有 4 种有效的方法来学习 RNN,长短期记忆是其中之一,另外还有 Hessian Free 优化、回声状态网络、利用动量进行良好的初始化。

Content generated by AI large model, please carefully verify (powered by aily)

References

入门 | 机器学习研究者必知的八个神经网络架构

然而,RNN的计算能力使它们很难训练。由于梯度爆发和梯度消失,训练一个RNN是相当困难的。当我们进行多层反向传播时,梯度的大小会发生什么变化?如果权重很小,则梯度将指数缩小。如果权重很大,梯度将成指数增长。典型的前馈神经网络可以应付这些指数效应,因为它们只有很少的隐藏层。然而,在训练长序列的RNN中,梯度很容易爆炸或消失。即使初始权重选的很好,也很难检测到依赖于多个时间步长前的输入的当前目标输出,所以RNN难以处理序列中的长程依赖。基本上有4种有效的方法来学习RNN:长短期记忆:将RNN用于长期记忆值的小模块。Hessian Free优化:通过使用酷炫的优化器来处理梯度消失问题,该优化器可以检测具有更小曲率的微小梯度。回声状态网络:通过谨慎地初始化层之间的连接(输入->隐层、隐层->隐层、输出->隐层),确保隐藏状态有巨大的弱耦合震荡存储,可以通过输入选择性地驱动这些振荡器。利用动量进行良好的初始化:像回声状态网络一样进行初始化,然后使用动量学习所有连接。4.长短期记忆网络Hochreiter和Schmidhuber(1997)通过构建长短期记忆网络,解决了获取RNN长时间记忆(如数以百计的时间步长)的问题。他们使用具有乘法相互作用的逻辑和线性单元来设计存储器单元。每当「写入」门打开时,信息就会进入单元。当「保持」门打开,信息将在单元中保持。信息可以通过打开「读取」门而从单元中读取。

深度学习(3)序列学习

长短期记忆(LSTM)单元使用具有自连接的线性单元,其恒定权重为1.0。这使得流入该自循环单元的值(前向传递)或梯度(后向传递)可以无限期地保留(输入或误差乘以1.0仍然具有相同的值;因此,前一个时间步的输出或误差与下一个时间步的输出相同),以便在最需要的时间可以准确地检索该值或梯度。这种自我循环单元,即存储单元,提供了一种可以存储过去数十个时间步长的信息的存储器。这对于许多任务来说非常强大,例如对于文本数据,LSTM单元可以存储前一段中包含的信息并将该信息应用于当前段落中的句子。此外,深度网络中的一个常见问题是“梯度消失”问题,即梯度逐层变得越来越小,直至太小而无法影响最深层。借助LSTM中的存储单元,我们拥有连续的梯度流(误差保持其值),从而消除了梯度消失问题,并能够从数百个时间步长的序列中进行学习。然而,有时我们想丢弃存储单元中的信息,替换成更新的、更相关的信息。同时,我们不想通过向网络释放不必要的信息来混淆网络的其他部分。为了解决这个问题,LSTM单元有一个遗忘门,它会删除自循环单元中的信息,而不将信息释放到网络中(见图1)。这样,我们就可以丢弃不造成混乱的信息,并为新的记忆腾出空间。遗忘门通过将0(删除)和1(保留所有内容)之间的数字乘以存储单元的值来实现此目的。(存储单元)确切的值由当前输入和前一个时间步长的LSTM单元输出所决定。在其他时候,存储单元包含需要在许多时间步长内保持完整的a。为此,LSTM添加了另一个门,即输入门或写入门,该门可以关闭,以便没有新信息流入存储单元(参见图1)。这样,存储单元中的数据就可以得到保护,直到需要为止。

问:什么是智能体 Agent

"智能体"(Agent)在人工智能和计算机科学领域是一个非常重要的概念。它指的是一种能够感知环境并采取行动以实现特定目标的实体。智能体可以是软件程序,也可以是硬件设备。以下是对智能体的详细介绍:[heading3]智能体的定义[content]智能体是一种自主系统,它可以通过感知环境(通常通过传感器)并采取行动(通常通过执行器)来达到某种目标。在LLM支持的自主Agent系统中,LLM充当Agents的大脑,并辅以几个关键组成部分:规划子目标和分解:Agents将大型任务分解为更小的、可管理的子目标,从而能够有效处理复杂的任务。反思和完善:Agents可以对过去的行为进行自我批评和自我反思,从错误中吸取教训,并针对未来的步骤进行完善,从而提高最终结果的质量。记忆短期记忆:所有的上下文学习都是利用模型的短期记忆来学习。长期记忆:这为Agents提供了长时间保留和回忆(无限)信息的能力,通常是通过利用外部向量存储和快速检索来实现。工具使用Agents学习调用外部API来获取模型权重中缺失的额外信息(通常在预训练后很难更改),包括当前信息、代码执行能力、对专有信息源的访问等。

Others are asking
Monica和Openai的记忆功能是如何让大模型产生记忆的?是什么原理?
大模型的记忆功能实现方式较为复杂,不同的模型可能有所不同。 OpenAI 的模型中,大模型 LLM 扮演了“大脑”的角色,其记忆功能可能通过“Agent = LLM + 规划 + 记忆 + 工具使用”的基础架构来实现。但需要注意的是,对于 ChatGPT 这类模型,实际上其本质上并没有直接的记忆功能。它能理解之前的交流内容,是因为每次将之前的对话内容作为新的输入重新提供给模型。这种记忆功能并非由大型模型直接实现,而是通过在别处进行存储来达成。 如果对话内容过长,可能会影响模型的整体性能。解决这个问题的一个简单方法是启动另一个对话框。对于之前的数据,通常只能进行总结。
2025-03-01
ai语言模型记忆能力与什么相关,可以拥有人类相当的记忆吗
AI 语言模型的记忆能力主要与以下因素相关: 1. 长期记忆:主要有长文本(持久化)、总结、RAG 等实现方式。长文本处理中的 KV Cache 可通过缓存历史计算的 Key(K)和 Value(V)减少冗余计算,但需额外存储空间,可能导致显存占用增加,未来结合持久化 KV Cache、KV Cache 的压缩技术有望控制成本,从而打造出记忆力超越人类的智能体。 2. 短期记忆:主要存在于模型的上下文中,由对话内容(用户输入、模型输出)和系统提示词组成。 Inworld AI 开发的角色引擎,增加了可配置的安全性、知识、记忆、叙事控制、多模态等功能,其中长期记忆方面,角色能以类似人类的记忆功能操作,从闪存和长期记忆中检索信息。 人类的思维是由自然语言或感官记忆构成的超高维时间序列,而人工智能与人类不同,人类会为事物赋予意义与价值,人工智能则更追求“更准”。强化学习是人工智能的一个重要分支,通过定义状态、动作与奖励等元素,让 AI 求解如何选择动作以获得最大的期望奖励总和。
2025-01-20
词根词缀记忆法哪个背单词app有?
以下是一款具有词根词缀记忆法的背单词 app 推荐:AI 雅思单词书。 这款 app 具有以下特点: 1. 走“质”路线:不以覆盖全部考纲单词为首要目的,而是将扩充词汇量、抓住单词用法置于首位。在呈现词意的同时,展示单词的近义辨析、常用搭配以及范文例句,强化记忆曲线,让使用者真正掌握单词用法,而非单纯记忆中英文含义。 2. 以词块为最小记忆单位:不将英语拆散成单个简单单词,而是以“词块”“语块”形式呈现,避免中式思维翻译和滥用词汇,深度扩充对单词使用的认知,助力在口语和写作中的实际应用提升。 3. 派生词助力一词多记:注重单词的发散联想和近义词辨析,注重延伸词的实用性。通过对某一单词的派生词联想,借助添加或删减不同的词根词缀,实现多个相关词意单词的集中记忆。 4. 巧记法:将趣味与知识性相结合。
2025-01-07
长期记忆设计
关于长期记忆设计,主要包括基础设定和人物背景两方面。 基础设定方面,设计了一些初始属性,如人物生日和星座、MTBI 性格分型(ENFJ)、出生地、职业、聊天习惯等。 人物背景方面,使用 AI 自动扩写了大约 100 条,涵盖了三观、爱好、日常习惯、教育经历、家庭背景、工作经历、恋爱经历等内容。
2024-12-29
现在哪些ai具有记忆功能
以下是一些具有记忆功能的 AI: 1. MemGPT:通过特定指令访问外部存储系统来保存和回调信息,极大地扩展了模型的记忆能力,并增强了其上下文理解能力。 2. ChatGPT 最新版本:可以将对话中的重点内容记录在一个名为“bio”的小本子上,这种内置记忆机制使得它能够在后续对话中利用之前的交流内容来提供更加个性化和相关性更强的回答。 3. OpenAI 的 GPT4:直接用 prompt 调用 bio 这个工具记录需要记忆的内容,每次新的对话开始时,在 prompt 的最后直接加上所有之前的记录的内容。 延伸阅读:MemGPT:Towards LLMs as Operating Systems
2024-12-17
有没有什么辅助初中生学习整理知识点,并能记录错误,反复记忆的AI
目前市面上有一些可以辅助初中生学习整理知识点,并能记录错误、反复记忆的 AI 工具。例如一些智能学习类的 APP,它们可以根据学生的学习情况和错题记录,生成个性化的学习计划和复习资料。但具体的选择还需要根据学生的学科需求、学习习惯等因素来决定。
2024-12-07