Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

神经网络和深度学习简史

Answer

神经网络和深度学习有着丰富的发展历史:

  1. 1958 年感知机神经网络诞生。
  2. 70 年代经历了人工智能寒冬。
  3. 1986 年 BP 算法让神经网络再度流行。
  4. 尽管取得了一些成功,但在人工智能寒冬期间,用于神经网络研究的资金很少,人工智能一词近乎成为伪科学的代名词。
  5. 1997 年,Hochreiter 和 Schmidhuber 为递归神经网络开发了长短期记忆(LSTM),但在当时被忽视。
  6. 随着计算机变得更快和图形处理单元(GPU)的引入,神经网络逐渐与支持向量机相竞争。
  7. 训练大型、深层网络存在梯度消失问题,解决方法包括逐层预训练,如 Schmidhuber 于 1992 年为递归神经网络开发的预训练方法,以及 Hinton 和 Salakhutdinov 于 2006 年为前馈网络开发的预训练方法。1997 年提出的长短期记忆(LSTM)也是解决递归神经网络中梯度消失问题的方案之一。
Content generated by AI large model, please carefully verify (powered by aily)

References

深度|神经网络和深度学习简史(第一部分):从感知机到BP算法

整个研究领域的成熟方法已经迅速被新发现超越,这句话听起来有些夸大其词,就像是说它被「海啸」袭击了一样。但是,这种灾难性的形容的确可以用来描述深度学习在过去几年中的异军突起——显著改善人们对解决人工智能最难问题方法的驾驭能力,吸引工业巨人(比如谷歌等)的大量投资,研究论文的指数式增长(以及机器学习的研究生生源上升)。在听了数节机器学习课堂,甚至在本科研究中使用它以后,我不禁好奇:这个新的「深度学习」会不会是一个幻想,抑或上世纪80年代已经研发出来的「人工智能神经网络」扩大版?让我告诉你,说来话长——这不仅仅是一个有关神经网络的故事,也不仅仅是一个有关一系列研究突破的故事,这些突破让深度学习变得比「大型神经网络」更加有趣,而是一个有关几位不放弃的研究员如何熬过黑暗数十年,直至拯救神经网络,实现深度学习梦想的故事。

深度|神经网络和深度学习简史(第一部分):从感知机到BP算法

[title]深度|神经网络和深度学习简史(第一部分):从感知机到BP算法[heading1]人工智能冬天的复苏文章特别谈到了Minsky在《感知机》中讨论过的问题。尽管这是过去学者的构想,但是,正是这个1986年提出的构想让人们广泛理解了应该如何训练多层神经网络解决复杂学习问题。而且神经网络也因此回来了!第二部分,我们将会看到几年后,《Learning internal representations by error propagation》探讨过的BP算法和其他一些技巧如何被用来解决一个非常重要的问题:让计算机识别人类书写。(待续)参考文献Christopher D.Manning.(2015).Computational Linguistics and Deep Learning Computational Linguistics,41(4),701–707.↩F.Rosenblatt.The perceptron,a perceiving and recognizing automaton Project Para.Cornell Aeronautical Laboratory,1957.↩W.S.McCulloch and W.Pitts.A logical calculus of the ideas immanent in nervous activity.The bulletin of mathematical biophysics,5(4):115–133,1943.↩The organization of behavior:A neuropsychological theory.D.O.Hebb.John Wiley And Sons,Inc.,New York,1949 ↩B.Widrow et al.Adaptive ”Adaline” neuron using chemical ”memistors”.Number Technical Report 1553-2.Stanford Electron.Labs.,Stanford,CA,October 1960.↩“New Navy Device Learns By Doing”,New York Times,July 8,1958.↩Perceptrons.An Introduction to Computational Geometry.MARVIN MINSKY and SEYMOUR PAPERT.M.I.T.Press,Cambridge,Mass.,1969.↩Linnainmaa,S.(1970).The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors.Master’s thesis,Univ.Helsinki.↩

深度学习(2)历史和训练

[title]深度学习(2)历史和训练[heading1]历史[heading2]深度学习的简史尽管取得了这些成功,但用于神经网络研究的资金仍然很少。[在人工智能寒冬](https://developer.nvidia.com/blog/deep-learning-nutshell-history-training/#ai-winter)期间,人工智能一词近乎成为伪科学的代名词,该领域仍需一段时间才能恢复。这一时期取得了一些重要的进展,例如,Hochreiter和Schmidhuber在1997年为递归神经网络开发的长短期记忆(LSTM),但是这些进展在Cortes和Vapnik于1995年开发的支持向量机(VCM)面前相形见绌,因此大多数被人们所忽视。下一个重大转变的契机出现在静待计算机变得更快,和接下来引入的图形处理单元(GPU)。仅等待更快的计算机和GPU就可以在10年内将计算速度提高1000倍。在这期间,神经网络逐渐开始与支持向量机相竞争。与支持向量机相比,神经网络可能会慢一些,但是在相同数量的数据下可以获得更好的结果。与简单算法不同,神经网络在有更多训练数据时会持续改进。此时的主要障碍是训练大型、深层的网络,这些网络因遭受梯度消失问题,无法学习早期层的特征,因为没有学习信号到达这些层。解决这个问题的第一个方法是逐层预训练,即通过使用无监督学习以逐层方式构建模型,以便早期层中的特征已经用一些合适的特征进行初始化或“预训练”(权重)。早期层中的预训练特征只需要在监督学习期间略微调整即可获得良好的结果。第一个预训练方法是由Schmidhuber于1992年为递归神经网络开发的,另一个预训练方法是由Hinton和Salakhutdinov于2006年为前馈网络开发的。另一个解决递归神经网络中梯度消失问题的解决方案是于1997年提出的长短期记忆(LSTM)。

Others are asking
神经网络需要哪些硬件设施才能搭建起来
搭建神经网络通常需要以下硬件设施: 1. 图形处理单元(GPU):如英伟达的 GTX 580 GPU,其具有大量快速小内核,适合矩阵乘法和高内存带宽,能显著提高训练速度。 2. 专用芯片:如 ASIC 芯片、neuromorphic chips 等,更易于在芯片上实现神经网络的指令集,适用于低能耗的智能设备。 此外,搭建神经网络的硬件设施还具有以下特点和优势: 1. 同质化计算:典型的神经网络主要由矩阵乘法和线性整流函数(ReLu)两种操作组合而成,相比传统软件的指令更简单,核心代码(如矩阵乘法)的正确性和性能验证更容易。 2. 对芯片更友好:指令集小,在芯片实现上更轻松,能改变低能耗智能设备的应用场景。 3. 常量级的运行时间:每次前向迭代的计算量高度一致,不存在手写复杂 C++代码中的各种执行分支,能避免未预料的无限循环。 4. 常量级的内存消耗:几乎无需动态分配内存,减少与硬盘的 swap 和内存泄漏的可能。 5. 高度可移植:一连串的矩阵乘法操作更容易在各种计算机环境下运行。
2025-03-23
结合北京房山区文化、地标建筑、生态景观等内容,设计房山区中小学数学节 LOGO,要求巧妙融合数学元素(如几何图形、数学公式、数学符号等)与 AI 元素(如神经网络图案、代码片段、智能机器人形象等),生动诠释 “数学 + AI=?” 的主题内涵。
以下是为您整合的相关内容: 北京具有丰富多样的特色元素,包括经典地标如万里长城、天安门广场、故宫角楼、天坛等,见证了历史变迁;宜居生活方面,有独特的美食如豆汁儿、脆皮烤鸭、老北京炸酱面,以及充满京腔的日常生活;潮流文化新地标如国家博物馆、胡同里的新老交融、环球影城、798 等;未来科技方面,有西二旗的上班族日常、北大化学系科研 vlog、世界机器人大会等。 在海报设计方面,若对 AI 回答有疑问可再搜索确认,对于想用的项目要确认与北京的关系及能否使用;兔爷、戏曲金句等北京有名元素可用,金句可分化。做海报时可借鉴三思老师毛绒玩具美食系列,先找参考、做头脑风暴。比赛征集内容有四个赛道,若做系列海报,围绕金句或偏向北京非遗项目做系列较简单。用 AI 制作海报时,如制作北京地标糖葫芦风格海报,可用集梦 2.1 模型,以天坛等建筑为画面中心,注意材质、抽卡选图和细节处理。 对于设计房山区中小学数学节 LOGO,您可以考虑将房山区的特色文化、地标建筑、生态景观与数学元素(如几何图形、数学公式、数学符号等)和 AI 元素(如神经网络图案、代码片段、智能机器人形象等)相结合。例如,以房山区的著名建筑为主体,融入数学图形进行变形设计,同时添加一些代表 AI 的线条或图案,以生动诠释“数学 + AI=?”的主题内涵。
2025-03-18
卷积神经网络
卷积神经网络,也称卷积网络(术语“神经”具有误导性),使用卷积层来过滤输入以获取有用信息。卷积层具有学习的参数,能自动调整滤波器以提取对应任务的最有用信息,例如在一般目标识别中过滤对象形状信息,在鸟类识别中提取颜色信息。通常多个卷积层用于在每一层之后过滤图像以获得越来越多的抽象信息。 卷积网络通常也使用池层,以获得有限的平移和旋转不变性,还能减少内存消耗,从而允许使用更多的卷积层。 最近的卷积网络使用初始模块,它使用 1×1 卷积核来进一步减少内存消耗,同时加快计算速度。 1998 年,Yann LeCun 和他的合作者开发了 LeNet 的手写数字识别器,后来正式命名为卷积神经网络。它在前馈网中使用反向传播,被用于读取北美地区约 10%的支票。卷积神经网络可用于从手写数字到 3D 物体的与物体识别有关的所有工作。 在 ImageNet 2012 年的 ILSVRC 竞赛中,来自多个机构的先进计算机视觉小组将已有的最好计算机视觉方法应用于包含约 120 万张高分辨率训练图像的数据集。
2025-03-02
SVM与神经网络的区别是啥
SVM(支持向量机)和神经网络在以下方面存在区别: 1. 原理和模型结构: SVM 基于寻找能够最大化分类间隔的超平面来进行分类或回归任务。 神经网络则是通过构建多层神经元组成的网络结构,通过神经元之间的连接权重和激活函数来学习数据的特征和模式。 2. 数据处理能力: SVM 在处理小样本、高维度数据时表现较好。 神经网络通常更适合处理大规模数据。 3. 模型复杂度: SVM 相对较简单,参数较少。 神经网络结构复杂,参数众多。 4. 对特征工程的依赖: SVM 对特征工程的依赖程度较高。 神经网络能够自动从数据中学习特征。 5. 应用场景: 在图像识别、语音识别、机器翻译等领域,神经网络占据主导地位。 SVM 在一些特定的小数据集或特定问题上仍有应用。
2025-02-26
SVM与前馈神经网络的区别是什么
SVM(支持向量机)和前馈神经网络在以下方面存在区别: 数据处理方式:SVM 主要基于特征工程,而前馈神经网络可以自动从大量数据中学习特征。 模型结构:SVM 是一种线性分类器的扩展,具有相对简单的结构;前馈神经网络具有更复杂的多层结构。 应用场景:在图像识别、语音识别、语音合成、机器翻译等领域,早期常使用 SVM 结合特征工程,而现在神经网络逐渐占据主导地位。例如,图像识别中,早期由特征工程和少量机器学习(如 SVM)组成,后来通过使用更大数据集和在卷积神经网络结构空间中搜索,发现了更强大的视觉特征;语音识别中,以前涉及大量预处理和传统模型,现在几乎只需要神经网络;语音合成中,历史上采用各种拼接技术,现在 SOTA 类型的大型卷积网络可直接产生原始音频信号输出;机器翻译中,之前常采用基于短语的统计方法,而神经网络正迅速占领统治地位。
2025-02-26
前馈神经网络、循环网络、对称连接网络区别是什么,当前大语言模型属于前面说的哪种网络架构,为什么这种网络架构流行
前馈神经网络、循环网络和对称连接网络的区别如下: 1. 前馈神经网络:这是实际应用中最常见的神经网络类型。第一层是输入,最后一层是输出。若有多个隐藏层,则称为“深度”神经网络。各层神经元的活动是前一层活动的非线性函数,通过一系列变换改变样本相似性。 2. 循环网络:在连接图中存在定向循环,意味着可以按箭头回到起始点。它们具有复杂的动态,训练难度较大,但更具生物真实性。目前如何高效地训练循环网络正受到广泛关注,它是模拟连续数据的自然方式,相当于每个时间片段具有一个隐藏层的深度网络,且在每个时间片段使用相同权重和输入,能长时间记住隐藏状态信息,但难以训练其发挥潜能。 3. 对称连接网络:有点像循环网络,但单元之间的连接是对称的(在两个方向上权重相同)。比起循环网络,对称连接网络更易分析。没有隐藏单元的对称连接网络被称为“Hopfield 网络”,有隐藏单元的则称为玻尔兹曼机。 当前的大语言模型通常基于 Transformer 架构,它属于前馈神经网络的一种变体。这种架构流行的原因包括:能够处理长序列数据、并行计算效率高、具有强大的特征提取和表示能力等。
2025-02-25
人工智能简史
人工智能作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但因方法无法大规模拓展应用场景,且从专家提取知识并以计算机可读形式表现及保持知识库准确的任务复杂、成本高,导致 20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源变便宜,数据增多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能。过去十年中,“人工智能”常被视为“神经网络”的同义词,因多数成功案例基于神经网络方法。 以下是人工智能发展历程中的一些重要节点: 1969 年:经历低潮。Marvin Minsky 和 Seymour Papert 阐述因硬件限制,几层的神经网络仅能执行基本计算,AI 领域迎来第一次泡沫破灭。 1960 1970 年代:早期专家系统。此时期 AI 研究集中在符号主义,以逻辑推理为中心,主要是基于规则的系统,如早期专家系统。 1980 年代:神经网络。基于规则的系统弊端显现,人工智能研究关注机器学习,神经网络根据人脑结构和操作创建和建模。 1997 年:深蓝赢得国际象棋比赛。IBM 深蓝战胜国际象棋冠军卡斯帕罗夫,新的基于概率推论思路广泛应用于 AI 领域。 1990 2000 年代:机器学习。AI 研究在机器人技术、计算机视觉和自然语言处理等领域取得显著进展,21 世纪初深度学习出现使语音识别、图像识别和自然语言处理进步成为可能。 2012 年:深度学习兴起。Geoffrey Hinton 开创相关领域,发表开创性论文引入反向传播概念,突破感知器局限。 2012 年:AlexNet 赢得 ImageNet 挑战赛。引发深度学习热潮。 2016 年:AlphaGo 战胜围棋世界冠军。DeepMind 的 AlphaGo 战胜李世石,标志着人工智能在围棋领域超越人类,对人类理解产生深远影响。
2025-04-10
人工智能简史
人工智能作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但因从专家提取知识并以计算机可读形式表现及保持知识库准确的复杂性和高成本,20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源更便宜,数据更多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能,过去十年中“人工智能”常被视为“神经网络”的同义词。 在国际象棋对弈程序方面,早期以搜索为基础,发展出阿尔法贝塔剪枝搜索算法,后来采用基于案例的推理,而现代能战胜人类棋手的程序基于神经网络和强化学习。 在创建“会说话的程序”方面,早期如 Eliza 基于简单语法规则,现代助手如 Cortana、Siri 或谷歌助手是混合系统,未来有望出现完整基于神经网络的模型处理对话,如 GPT 和 TuringNLG 系列神经网络已取得巨大成功。 最初查尔斯·巴贝奇发明计算机用于按明确程序运算,现代计算机仍遵循相同理念。但有些任务如根据照片判断人的年龄无法明确编程,这正是人工智能感兴趣的。 译者:Miranda,原文见 https://microsoft.github.io/AIForBeginners/lessons/1Intro/README.md 。
2025-03-10
人工智能简史
人工智能作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但因从专家提取知识并以计算机可读形式表现及保持知识库准确的复杂性和高成本,20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源便宜、数据增多,神经网络方法在计算机视觉、语音理解等领域展现卓越性能,过去十年中“人工智能”常被视为“神经网络”的同义词。 在国际象棋对弈程序方面,早期以搜索为基础,发展出阿尔法贝塔剪枝搜索算法,后来采用基于案例的推理,如今能战胜人类棋手的程序基于神经网络和强化学习。 在创建“会说话的程序”方面,早期如 Eliza 基于简单语法规则,现代助手如 Cortana、Siri 或谷歌助手是混合系统,未来有望出现完整基于神经网络的模型处理对话,如 GPT 和 TuringNLG 系列神经网络已取得巨大成功。 最初,查尔斯·巴贝奇发明计算机用于按明确程序运算,现代计算机仍遵循相同理念。但有些任务如根据照片判断人的年龄无法明确编程,这正是人工智能感兴趣的。 译者:Miranda,原文见 https://microsoft.github.io/AIForBeginners/lessons/1Intro/README.md
2025-02-17
人工智能简史
人工智能作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但因方法无法大规模拓展应用场景,且从专家提取知识并保持知识库准确成本高,20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源便宜、数据增多,神经网络方法在计算机视觉、语音理解等领域展现卓越性能,过去十年中“人工智能”常被视为“神经网络”同义词。 以国际象棋计算机对弈程序为例,早期以搜索为基础,发展出阿尔法贝塔剪枝搜索算法,搜索策略在对局结束时效果好,开始时因搜索空间大需学习人类对局改进算法,后续采用基于案例的推理,现代能战胜人类棋手的程序基于神经网络和强化学习。 创建“会说话的程序”方法也在变化,早期如 Eliza 基于简单语法规则,现代助手如 Cortana、Siri 或谷歌助手是混合系统,使用神经网络转换语音、识别意图,未来有望出现完整基于神经网络的独立处理对话模型,如 GPT 和 TuringNLG 系列神经网络已取得巨大成功。 最初查尔斯·巴贝奇发明计算机用于按明确程序运算,现代计算机仍遵循相同理念。但有些任务如根据照片判断年龄无法明确编程,因不知大脑完成任务的具体步骤,这类任务是人工智能感兴趣的。 译者:Miranda,原文见 https://microsoft.github.io/AIForBeginners/lessons/1Intro/README.md 。 您还可以思考如果人工智能得以实现,哪些任务可以交给计算机完成,比如金融、医学和艺术领域如今如何从人工智能中受益。
2025-01-06
描述下人工智能简史
人工智能作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但因从专家提取知识并以计算机可读形式表现的任务复杂且成本高,无法大规模拓展应用场景,导致 20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源更便宜,数据更多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能,过去十年中“人工智能”常被视为“神经网络”的同义词,多数成功案例基于神经网络。 在创建国际象棋计算机对弈程序方面,早期如 Eliza 基于简单语法规则,将输入句子重述为问题;现代助手如 Cortana、Siri 或谷歌助手是混合系统,用神经网络转换语音并识别意图,再执行操作。未来有望出现完整基于神经网络的独立处理对话模型,如最近的 GPT 和 TuringNLG 系列神经网络已取得巨大成功。 早期国际象棋对弈程序以搜索为基础,发展出阿尔法贝塔剪枝搜索算法,搜索策略在对局结束时效果好,开始时因搜索空间大需改进,随后采用基于案例的推理,在知识库中找相似案例决定棋步。能战胜人类棋手的现代对弈程序基于神经网络和强化学习,通过与自己对弈从错误中学习,学习速度比人类快。
2024-08-22
如果面试AI产品经理岗位,我的简历应该如何介绍对应的AI项目?目前我在做的是一个AI深度解读的功能,用户通过报告页面进行深度解读,进入后触发AI与用户的沟通,根据沟通信息,将用户的一些情况写在病历信息中,最终发给医生
以下是为您提供的一些参考,帮助您在面试 AI 产品经理岗位时介绍对应的 AI 项目: 在您所做的 AI 深度解读功能项目中,可以从以下几个方面进行介绍: 项目背景:阐述开展该项目的原因和目标,例如为了提升医疗服务的效率和准确性,满足用户对深度医疗解读的需求等。 项目职责:详细说明您在项目中的具体职责,如需求分析、产品规划、与开发团队协作、与用户沟通获取反馈等。 技术实现:描述项目中所运用的关键技术,如触发 AI 与用户沟通的机制、如何将用户信息写入病历等。 用户体验优化:提及为提升用户体验所采取的措施,比如优化报告页面的设计、提高 AI 沟通的自然度和准确性等。 成果与效益:展示项目取得的成果,如提高了医生的诊断效率、提升了用户满意度等。 此外,您还可以参考以下其他相关人员的项目经验: 秦超作为 AI 2C 项目负责人,在产品落地服务方面具有丰富的经验,包括产品、技术架构以及项目管理等。 Cici?在 AI 算法开发领域,将宠物与 AI 结合,具备 AI 产品研发和创业经验。 11 鸭鸭呀作为产品经理,在智能写作产品方面有 Prompt 撰写和 AI 应用的经验。 枫 share 作为产品经理,熟悉 ChatGPT,写过 prompt,使用过多种 AI 创作工具,并正在寻找 AI 方向的产品岗位。 行远作为产品经理,熟悉 prompt,部署过多种绘图项目,使用过多款 AI 创作工具,期待学习和实战案例应用。 希望以上内容对您有所帮助,祝您面试成功!
2025-04-01
基于深度学习的商代食器分类研究 明确详细的研究意义
基于深度学习的商代食器分类研究具有多方面的重要意义。首先,它有助于深入了解商代的饮食文化和社会生活。通过对食器的准确分类,可以揭示当时人们的饮食习惯、烹饪方式以及社交礼仪等方面的信息。 其次,为考古学研究提供新的方法和视角。利用深度学习技术能够更高效、更准确地处理和分析大量的商代食器数据,突破传统研究方法的局限。 再者,有助于文物保护和管理。精确的分类有助于制定更有针对性的保护策略,确保这些珍贵的文化遗产得到妥善保存。 最后,促进跨学科研究的发展。将深度学习与考古学相结合,能够吸引更多不同领域的学者参与,推动相关研究的创新和进步。
2025-03-27
深度学习模型架构有哪些
深度学习模型架构主要包括以下几种: 1. Transformer 模型: 由编码器(Encoder)和解码器(Decoder)两大部分组成。 每个部分由多个相同的层堆叠而成,每层包含多头注意力机制(Multihead Attention)和位置全连接前馈网络。 编码器将自然语言转换成向量文本,解码器基于编码器的输出和之前生成的输出逐步生成目标序列。 2. DiT 架构:结合扩散模型和 Transformer 的架构,用于高质量图像生成。 3. 存算一体架构: 是未来 AI 硬件的发展趋势。 运行几百亿个参数的大模型时具有优势,可避免数据搬运。 此外,在端到端算法的时代,有观点认为不应继续使用冯诺依曼架构,且在存算一体的芯片之上,有望诞生全新的算法。在将大模型与私域知识结合方面,有重新训练、微调、RAG、关键词工程、加长 Context 等方法,其中长 Context 和 RAG 被认为较有希望。
2025-03-22
懂编程但是不了解大模型的工程师如何系统的学习深度学习?
对于懂编程但不了解大模型的工程师,系统学习深度学习可以参考以下路径: 1. 掌握深度学习和自然语言处理基础: 学习机器学习、深度学习、神经网络等基础理论。 掌握自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程推荐吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理: 熟悉 Transformer 模型架构及自注意力机制原理。 掌握 BERT 的预训练和微调方法。 阅读相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调: 进行大规模文本语料预处理。 熟悉 LLM 预训练框架,如 PyTorch、TensorFlow 等。 学会微调 LLM 模型进行特定任务迁移。 参考相关资源,如 HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署: 掌握模型压缩、蒸馏、并行等优化技术。 了解模型评估和可解释性。 熟悉模型服务化、在线推理、多语言支持等。 运用相关开源工具,如 ONNX、TVM、BentoML 等。 5. LLM 工程实践和案例学习: 结合行业场景,进行个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态: 关注顶会最新论文、技术博客等资源。 此外,为了更好地理解相关技术原理和建立框架,还可以了解以下内容: 1. 概念:生成式 AI 生成的内容称为 AIGC。 2. 概念与关系: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务包括聚类。 强化学习从反馈里学习,最大化奖励或最小化损失,类似训小狗。 深度学习是一种参照人脑有神经网络和神经元的方法(因有很多层所以叫深度),神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制来处理序列数据,而不需要依赖于循环神经网络或卷积神经网络。
2025-03-13
帮我完成基于深度学习的草莓目标识别的毕设
很抱歉,目前没有关于基于深度学习的草莓目标识别毕设的具体内容。但我可以为您提供一个大致的指导框架: 首先,您需要收集大量包含草莓的图像数据,并对这些数据进行标注,例如标记出草莓的位置和类别。 然后,选择适合的深度学习模型,如卷积神经网络(CNN),可以考虑使用经典的模型架构如 VGG、ResNet 等,或者根据您的需求进行适当的修改和优化。 在训练模型时,要注意设置合适的超参数,如学习率、迭代次数等,并使用合适的优化算法,如随机梯度下降(SGD)、Adagrad 等。 在模型训练完成后,进行评估和验证,可以使用准确率、召回率、F1 值等指标来衡量模型的性能。 最后,对模型进行优化和改进,以提高识别效果。 希望以上框架对您有所帮助,祝您顺利完成毕业设计!
2025-03-09
我现在需要做我的毕业设计名为“基于深度学习的草莓目标识别系统”,你能告诉我如何制作以及用到这里的哪些ai工具、
对于您的“基于深度学习的草莓目标识别系统”毕业设计,以下是一些制作的步骤和可能用到的 AI 工具: 制作步骤: 1. 数据收集:收集大量包含草莓的图像数据,并对其进行标注,例如标记出草莓的位置和类别。 2. 数据预处理:对收集到的数据进行清洗、增强、裁剪等操作,以提高数据质量和模型的泛化能力。 3. 选择模型架构:可以考虑使用常见的深度学习目标检测模型,如 Faster RCNN、YOLO 等。 4. 训练模型:使用预处理后的数据对选择的模型进行训练。 5. 模型评估:使用测试集对训练好的模型进行评估,如准确率、召回率等指标。 6. 模型优化:根据评估结果对模型进行调整和优化,例如调整超参数、增加数据量、使用更复杂的模型等。 可能用到的 AI 工具: 1. TensorFlow:一个广泛使用的深度学习框架,提供了丰富的模型构建和训练工具。 2. PyTorch:另一个流行的深度学习框架,具有灵活的编程接口和强大的计算能力。 3. OpenCV:用于图像处理和数据预处理。 4. LabelImg:用于图像数据的标注。 希望以上内容对您有所帮助,祝您毕业设计顺利!
2025-03-09
学习ai
以下是新手学习 AI 的方法和建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 对于中学生学习 AI,建议如下: 1. 从编程语言入手学习: 可以从 Python、JavaScript 等编程语言开始,学习编程语法、数据结构、算法等基础知识,为后续的 AI 学习打下基础。 2. 尝试使用 AI 工具和平台: 可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2025-04-15
作为一个想要使用AI工具提升工作效率的AI小白,我已经学习了怎么编写prompt,接下来我应该学习什么
如果您已经学习了如何编写 prompt ,接下来可以学习以下内容: 1. 理解 Token 限制:形成“当前消耗了多少 Token”的自然体感,把握有效记忆长度,避免在超过限制时得到失忆的回答。同时,编写 Prompt 时要珍惜 Token ,秉承奥卡姆剃刀原理,精简表达,尤其是在连续多轮对话中。 熟练使用中英文切换,若 Prompt 太长可用英文设定并要求中文输出,节省 Token 用于更多对话。 了解自带方法论的英文短语或句子,如“Chain of thought”。 2. 学习精准控制生成式人工智能:重点学习提示词技术,编写更清晰、精确的指令,引导 AI 工具产生所需结果。 探索构建智能体(AI Agents),将工作单元切割开,赋予其特定角色和任务,协同工作提高效率。 在实际应用中遵循准则,如彻底变“懒人”、能动嘴不动手、能让 AI 做的就不自己动手、构建自己的智能体、根据结果反馈调整智能体、定期审视工作流程看哪些部分可用更多 AI 。 3. 若想进一步提升: 学习搭建专业知识库、构建系统知识体系,用于驱动工作和个人爱好创作。 注重个人能力提升,尤其是学习能力和创造能力。 您还可以结合自身生活或工作场景,想一个能简单自动化的场景,如自动给班级孩子起昵称、排版运营文案、安排减脂餐、列学习计划、设计调研问卷等。选一个好上手的提示词框架开启第一次有效编写,比如从基础的“情境:”开始。
2025-04-15
学习AI怎么在工作中使用,提高工作效率,有必要从技术原理开始学习吗
学习 AI 在工作中使用以提高工作效率,不一定需要从技术原理开始学习。以下是一些相关的案例和建议: 案例一:GPT4VAct 是一个多模态 AI 助手,能够模拟人类通过鼠标和键盘进行网页浏览。其应用场景在于以后互联网项目产品的原型设计自动化生成,能使生成效果更符合用户使用习惯,同时优化广告位的出现位置、时机和频率。它基于 AI 学习模型,通过视觉理解技术识别网页元素,能执行点击和输入字符操作等,但目前存在一些功能尚未支持,如处理视觉信息程度有限、不支持输入特殊键码等。 案例二:对于教师来说,有专门的 AI 减负指南。例如“AI 基础工作坊用 AI 刷新你的工作流”,从理解以 GPT 为代表的 AI 工作原理开始,了解其优势短板,学习写好提示词以获得高质量内容,并基于一线教师工作场景分享优秀提示词与 AI 工具,帮助解决日常工作中的常见问题,提高工作效率。 建议:您可以根据自身工作的具体需求和特点,有针对性地选择学习方向。如果您只是想快速应用 AI 提高工作效率,可以先从了解常见的 AI 工具和应用场景入手,掌握基本的操作和提示词编写技巧。但如果您希望更深入地理解和优化 AI 在工作中的应用,了解技术原理会有一定帮助。
2025-04-15
ai小白学习课程
对于 AI 小白的学习课程,建议如下: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,能找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,还有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库有很多实践后的作品、文章分享,欢迎实践后分享。 5. 体验 AI 产品: 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人互动,了解其工作原理和交互方式。 另外,如果让我推荐一门 AI 课,比如【野菩萨】的课程: 1. 预习周课程:包括 AI 绘画电脑配置要求、高效 AIGC 创意者的数字人工具包、SD 插件安装方法、画静为动的 AIGC 视频制作讲解等。 2. 基础操作课:涵盖 AI 绘画通识课、AI 摄影虚拟的真实、AI 电影 穿越的大门等内容。 3. 核心范式课程:涉及词汇的纸牌屋、核心范式应用、控制随机性等方面。 4. SD WebUi 体系课程:包括 SD 基础部署、SD 文生图、图生图、局部重绘等。 5. ChatGPT 体系课程:有 ChatGPT 基础、核心 文风、格式、思维模型等内容。 6. ComfyUI 与 AI 动画课程:包含部署和基本概念、基础工作流搭建、动画工作流搭建等。 7. 应对 SORA 的视听语言课程:涉及通识 欢迎参加电影的葬礼、影像赏析、基础戏剧影视文学等。 免费课程机会:如果想要免费获得这门课程,可以来参与 video battle,这是唯一一个获胜者就可以拥有课程的机会。每期的 video battle 的评委野菩萨老师都非常严格,需要寓意深度审美并存。 冠军奖励:4980 课程一份 亚军奖励:3980 课程一份 季军奖励:1980 课程一份 入围奖励:598 野神殿门票一张 扫码添加菩萨老师助理,了解更多课程信息。 对于纯小白,还可以参考以下: |分类|标题|文章链接|视频链接|适用人群|简要说明| ||||||| |通识篇|现有常见 AI 工具小白扫盲|(1 小时 32 分开始)|对 AI 都没太多概念的纯纯小白|给与 AI 之间有道墙、还在墙外的人简单介绍当前各种 AI 工具、0 成本最快速感受当下 AI 工具的力量| |通识篇|AI 常见名词、缩写解释|结合食用|
2025-04-15
ai小白学习课程
对于 AI 小白的学习课程,建议如下: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,能找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,还有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库有很多实践后的作品、文章分享,欢迎实践后分享。 5. 体验 AI 产品: 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人互动,了解其工作原理和交互方式。 另外,如果让我推荐一门 AI 课,比如【野菩萨】的课程: 1. 预习周课程:包括 AI 绘画电脑配置要求、高效 AIGC 创意者的数字人工具包、SD 插件安装方法、画静为动的 AIGC 视频制作讲解等。 2. 基础操作课:涵盖 AI 绘画通识课、AI 摄影虚拟的真实、AI 电影 穿越的大门等内容。 3. 核心范式课程:涉及词汇的纸牌屋、核心范式应用、控制随机性等方面。 4. SD WebUi 体系课程:包括 SD 基础部署、SD 文生图、图生图、局部重绘等。 5. ChatGPT 体系课程:有 ChatGPT 基础、核心 文风、格式、思维模型等内容。 6. ComfyUI 与 AI 动画课程:包含部署和基本概念、基础工作流搭建、动画工作流搭建等。 7. 应对 SORA 的视听语言课程:涉及通识 欢迎参加电影的葬礼、影像赏析、基础戏剧影视文学等。 免费课程机会:如果想要免费获得这门课程,可以来参与 video battle,这是唯一一个获胜者就可以拥有课程的机会。每期的 video battle 的评委野菩萨老师都非常严格,需要寓意深度审美并存。 冠军奖励:4980 课程一份 亚军奖励:3980 课程一份 季军奖励:1980 课程一份 入围奖励:598 野神殿门票一张 扫码添加菩萨老师助理,了解更多课程信息。 对于纯小白,还可以参考以下: |分类|标题|文章链接|视频链接|适用人群|简要说明| ||||||| |通识篇|现有常见 AI 工具小白扫盲|(1 小时 32 分开始)|对 AI 都没太多概念的纯纯小白|给与 AI 之间有道墙、还在墙外的人简单介绍当前各种 AI 工具、0 成本最快速感受当下 AI 工具的力量| |通识篇|AI 常见名词、缩写解释|结合食用|
2025-04-15
学习ai思路,完整步骤流程
以下是新手学习 AI 的完整步骤流程: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,通过实践巩固知识,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,以“Windsurf 零基础开发”为例,AI 开发网站的操作步骤如下: 1. 开发目标:以“Windsurf 学习共创社区”为例,借助 AI 能力快速构建现代化 Web 应用。 2. 技术选型:Vue + TypeScript。 3. 目标用户:零基础开发学习者。 4. 参考项目:Cursor101。 5. 开发流程: 需求分析与代码生成。 环境配置自动化。 问题诊断与修复。 界面优化与细节打磨。 功能迭代与完善。 在开发过程中,输入需求让 windsurf 进行 code,它会将开发思路讲解并给出环境命令,可能会出现报错,将报错信息返回给 cascade,经过自动检查后修复 bug,不断优化细节,如优化导航栏和首页,插入细节图片等。
2025-04-14