以下是为您推荐的一些 AI 入门视频:
希望这些视频能够帮助您入门 AI 领域。
|名称|作者/来源|总结|链接|发布日期|必看星标|图片||-|-|-|-|-|-|-||ChatGPT诞生记:先捞钱,再谈理想|OpenAI翻身史|林亦LYi|ChatGPT的背后是OpenAI这家公司,今天我们聊聊它的理想、成果与争议。|[https://www.bilibili.com/video/BV1Te4y1w7D6/](https://www.bilibili.com/video/BV1Te4y1w7D6/)|2023/02/10|??|||【渐构】万字科普GPT4为何会颠覆现有工作流|YJango|视频是关于GPT的底层原理和未来影响。将抛开技术细节,少用专业名词,在整体功能上讲解ChatGPT的「工作原理」「制造过程」「涌现的能力」「未来的影响」以及「如何应对」|[https://www.bilibili.com/video/BV1MY4y1R7EN/](https://www.bilibili.com/video/BV1MY4y1R7EN/)|2023/03/15|??|||终于有人把chatGPT说清楚了——全网最深入浅出的chatGPT原理科普|新石器公园|本视频深入浅出的讲解了chatGPT的基本原理和演化过程,让你真正理解这个世界最大的变化。|[https://www.bilibili.com/video/BV1yV4y1k7Tc/](https://www.bilibili.com/video/BV1yV4y1k7Tc/)|2023/05/06|??||
卧槽,来了朋友们,Karpathy三个半小时LLM入门课程,如果想入门了解LLM的话必看这个视频。详细介绍LLM训练的全部过程,包括预训练、有监督微调和强化学习。1.预训练:数据、分词、Transformer神经网络的输入输出和内部结构、推理、GPT-2训练示例、Llama 3.1基础推理示例2.有监督微调:对话数据、"LLM心理学":幻觉、工具使用、知识/工作记忆、自我认知、模型需要token来思考、拼写、参差不齐的智能3.强化学习:熟能生巧、DeepSeek-R1、AlphaGo、RLHF。视频是23年十月那个视频的强化版本,讲的更加详细,即使没有技术背景也可以看懂。将提供对ChatGPT等LLM完整训练流程的直观理解,包含许多示例,并可能帮助你思考当前的能力、我们所处的位置以及未来的发展方向。下面是Gemini的详细总结,而且包含了时间轴,我也翻译了完整的视频,下载地址回复【Karpathy】获取字幕和原始视频,可以自己压制,压制完的太大了。[heading3]大型语言模型(LLM)和ChatGPT简介[content]视频目的(00:00-00:27):本视频旨在为普通受众提供一个关于大型语言模型(LLM),特别是像ChatGPT这样的模型的全面但易于理解的介绍。目标是建立思维模型,帮助理解LLM工具的本质、优势和局限性。文本框的奥秘(00:27-00:41):探讨用户与ChatGPT等LLM交互的核心界面——文本框。提出用户输入内容、模型返回文本的机制问题,以及背后对话的本质。
神经网络训练的目标(15:15-17:03):训练神经网络的目标是让模型学习token在序列中彼此跟随的统计关系,即预测给定上下文(token序列)后,下一个最有可能出现的token。Token窗口(15:15-17:03):训练时,模型从数据集中随机抽取固定长度的token窗口(例如8000个token)作为输入。神经网络的输入与输出(17:03-18:21):输入:Token序列(上下文)。输出:预测下一个token的概率分布,词汇表中每个token都有一个概率值。随机初始化与迭代更新(17:38-18:54):神经网络初始参数是随机的,预测也是随机的。训练过程通过迭代更新参数,调整预测结果,使其与训练数据中的统计模式相匹配。损失函数与优化(18:21-20:11):训练过程使用损失函数来衡量模型预测与真实token的差距。优化算法(如梯度下降)用于调整参数,最小化损失函数,提高预测准确率。神经网络内部结构:Transformer(20:11-23:31):现代LLM的核心架构是Transformer,它是一种复杂的数学函数,包含数百万甚至数十亿个参数。参数(权重)(20:43-21:57):参数是神经网络学习知识的载体,训练过程的目标是找到参数的最佳设置。数学表达式(21:57-22:32):Transformer由一系列简单的数学运算(如矩阵乘法、加法、非线性激活函数等)构成。Transformer架构(22:32-23:31):Transformer包含注意力机制和多层感知器等组件,能够有效地处理序列数据并捕捉token之间的复杂关系。