以下为一些不错的 AI 科普文章:
|分类|标题|文章链接|视频链接|适用人群|简要说明||-|-|-|-|-|-||通识篇|现有常见AI工具小白扫盲|[元子:小白30min快速体验AI工具](https://waytoagi.feishu.cn/wiki/O59VwWtgdii7iJk5jbxcj1tJnDG)|[【智能体搭建共学课】一步步教你玩转Coze智能体,新手0门槛教学特邀讲师:元子_哔哩哔哩_bilibili](https://www.bilibili.com/video/BV1mXqGY1EwJ/?spm_id_from=333.999.0.0&vd_source=84aaf5d504fda49d36287bb4930a47a2)(1小时32分开始)|对AI都没太多概念的纯纯小白|给与AI之间有道墙、还在墙外的人简单介绍当前各种AI工具、0成本最快速感受当下AI工具的力量||通识篇|AI常见名词、缩写解释|[0.从这里启程](https://waytoagi.feishu.cn/wiki/PFXnwBTsEiGwGGk2QQFcdTWrnlb?table=tbltvr7KExCt7Jpw&view=vewgCZH6XZ)|NA|对AI都没太多概念的纯纯小白|给看不懂“黑话”和诸多缩写的小白,请善用这张表+多问AI对话工具(如豆包or Kimi)结合食用|
腾讯非常系统的Stable Diffusion介绍文章,量大管饱。使用入门指南包括硬件需求、安装Python和Git、装配模型,以及如何使用该模型进行图像生成。同时可以通过安装插件等个性化配置,对生成过程进行优化。[heading2][AIGC之我见-马丁的面包屑](https://whjlnspmd6.feishu.cn/wik[content]产品经理、独立开发者马丁整理的自己关于AIGC的一些碎片化思考,很多观点想的很清楚,非常值得一看。[heading2][多邻国创始人Luis von Ahn专访](https://www.newyorker.com/m[content]介绍了Luis von Ahn创建多邻国的过程和对AI的一些思考,特别是AI对教育的影响,他认为AI能以极低的成本产出匹配人类教师教学水平的内容,可以极大的促进教育平权。[heading2][自监督学习CookBook-Mate](https://ai.facebook.com/blog/[content]Meta AI发布了一本“自监督学习烹饪书”,为AI研究人员和从业者提供了使用SSL方法的实用指南。SSL是最近AI突破的关键因素之一,能够在多个领域推动深度学习的边界,从而使模型在自然语言(例如翻译和大语言模型)、音频(例如data2vec)以及计算机视觉模型等模态上实现灵活。本指南提供了一个SSL基础和其食谱,以易于研究人员使用的方式描述了方法的方法家族以及连接其目标的理论线程。研究人员可以使用此烹饪书来学习SSL的基本技术和词汇。[heading2][大语言模型发展历程](https://briefgpt.xyz/lm)[content][Rick Yu](https://twitter.com/cosmtrek)的论文工具增加了一个页面回顾了大语言模型的发展历程,介绍了历代先驱者的研究成果,从N-gram、神经语言模型到现在的GPT系列等。
|多行文本|作者|备注|链接|附件||-|-|-|-|-||软件2.0|Andrej Karpathy|Andrej Karpathy是最早清楚解释(在2017年!)为什么新的AI浪潮真正重要的人之一。他的论点是,AI是一种新的、强大的编程计算机的方式。随着大语言模型(LLMs)的快速改进,这个论点被证明是有先见之明的,并为AI市场的可能进展提供了一个良好的思维模型。|[软件2.0(Software 2.0)](https://ywh1bkansf.feishu.cn/wiki/FFJawIKRpi77JokULCvcjIPBnBv)|||GPT的现状|Andrej Karpathy|这也是Karpathy的文章,这是一个非常容易理解的解释,说明了ChatGPT/GPT模型一般如何工作,如何使用它们,以及研发可能采取的方向。|[GPT的现状(State of GPT)](https://ywh1bkansf.feishu.cn/wiki/IXjfwF9l9iX0IzkUg1Ec0Vcinx3)|||ChatGPT是在做什么,为什么它有效?|Stephen Wolfram|计算机科学家和企业家Stephen Wolfram给出了一篇长而易读的解释,从一开始的原理解释了现代AI模型是如何工作的。他跟随从早期神经网络到今天的LLMs和ChatGPT的时间线|[ChatGPT是在做什么,为什么它有效?](https://ywh1bkansf.feishu.cn/wiki/LnMOwmKIwihcRakRalcczNgrnjf)|||解析Transformer模型:理解GPT-3、BERT和T5背后的模型|Dale Markowitz|这篇文章由Dale Markowitz撰写,是对“什么是LLM,它是如何工作的?”这个问题的一个更短、更直接的回答。这是一种很好的方式,可以轻松地进入这个主题,并对这项技术建立直观理解。这篇文章是关于GPT-3的,但仍适用于新的模型。|[解析Transformer模型:理解GPT-3、BERT和T5背后的模型](https://ywh1bkansf.feishu.cn/wiki/WCOcwp3DYiNj2mkiGVycjJ0Znaf)||群友解读: