Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大神解读大模型底层

Answer

大模型的底层原理主要包括以下几个方面:

  1. 生成式:大模型根据已有的输入为基础,不断计算生成下一个字词(token),逐字完成回答。例如,从给定的提示词“how”开始,通过计算推理依次输出“are”“you”等,直到计算出下一个词是“[end of text]”时结束输出。
  2. 预训练:大模型“脑袋”里存储的知识都是预先学习好的,这个预先学习并把对知识的理解存储记忆在“脑袋”里的过程称为预训练。以 GPT-3 为例,训练它使用了约 4990 亿 token 的数据集,相当于 86 万本《西游记》。预训练需要花费大量时间和算力资源,且在没有外部帮助的情况下,大模型所知道的知识信息是不完备和滞后的。
  3. 转换器模型(Transformer):Transformer 是一种处理文本内容的经典模型架构,虽然其具体细节不清楚不影响使用大模型,但感兴趣的可以通过相关链接进一步了解。
  4. 参数规模:依靠概率计算逐字接龙的方法看似难以生成高质量回答,但随着参数规模的增加,如从 GPT-1 的 1.5 亿到 GPT-3.5 的 1750 亿,实现了量变到质变的突破,“涌现”出惊人的“智能”。这种“涌现”现象在人类的进化和个体学习成长历程中也存在。
Content generated by AI large model, please carefully verify (powered by aily)

References

走入AI的世界

总结一下,以上这段讨论,你要重点记住这句话:模仿人类大脑结构的AI,也自然而然的表现出人的特征,很多我们应对大模型回答不及预期的解决之道,也和人与人交流沟通的技巧如出一辙,息息相关。关于这一点,我们会在后续各种真实案例的分析拆解中再来讨论。GPT的全称是生成式预训练转换器模型(Generative Pre-trained Transformer),他的名字里就蕴含了大量重要的信息,接下来我们来聊聊GPT这三个字母的分别含义:图14 Generative Pre-trained Transformer生成式(Generative):所谓生成式,说的是大模型是根据已有的输入为基础,不断计算生成下一个字词(token),从而逐字完成回答的过程。这一过程,像极了一个单字接龙的游戏,图15中给出了一个简单的例子做为说明:1.一开始我们给了大模型一些提示词Prompt,为了简化,在图中这个提示词只有一个单词:How;2.接下来,大模型会结合自己“大脑中存储的知识”进行计算推理,算出how后面接are这个单词的概率最大,于是输出are接在how后面;3.在已知how are的情况下,大模型再次推理计算,算出how are后面接you这个单词概率最大,于是输出you接在how are后面;4.不断重复上面步骤,每次大模型会多输出一个词(token),新的输出会和过去的输入一并成为新的输入,用来计算下一个词;5.直到计算出下一个词是[end of text]的概率最大,于是结束输出,回答结束([end of text]是一个特殊的token,用来终止对话输出)

走入AI的世界

那么预训练阶段大模型就行学了些什么,又学了多少内容呢?以GPT-3为例,训练他一共用了4990亿token的数据集(约570GB文本),这其中绝大多数都是来源于高质量的网页、书籍数据库、维基百科等的内容,可能你对4990亿token这个数字没有直观的体感,那么我们不妨做个换算,它大概相当于86万本《西游记》,人生不过3万天,也就是说,即使你不吃不喝不睡,以每天读完一本《西游戏》的阅读速度去看这些资料,也大概要28.6辈子才能读完。转换器模型(Transformer):Transformer这个单词你可能很陌生,但它的另一个中文翻译“变形金刚”你一定不陌生,Transformer是一种处理文本内容的经典模型架构,图16中左半部分就是GPT-1所使用的Transformer架构图(右边则是经典的Diffusion模型架构图,用于图像生成)。图16 Transformer和Diffusion关于Transformer的具体细节,即使不清楚,也并不太会影响你用好大模型,因此我们不做更多展开讨论了,感兴趣的朋友可以移步这里:[【官方双语】GPT是什么?直观解释Transformer|深度学习第5章_哔哩哔哩_bilibili](https://www.bilibili.com/video/BV13z421U7cs/?vd_source=951ca0c0cac945e03634d853abc79977)[Transformer Explainer:LLM Transformer Model Visually Explained](https://poloclub.github.io/transformer-explainer/)

走入AI的世界

没错,这就是大语言模型真实工作的样子,平时使用大模型看到他逐字输出的样子,并不是程序员做的酷炫“打字机”效果,而是大模型就是如此这般工作的。按照我们的常识认知,这种依靠概率计算逐字接龙的方法,恐怕连生成一个通顺的句子都难,更别提生成高质量有意义的回答了,为什么这种方法会有效呢?答案就是大,GPT-1的参数规模是1.5亿,GPT-2 Medium的参数规模是3.5亿,到GPT-3.5时,他的参数规模来到了惊人的1750亿,我们常说大力出奇迹,参数规模的增加,使得大模型实现了量变到质变的突破,最终“涌现”出了这种惊人的“智能”。反观人类自身,无论是长周期看物种的进化,还是短周期看一个个体的学习成长历程,都有这样“涌现”的结构,就像当我打下这些文字的时候,我的大脑也在神奇的进行着快速的语言组织,这个边打字边思考边输出的过程,又何尝不是一场接龙游戏呢?图15文字接龙游戏预训练(Pre-trained):正如我们前面五点朴素洞察提到的,人类是不知道自己没见过/学过的知识的,大模型也是如此,大模型“脑袋”里存储的知识,都是预先学习好的,这个预先学习并把对知识理解存储记忆在“脑袋”里的过程,就称为预训练。预训练是需要花费相当多的时间和算力资源的,当你了解并意识到预训练机制的时候,你就会明白,在没有其他外部帮助(例如使用浏览器插件,RAG等)的情况下,大模型所知道的知识信息总是不完备的,滞后的(非实时)。

Others are asking
李继刚大神提出的伪代码prompt 相关文章
李继刚等的 prompt 最佳实践相关内容如下: 方法论: 提出了基于 GPT3 的无代码聊天机器人设计工具 BotDesigner。 创建了 Conversation 视图和 Error Browser 视图。 使用 BotDesigner 观察 10 名非专家提示设计师执行聊天机器人设计任务的行为,以探索他们在提示设计中的直觉方法和困难。 结论: 所有参与者都能进行机会性的提示迭代设计,并能对提示更改进行局部测试。 参与者在生成提示、评估提示有效性和解释提示效果方面的困难主要源自过度概括和人际交往预期。 参与者倾向于从单一数据点过度推广,也倾向于从人类交流的角度过滤他们的提示设计和聊天机器人的响应。 关键信息: 贡献者包括李继刚、Sailor、田彬玏、Kyle?、小七姐等群友。 李继刚的,最近收录不是很及时,可在李继刚的即刻查看更多。 每个角色都有版本迭代,标注版本号,争取更新到最新版本。 李继刚写了上百个这种 Prompt,有具体场景需求可评论留言,作者可帮忙写定制,也可自己用结构化方式写。 使用方法:开一个 new chat,点代码块右上角的复制,发送到 chat 聊天框,里面的描述可按需求修改。 思路来源:云中江树的框架: 方法论总结: 建议用文心一言/讯飞星火等国内大模型试试,有这些 prompt 的加持效果不错。 此外,还有相关的高阶使用方法,如陈财猫的“如何用 GPT 写长篇科幻?用分治法完成复杂任务”(https://waytoagi.feishu.cn/wiki/GY3sw4LQli5k9ckzrDZcRnVmnQf),刘海的“Prompt 纵向研究的最新成果:伪代码提示词”(https://waytoagi.feishu.cn/wiki/MjUDwTbq9iUtBrkskPXcpfOHnPg),陈财猫的“由 GPT 驱动的人生重开模拟器游戏,体验无穷变化的多重人生”(https://waytoagi.feishu.cn/wiki/WyJSwjvN5iZudhkd8iocrSy3njc)
2024-10-21
AI 小白怎么成为AI大神
以下是为 AI 小白提供的成为 AI 大神的学习路径: 首先,要了解 AI 基本概念。建议阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支如机器学习、深度学习、自然语言处理等以及它们之间的联系。同时,浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 接着,开始 AI 学习之旅。在「」中,能找到为初学者设计的课程,特别推荐李宏毅老师的课程。还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并争取获得证书。 然后,选择感兴趣的模块深入学习。AI 领域广泛,涵盖图像、音乐、视频等,您可以根据自身兴趣选择特定模块进行深入钻研。 此外,还可以通过观看相关视频来辅助学习,比如“”,了解什么是 AI 大模型及其原理,包括生成式 AI 生成的内容叫做 AIGC,以及相关技术名词如机器学习(包括监督学习、无监督学习、强化学习)、深度学习等。 最后,在医疗保健领域应用 AI 时,要像人类学习一样,不能仅仅依靠大量数据和生成模型,而应通过使用彼此堆叠的模型来训练,比如先训练生物学的模型,再添加特定于医疗保健或药物设计的数据点。
2024-07-25
请你以制定清晰的任务列表和优先级的方式,来制作ai绘画相关的课程,帮助小白一步步上手操作成为大神。
以下是一个针对小白用户,从零开始学习AI绘画的清晰任务列表和优先级建议: 阶段一:基础知识学习 1. 了解AI绘画的基本概念 理解AI绘画与传统绘画的区别 了解AI绘画在艺术创作中的应用 2. 选择合适的AI绘画工具 研究不同AI绘画工具的特点和优缺点 选择一个适合自己的AI绘画工具 3. 学习基础绘画技巧 了解基本的绘画术语和技巧 学习如何使用AI绘画工具进行基础操作 阶段二:AI绘画工具使用 1. 熟悉AI绘画工具的基本操作 学习如何创建、编辑和管理画布 学习如何使用工具箱中的工具 2. 掌握AI绘画工具的功能 学习如何使用AI绘画工具的自动生成功能 学习如何调整AI绘画工具的参数和设置 3. 实践AI绘画工具的基本操作 尝试绘制简单的图形和形状 尝试使用AI绘画工具的自动生成功能创作作品 阶段三:AI绘画创作实践 1. 创作个人风格的作品 学习如何利用AI绘画工具创作具有个人风格的作品 尝试创作不同风格和主题的作品 2. 学习AI绘画工具的高级功能 学习如何使用AI绘画工具的高级功能,如AI生成、AI优化等 尝试创作更复杂和高质量的作品 3. 实践AI绘画创作 尝试创作不同风格和主题的作品,提高创作技巧 不断学习和实践,提升自己的AI绘画水平 阶段四:AI绘画作品展示和交流 1. 分享和展示自己的AI绘画作品 选择合适的平台分享和展示自己的AI绘画作品 与其他AI绘画爱好者交流和分享经验 2. 参加AI绘画相关的比赛和活动 了解和参加AI绘画相关的比赛和活动 通过比赛和活动提升自己的AI绘画水平 3. 持续学习和提升 关注AI绘画领域的新技术和趋势 不断学习和提升自己的AI绘画技巧和水平 通过以上任务列表和优先级建议,小白用户可以逐步学习AI绘画,并逐渐提升自己的创作水平。在学习过程中,建议多实践、多交流,不断提升自己的技能和创作能力。
2024-04-16
stable diffusion底层技术
Stable Diffusion 的底层技术主要来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach 之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型的文本到图像生成模型,其原理包括以下几个步骤: 1. 使用新颖的文本编码器(OpenCLIP),由 LAION 开发并得到 Stability AI 的支持,将文本输入转换为向量表示,以捕捉文本语义信息并与图像空间对齐。 2. 采用扩散模型,将随机噪声图像逐渐变换为目标图像。扩散模型是一种生成模型,能从训练数据中学习概率分布并采样新数据。 3. 在扩散过程中,利用文本向量和噪声图像作为条件输入,给出每一步变换的概率分布,根据文本指导噪声图像向目标图像收敛,并保持图像的清晰度和连贯性。 4. 使用超分辨率放大器(Upscaler Diffusion Model),将生成的低分辨率图像放大到更高分辨率,从低分辨率图像中恢复细节信息并增强图像质量。 此外,ComfyUI 的底层依赖 Stable Diffusion,去噪过程由 UNet 网络完成。UNet 是一种编码器解码器结构,能处理多尺度特征表示。在 ComfyUI 中,去噪的每个步骤通过模型推理模块实现,调用训练好的 UNet 模型逐步将噪声图像还原成有意义的图像。交叉注意力机制在 Stable Diffusion 中很重要,允许模型在生成过程中融入文本提示、图像、语义信息等条件,在 ComfyUI 中通过“文本提示”和“条件输入”节点实现。跳跃连接是 UNet 的核心部分,能在不同尺度之间共享特征,在 ComfyUI 的节点网络中表现为中间过程数据的流转。切换器代表在去噪过程中的不同阶段对特征流的控制,在 ComfyUI 中可通过修改模型参数节点或自定义网络结构节点对不同阶段的噪声去除策略进行微调。 Stable Diffusion 还具有以下优点: 1. 可以处理任意领域和主题的文本输入,并生成与之相符合的多样化和富有创意的图像。 2. 可以生成高达 2048x2048 或更高分辨率的图像,且保持良好的视觉效果和真实感。 它还可以进行深度引导和结构保留的图像转换和合成,例如根据输入图片推断出深度信息,并利用深度信息和文本条件生成新图片。
2025-04-15
用what,why,how,will,next,作为五个力量,用熵增熵减作为二进制,组成的底层语言用其中的next作为自主学习探索动力的自进化AI,潜力怎么样?
用 what、why、how、will、next 作为五个力量,以熵增熵减作为二进制,组成底层语言,并以其中的 next 作为自主学习探索动力的自进化 AI 具有一定的潜力,但也面临一些挑战。 从潜力方面来看,这种设计可能有助于 AI 系统更有针对性地进行自主学习和探索。例如,what 可以帮助明确要学习和理解的对象或概念;why 有助于挖掘背后的原因和逻辑,促进更深入的理解;how 能够指导实现目标的方法和步骤;will 可以对未来的发展进行预测和规划。而将 next 作为自主学习探索的动力,有可能推动 AI 不断开拓新的知识领域。 然而,也存在一些挑战。首先,熵增熵减作为二进制的基础,其在实际应用中的有效性和稳定性需要进一步验证和优化。其次,如何准确地定义和运用这五个力量,以及它们之间的协同关系,需要精细的设计和调试。再者,将这种复杂的底层语言转化为实际的算法和模型实现,具有较高的技术难度。 总之,这种自进化 AI 的概念具有创新性和潜力,但需要在理论和实践上进行深入的研究和探索,以充分发挥其优势并克服可能的问题。
2025-04-12
教我工作流的底层逻辑跟如何入门学习工作流
工作流的底层逻辑及入门学习方法如下: 工作流通常由多个节点构成,节点是其基本单元,本质上是包含输入和输出的函数。常见的节点类型包括: 1. LLM(大语言模型):使用输入参数和提示词生成处理结果。 2. Code(代码):通过 IDE 编写代码处理输入参数,并返回输出值。 3. Knowledage(知识库):根据输入参数从关联知识库中召回数据,并返回。 4. Condition(条件判断):ifelse 逻辑节点,用于设计工作流内的分支流程,根据设置条件运行相应的分支。 5. Variable(获取变量):从 Bot 中获取变量作为参数在工作流中使用。 6. Database(数据库):在工作流中使用提前配置在 Bot 数据库中的数据。 以下是一些入门学习工作流的示例和资源: 1. 对于生成绿幕素材和绿幕素材抠图的工作流,您可以下载工作流文件拖入 ComfyUI 中自动加载,然后对照相关说明进行学习。工作流链接:https://pan.quark.cn/s/01eae57419ce 提取码:KxgB 2. 对于 Glif 图像流制作冰淇淋甜品地标,您可以按照以下步骤学习: 1 分钟交作业:点击网址 https://glif.app/@jianStuart/glifs/cly85fy2i000cqe87zcu72i5l ,选一张主体区分度高且主体为地标的图,上传图片并点击相应按钮,多点几次选一张满意的即可。 5 分钟学习制作:点击顶上的“build”按钮,点击“+”加号,选择“img input”,再点下面的“+”加号,选“image generator”,把提示词放进节点,打开“advanced controls”,修改参数,勾选“Enable input image”并改参数。 3. 对于 Coze 平台的工作流,官方有现成的教程参考: 海外参考文档:https://www.coze.com/docs/zh_cn/use_workflow.html 国内参考文档:https://www.coze.cn/docs/guides/use_workflow 国内版本还提供了一些示例,建议跟着实操一遍,如: 搜索新闻:https://www.coze.cn/docs/guides/workflow_search_news 使用 LLM 处理问题:https://www.coze.cn/docs/guides/workflow_use_llm 生成随机数:https://www.coze.cn/docs/guides/workflow_use_code 搜索并获取第一个链接的内容:https://www.coze.cn/docs/guides/workflow_get_content 识别用户意图:https://www.coze.cn/docs/guides/workflow_user_intent
2025-03-24
我想学习ai视频ai生图的相关技能,并且我不想速成,我想了解其中的底层原理以便可以更好的控制生成的内容,我应该如何学习
以下是关于学习 AI 视频和生图相关技能的一些建议: 一、基础概念 1. 模型 Checkpoint:生图必需的基础模型,任何生图操作必须选定一个才能开始。 Lora:低阶自适应模型,可视为 Checkpoint 的小插件,用于精细控制面部、材质、物品等细节。 VAE:编码器,功能类似于滤镜,可调整生图的饱和度,一般选择 840000 这个。 2. 提示词 Prompt 提示词:想要 AI 生成的内容,需要花费功夫学习,可从照抄别人开始。 负向提示词 Negative Prompt:想要 AI 避免产生的内容,同样需要学习,可从照抄开始。 3. 其他概念 ControlNet:控制图片中特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 ADetailer:面部修复插件,用于治愈脸部崩坏,是高阶技能。 二、参数设置 1. 迭代步数:AI 调整图片内容的次数。步数越多,调整越精密,出图效果理论上更好,但耗时越长,且并非越多越好。 2. 尺寸:图片生成的尺寸大小,需适中选择,太小生成内容有限,太大 AI 可能放飞自我。 3. 生成批次和每批数量:决定重复生成图的批次和每批次同时生成的图片数量。 4. 提示词引导系数:指图像与 prompt 的匹配程度,数字增大图像更接近提示,但过高会使图像质量下降。 5. 随机数种子:固定后可对图片进行“控制变量”操作,首次生成图时无需关注。 6. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 在学习过程中,您可以先从熟悉基础模型、提示词和常见参数设置入手,通过实践和参考他人的经验不断积累知识,逐步掌握更高级的技能和工具。
2025-03-24
不能用APP思维、传统数字平台思维去做大模型创业和人工智能创业,二者在底层逻辑和商业模式等方面完全不同
大模型创业和人工智能创业与 APP 思维、传统数字平台思维在底层逻辑和商业模式等方面存在显著差异。大模型和人工智能创业更注重数据的深度处理、算法的优化创新以及对复杂问题的解决能力。相比之下,APP 思维通常侧重于用户界面和功能的设计,以满足特定的用户需求;传统数字平台思维则更多关注平台的搭建和用户流量的获取与运营。在大模型和人工智能领域,技术的突破和创新是关键,需要投入大量资源进行研发,并且要面对更高的技术门槛和不确定性。而 APP 和传统数字平台的创业相对更侧重于市场推广和用户体验的优化。总之,不能简单地用 APP 思维和传统数字平台思维来指导大模型和人工智能创业。
2025-03-07
AGI底层逻辑
AGI(通用人工智能)的底层逻辑包含以下方面: 在公众传播层面,相关名词常被混用,但底层是 Transformer 结构。Transformer 底层是 function loss 损失函数,是一个大参数(千亿级别)的回归方程。其通过回归方程的 Function loss 拟合 A 到 B 的 mapping 关系,实现数据集的压缩与还原。在一定 prompt condition 情况下,Transformer 能 repeat 曾经出现过的数据内容,从而实现“生成”能力。大语言模型在两个数据集压缩后,能解释两个数据集之间地带的“连续”能力。部分人觉得 LLM(大语言模型)具有 AGI 潜力,但 LeCun 反对。同时,大语言模型与 Alpha Go 存在差异,Alpha Go 是一个增强学习模型,学习结果会调整模型自身参数,具有推理能力,而大语言模型在这块很弱。Transformer 决定 LLM 是一个生成式模型。
2025-03-07
如果面试AI产品经理岗位,我的简历应该如何介绍对应的AI项目?目前我在做的是一个AI深度解读的功能,用户通过报告页面进行深度解读,进入后触发AI与用户的沟通,根据沟通信息,将用户的一些情况写在病历信息中,最终发给医生
以下是为您提供的一些参考,帮助您在面试 AI 产品经理岗位时介绍对应的 AI 项目: 在您所做的 AI 深度解读功能项目中,可以从以下几个方面进行介绍: 项目背景:阐述开展该项目的原因和目标,例如为了提升医疗服务的效率和准确性,满足用户对深度医疗解读的需求等。 项目职责:详细说明您在项目中的具体职责,如需求分析、产品规划、与开发团队协作、与用户沟通获取反馈等。 技术实现:描述项目中所运用的关键技术,如触发 AI 与用户沟通的机制、如何将用户信息写入病历等。 用户体验优化:提及为提升用户体验所采取的措施,比如优化报告页面的设计、提高 AI 沟通的自然度和准确性等。 成果与效益:展示项目取得的成果,如提高了医生的诊断效率、提升了用户满意度等。 此外,您还可以参考以下其他相关人员的项目经验: 秦超作为 AI 2C 项目负责人,在产品落地服务方面具有丰富的经验,包括产品、技术架构以及项目管理等。 Cici?在 AI 算法开发领域,将宠物与 AI 结合,具备 AI 产品研发和创业经验。 11 鸭鸭呀作为产品经理,在智能写作产品方面有 Prompt 撰写和 AI 应用的经验。 枫 share 作为产品经理,熟悉 ChatGPT,写过 prompt,使用过多种 AI 创作工具,并正在寻找 AI 方向的产品岗位。 行远作为产品经理,熟悉 prompt,部署过多种绘图项目,使用过多款 AI 创作工具,期待学习和实战案例应用。 希望以上内容对您有所帮助,祝您面试成功!
2025-04-01
deepseek怎么解读论文
以下是关于 deepseek 论文解读的相关内容: 直播视频回放:可获取相关视频。 相关论文下载: 技巧分享:包括万能提示词的使用技巧。 社区动态: 《》介绍了 DeepSeek 最新论文提出的“Native Sparse Attention”(NSA),一种高效的超长上下文方案,兼顾训练和推理阶段,显著提升模型性能。 《》介绍了基于 Coze 平台的视频生成工作流,通过全自动化流程实现从文案创作到短视频生成的高效操作。 历史更新: 《》对照解读了春节前的 DeepSeek 相关模型的技术报告。 《》介绍了 DeepSeek 官方下场推荐的部署 DeepSeekR1 的设置。 《》介绍了火山方舟大模型服务平台上线 DeepSeek 系列模型及相关活动。
2025-03-28
1. 利用AI完成技术论文的学习阅读; 2. 结合相关知识体系解读论文,并制作成学习分享PPT。
以下是关于利用 AI 完成技术论文的学习阅读,并结合相关知识体系解读论文制作学习分享 PPT 的一些建议: 在技术论文学习阅读方面: 可以借助 AI 工具,如 Claude 和 Gamma.app。Claude 能够帮助快速寻找符合条件的论文、提取精炼论文中某部分信息。 对于复杂推理,可以利用思维链,谷歌在 2022 年的论文提到其能显著提升大语言模型在复杂推理的能力,即使不用小样本提示,也可在问题后加“请你分步骤思考”。 检索增强生成(RAG)能将外部知识库切分成段落后转成向量,存在向量数据库。用户提问并查找到向量数据库后,段落信息会和原本的问题一块传给 AI,可搭建企业知识库和个人知识库。 程序辅助语言模型(PAL)在 2022 年的论文中被提出,对于语言模型的计算问题,可借助其他工具如 Python 解释器作为计算工具。 ReAct 框架于 2022 年在《React:在语言模型中协同推理与行动》的论文中提出,即 reason 与 action 结合,让模型动态推理并采取行动与外界环境互动,可借助 LangChain 等框架简化构建流程。 在制作学习分享 PPT 方面: 可以先对论文进行深入理解,提取关键信息,包括摘要描述、研究问题、基本假设、实验方法、实验结论、文章主要结论、研究展望等。 利用 AI 工具获取相关理论的简单介绍。 了解并使用合适的 PPT 制作工具,如 Gamma.app。 需要注意的是,小白直接看技术论文有难度,需要一定的知识储备。同时,Transformer 是仿生算法的阶段性实现,未来 10 年、20 年可能不再被使用。
2025-03-24
ManusAI核心技术解读
Manus AI 的核心技术包括以下几个方面: 1. 代理功能:能够自动完成任务并交付完整结果。最终交付的结果形式多样,如文档、交互网页、播客、视频、图表等,使用户能更直观地获取信息。 2. 充分利用 AI 能力:不仅进行推理和任务规划,还结合代码能力生成最终结果。 3. 云端自动运行:AI 在云端电脑上完成包括数据收集、内容撰写、代码生成等任务。其体验特点是任务运行时间较长,但最终交付的结果超出预期。 您可以通过以下链接获取更多详细信息: 体验报告:
2025-03-22
大模型下文档投喂后,大模型是如何解读文档提取出答案?
大模型在文档投喂后解读文档并提取答案的过程通常包括以下步骤: 1. 问题解析阶段:接收并预处理问题,通过嵌入模型(如 Word2Vec、GloVe、BERT)将问题文本转化为向量,以确保问题向量能有效用于后续检索。 2. 知识库检索阶段:知识库中的文档同样向量化后,比较问题向量与文档向量,选择最相关的信息片段,并抽取相关信息传递给下一步骤。 3. 信息整合阶段:接收检索到的信息,与上下文构建形成融合、全面的信息文本。整合信息准备进入生成阶段。 4. 大模型生成回答:整合后的信息被转化为向量并输入到 LLM(大语言模型),模型逐词构建回答,最终输出给用户。 在这个过程中还包括以下信息处理步骤: 1. 信息筛选与确认:系统会对检索器提供的信息进行评估,筛选出最相关和最可信的内容,同时对信息的来源、时效性和相关性进行验证。 2. 消除冗余:识别和去除多个文档或数据源中可能存在的重复信息,以防在生成回答时出现重复或相互矛盾的信息。 3. 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等,构建一个结构化的知识框架,使信息在语义上更加连贯。 4. 上下文构建:将筛选和结构化的信息组织成一个连贯的上下文环境,包括对信息进行排序、归类和整合,形成一个统一的叙述或解答框架。 5. 语义融合:在必要时,合并意义相近但表达不同的信息片段,以减少语义上的重复并增强信息的表达力。 6. 预备生成阶段:整合好的上下文信息被编码成适合生成器处理的格式,如将文本转化为适合输入到生成模型的向量形式。 最终,全新的上下文被一起传递给大语言模型。由于这个上下文包括了检索到的信息,大语言模型相当于同时拿到了问题和参考答案,通过 LLM 的全文理解,最后生成一个准确和连贯的答案。 相关概念: LLM:Large language model 的缩写,即大语言模型。 Prompt:中文译作提示词,是输入给大模型的文本内容,可以理解为和大模型说的话、下达的指令。 Token:大模型语言体系中的最小单元,不同厂商的大模型对中文文本的切分方法不同,通常 1Token≈12 个汉字,大模型的收费计算方法及对输入输出长度的限制通常以 token 为单位计量。 上下文:英文通常翻译为 context,指对话聊天内容前、后的内容信息,上下文长度和上下文窗口都会影响大模型回答的质量。
2025-01-23
数据解读类的AI大模型
以下是关于数据解读类的 AI 大模型的相关知识: 大模型的整体架构可以分为以下几层: 1. 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 2. 数据层:这里的数据层不是用于基层模型训练的数据基集,而是企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。 3. 模型层:包括 LLm(大语言模型,例如 GPT,一般使用 transformer 算法来实现)或多模态模型(如市面上的文生图、图生图等的模型,训练所用的数据与 llm 不同,用的是图文或声音等多模态的数据集)。 4. 平台层:模型与应用间的平台部分,比如大模型的评测体系,或者 langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:也就是应用层,是用户实际看到的地方。 相关技术名词及概念: 1. 生成式 AI 生成的内容叫做 AIGC。 2. AI 即人工智能。 3. 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习:有标签的训练数据,算法的目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务包括聚类。 强化学习:从反馈里学习,最大化奖励或最小化损失,类似训小狗。 4. 深度学习是一种参照人脑有神经网络和神经元(因有很多层所以叫深度)的方法,神经网络可以用于监督学习、无监督学习、强化学习。 5. 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 6. LLM 是大语言模型,对于生成式 AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN),Transformer 比 RNN 更适合处理文本的长距离依赖性。
2025-01-09
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14