Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Software 2.0里面讲了什么内容

Answer

Software 2.0 主要包含以下内容:

  1. 神经网络不仅是机器学习工具箱中的工具之一,而是代表着软件开发的根本性转变,即软件 2.0。
  2. 软件 1.0 由计算机语言开发,由程序员编写明确指令;软件 2.0 由更抽象、人类难理解的语言(如神经网络中的权重)开发,无法直接编写权重,而是为程序行为指定目标并写好程序骨架,利用计算资源在程序空间中搜索可用程序。
  3. 对于神经网络,将搜索限制在程序空间的连续子集上,使用反向传播和随机梯度下降方法进行搜索。软件 2.0 的源码通常由定义目标行为的数据集和给定大致结构的神经网络结构组成,训练神经网络就是将数据集编译成最终的神经网络。
  4. 如今,神经网络的结构及训练系统日益标准化,大部分“软件开发”工作变成组织、增加、调整和清理带标签的数据集,开发团队分为负责编辑和扩大数据集的数据标记员,以及维护训练相关基础设施和接口的人员。
  5. 对于很多真实世界的问题,采集数据比显式写程序更容易,因此工业界正发生大量代码从软件 1.0 向软件 2.0 的重大转变。
Content generated by AI large model, please carefully verify (powered by aily)

References

软件 2.0(Software 2.0)

源地址:https://karpathy.medium.com/software-2-0-a64152b37c35作者:[Andrej Karpathy](https://karpathy.medium.com/?source=post_page-----a64152b37c35--------------------------------)(OpenAI创始团队成员,原特斯拉AI部门负责人)发布时间:2017年11月12日翻译:在[OneFlow社区](https://www.oneflow.org/index.html)翻译基础上略作修改我发现,有时候人们会把神经网络当作“不过是机器学习工具箱中的工具之一而已”。它有优点也有缺点,在某些领域有用,并且可以帮助你打赢Kaggle比赛。很不幸,这种观点完全是只见树木、不见森林。神经网络可不只是又一种分类器而已,它代表着一种根本性转变的开始,这种转变与我们如何开发软件有关。它就是软件2.0。我们对软件1.0已经比较熟悉——它们由计算机语言(如Python、C++等)所开发。它由程序员写的给计算机的明确指令组成。通过编写每一行代码,程序员确定了程序空间中具有一些理想行为的特定点。与之对比的,软件2.0由更抽象、人类更难理解的语言(比如说,神经网络中的权重)开发。没人可以直接参与这种代码的编写,因为它涉及到大量的权重(往往上百万数量级),并且(我试过)直接编写权重某种意义上是很困难的。取而代之,我们为程序的行为指定目标(比如,“符合数据集中样本的输入输出对”,又或者“赢得围棋比赛”),并写好程序的骨架(比如神经网络的结构),这样就在整个程序空间中确定了一个可以用于搜索的子集,然后就可以使用我们所有的计算资源在这个空间中搜索可用的程序。

软件 2.0(Software 2.0)

对于神经网络而言,我们将搜索限制在程序空间的一个连续的子集上,并且,使用反向传播和随机梯度下降方法进行搜索,(出人意料地)这种搜索方式挺有效。更具体地对比,软件1.0是将人工设计的源码(比如cpp文件)编译为可以有效工作的二进制文件。而软件2.0的源码通常由两部分组成:1)定义了目标行为的数据集;2)给定代码大致结构,但是需要填充细节的神经网络结构。训练神经网络的过程,就是将数据集编译成二进制文件的过程——得到最终的神经网络。时至今日,大多数实际应用中,神经网络的结构及训练系统已经日益标准化为一种商品,所以,大部分活跃的“软件开发”工作某种形式上变成了组织、增加、调整和清理带标签的数据集。这从根本上改变了我们迭代软件的编程范式,将开发团队分成了两拨:软件2.0的程序员(数据标记员)负责编辑和扩大数据集,而另一小撮人,维护着与训练有关的基础设施以及分析、可视化和标注等接口。事实证明,对于真实世界中的很多问题,采集数据(更泛化地说,确定期待的行为)比显式地写程序要容易得多。由于以上以及以下我将要介绍的软件2.0的诸多好处,我们正在见证工业界大量代码从软件1.0迁移至软件2.0的重大转变。软件1.0吞噬着整个世界,软件2.0(AI)在吞噬软件1.0。

机器之心的进化 / 理解 AI 驱动的软件 2.0 智能革命

就在过去几个月里,因为美联储的加息,科技公司的资本狂欢宣告结束,美国上市的SaaS公司股价基本都跌去了70%,裁员与紧缩是必要选项。但正当市场一片哀嚎的时候,Dall-E 2发布了,紧接着就是一大批炫酷的AI公司登场。这些事件在风投界引发了一股风潮,我们看到那些兜售着基于生成式AI(Generative AI)产品的公司,估值达到了数十亿美元,虽然收入还不到百万美元,也没有经过验证的商业模式。不久前,同样的故事在Web 3上也发生过!感觉我们又将进入一个全新的繁荣时代,但人工智能这次真的能带动科技产业复苏么?本文将带你领略一次人工智能领域波澜壮阔的发展史,从关键人物推动的学术进展、算法和理念的涌现、公司和产品的进步、还有脑科学对神经网络的迭代影响,这四个维度来深刻理解“机器之心的进化”。先忘掉那些花里胡哨的图片生产应用,我们一起来学点接近AI本质的东西。全文共分为六个章节:1.AI进化史-前神经网络时代、Machine Learning的跃迁、开启潘多拉的魔盒2.软件2.0的崛起-软件范式的转移和演化、Software 2.0与Bug 2.03.面向智能的架构-Infrastructure 3.0、如何组装智能、智能架构的先锋4.一统江湖的模型-Tran sformer的诞生、基础模型、AI江湖的新机会5.现实世界的AI-自动驾驶新前沿、机器人与智能代理6.AI进化的未来-透视神经网络、千脑理论、人工智能何时能通用?文章较长,累计22800字,请留出一小时左右的阅读时间,欢迎先收藏再阅读!文中每一个链接和引用都是有价值的,特别作为衍生阅读推荐给大家。

Others are asking
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
OpenAI o1、Claude Sonnet 3.7、Gemini 2.0 pro 哪个 AI 搜索能力更强?
OpenAI o1、Claude Sonnet 3.7 和 Gemini 2.0 pro 在不同方面具有各自的优势,难以简单地比较哪个的搜索能力更强。 OpenAI o1 推理能力强,适合作为架构师或算法顾问。 Claude Sonnet 3.7 擅长长上下文任务,在快速生成代码与网页设计方面表现出色。 Gemini 2.0 pro 长上下文支持较好(2M Tokens),适合代码反编译与混淆代码分析。 具体的搜索能力表现还会受到应用场景和具体任务的影响。
2025-03-21
Gemini 2.0 Flash Experimental怎么使用?
使用 Gemini 2.0 Flash Experimental 可以通过以下步骤: 1. 登录 Google AI studio,链接为:https://aistudio.google.com/prompts/new_chat 。 2. 在 Model 中选择 PREVIEW Gemini 2.0 Flash Experimental(new)。 3. 确认选择「Images and text」。 如果您想通过 Google AI Studio 来使用,具体步骤如下: 1. 打开浏览器访问 https://aistudio.google.com/prompts/new_chat ,或者下载 Gemini 应用(Android 或 iOS)。 2. 登录您的 Google 账户。 3. 在 model 选项处选择 Gemini 2.0 Flash Experimental 模型即可。 使用时,编辑图片超简单,只需 3 步: 1. 上传图片:挑选一张您想要修改的图片上传。 2. 输入指令:在对话框里用简单的语言描述您的需求,例如“把衣服改成蓝色”或者“给狗狗加个墨镜”。 3. 等待魔法:点击运行按钮,AI 会马上处理,几秒钟后您就能看到新图片。如果结果不太满意,可以修改指令再次尝试,指令越清晰效果越好,比如“把天空变晴朗,加点云朵”。 需要注意的是,这个功能还在进一步开发中,未来可能会在官网上开放。
2025-03-15
Gemini  2.0 Flash Experimenta
Google 发布的推理模型 Gemini 2.0 Flash Experimental 具有多模态理解、推理、编码等最佳用途,其亮点功能包括展示模型的思维推理过程,能解决复杂问题,应对代码和数学难题。可在 AI Studio 免费体验,据称其低版本已迅速超越 OpenAI 的 o1 模型,Pro 版本尚未发布。相关链接: 。 Gemini 2.0 Flash 现在不仅能通过聊天生成图像,还能通过聊天对话方式任意编辑图像的局部或者全部而不改变图像其他部分。相关案例整理: https://x.com/linaqruf_/status/1899977818563633466?s=46 https://x.com/robertriachi/status/1899854394751070573?s=46 https://x.com/theomediaai/status/1899871111338230110?s=46 https://x.com/techn0_sap1en/status/1899890369044897938?s=46 https://x.com/ai_for_success/status/1899842790072406214?s=46 https://x.com/linusekenstam/status/1899946807565717819?s=46 Gemini 2.0 Flash Experimental 实测设计一个玩具的从 0 到 1 的搭建过程,虽然中间很多细节对不上,但真的兼顾了上下示意图,并且连贯了起来。此外,还有关于一致性测试、视觉陷阱检测等方面的应用,如多图关联创作(隐藏评分点:光影一致性/透视连续性/元素融合度)、逻辑矛盾识别(观察是否提示环境矛盾)。在不同领域也有各种应用,如设计游戏、生成恐怖悬疑小说、装修毛坯房、制造火箭、教人画画等。操作时,右侧选择「Gemini 2.0 Flash Experimenta」并选中模型名。
2025-03-14
flowith 2.0与refly的区别具体在哪里?
Flowith 2.0 与 Refly 的区别主要体现在以下方面: 功能定位:Refly 是一款国产应用,是全站式的文本创作工具,集成了“知识库+自由画布+AI 搜索+内容编辑”等功能,覆盖主题搜索、思维拓展、在线文档、文本优化等完整创作链条的每一个环节。Flowith 2.0 是一款出海应用,有成为订阅制 AI 知识社区的野心。 知识库:Flowith 2.0 的知识库允许自行上传制作并发布,还可以自由添加(或购买)他人已经发布的知识库,这是其作为 AI 付费订阅知识社区的基本雏形,而 Refly 没有此功能。 内容编辑器:Flowith 2.0 的内容编辑器有 Markdown、图片编辑器、代码编辑器、实时语音聊天等几种不同的模式,Refly 未提及有此多样的模式。 交互设计:Flowith 2.0 继承并优化了 1.0 版本的交互设计,尤其是 Agent 功能设计(包括 Project 功能、Oracle 模式、Agent Community 等)得到了强化,以及依旧流畅酷炫的对话模式(包括插件模式、比较模式、图片/视频生成模式等),Refly 未提及相关内容。 团队协作:Flowith 2.0 支持团队协作,允许邀请外部协作者评论、共同编辑当前 Flow,Refly 未提及此功能。
2025-02-13
ideogram 2.0 如何做中文海报?
Ideogram 2.0 做中文海报的方法如下: 1. 特点: 是目前 AI 设计能力最强,文字生成效果最好且最准确(仅限英文),图像生成效果优于 Flux & Dalle·3。 增强了图像中精确文本的渲染能力,适用于海报、徽标、封面、贺卡、T 恤设计等。 提供 5 种不同风格,包括通用、写实、设计、3D 和动漫(Auto 是随机选择一种)。 引入“融合 Remix”、“描述 describe、“放大 Upscale"、“提示词增强 Magic Prompt 功能、“调色板 Color palette”。 提供 API 接口,方便企业集成高级图像生成功能。 支持手机端,目前上线 iOS 应用程序。 目前可免费使用,每天最多 10 次生成机会(40 张图片)。 2. 基本操作界面: 生成风格选择(Auto):相同 prompt 会有不同风格的生成结果。 提示增强 Magic Prompt:增强输入的初始 prompt,提高图像多样性和丰富性,或将初始 prompt 翻译为英文。 尺寸选择 Aspect ratio:可以自由选择生成图片的尺寸,自定义推荐调整比例 Aspect ratio,因为像素尺寸数值 Dimensions 很多情况下会提示失败。 可见性 Visibility:公共模式 Public 指个人生成的图片是否会分享到公共空间被其他用户看到,如果是用于工作需求推荐选择私人模式 Private。 模型选择 Model:推荐最新的 2.0 模型。 调色板 Color palette:可以自动,或使用提供的配色,或根据自己的需求设置相应的配色,生成图像的配色会匹配设置的配色。 渲染质量 Rendering:跟生成的质量相关,一般默认就行,个人使用感觉区别不是特别大,包括快速(约 5 秒)、默认(约 12 秒)、质量(约 20 秒)三种模式。 种子值 Seed:尽可能维持相同的图像效果,但生成结果略有调整。 负面提示词 Negative prompt:不希望出现的元素,可以通过填写到这里进行规避。 3. 图像风格控制:包括现实、设计、3D 和动漫。 4. 调色板控制:可以生成符合您特定调色板的图像。 您可以根据以上内容和官方教程,尝试使用 Ideogram 2.0 制作中文海报。
2024-10-27
DeepSeek,里面搜索怎么能出来图片?
要在 DeepSeek 中搜索出图片,您可以参考以下信息: 在即梦 AI 平台上找到 DeepSeek 入口,简单描述您想要的画面,DeepSeek 会生成详细的提示词,将提示词复制到生图功能的输入框,选择 3.0 模型,点击生成。 DeepSeek 使用平台包括 DeepSeek 官网、API(V3 需要为 0324 更新的版本,DS 官网及 API 已更新,如调用其它平台 API 需要查看 DS 版本号)。Deepseek 需要复制代码到 html 文件里,然后保存进行查看。 将下载的 html 文件及图片放到同一个文件夹,让 Cursor 进行图片增加即可。 此外,DeepSeek 深夜发布了大一统模型 JanusPro,将图像理解和生成统一在一个模型中。其具有统一 Transformer 架构,提供 1B 和 7B 两种规模,全面开源,支持商用,MIT 协议,部署使用便捷,Benchmark 表现优异等特点。模型地址: 模型(7B):https://huggingface.co/deepseekai/JanusPro7B 模型(1B):https://huggingface.co/deepseekai/JanusPro1B 下载地址:https://github.com/deepseekai/Janus
2025-04-09
我想在飞书里面将一段话批量翻译成不同国家的语言 该 怎么做
目前飞书中可能没有直接将一段话批量翻译成不同国家语言的内置功能。但您可以借助一些第三方的翻译工具或软件来实现,比如谷歌翻译、百度翻译等。您将需要翻译的段落复制到这些工具中,然后选择您想要翻译的目标语言进行批量翻译。
2025-03-19
你好,我想训练一个自己的专属模型,比如说基于网页里面的问卷调查,我有答题的逻辑,网页的问卷调查项目每天都有非常多的不同的地方,但是又有相通的地方,我想让AI在我的逻辑之上能自我迭代自动答题,我该怎么办
如果您想基于网页问卷调查训练一个能在您的逻辑之上自我迭代自动答题的专属模型,有以下两种常见的技术方案: 1. 训练专有大模型: 优点:效果最好。 缺点:成本高,训练和维护需要大量计算资源和专业知识;更新模型知识难度大,需要重新训练或微调,过程复杂耗时。 2. 利用 RAG(检索增强生成)技术: 例如选择 Baichuan27BChat 模型作为底模,配置模型本地路径和提示模板。在 Train 页面里选择 sft 训练方式,加载定义好的数据集,根据数据集大小和收敛情况设置学习率和训练轮次。使用 FlashAttention2 可减少显存需求、加速训练速度;显存小的朋友可减少 batch size 并开启量化训练,内置的 QLora 训练方式好用。但需要用到 xformers 的依赖。根据聊天记录规模大小,训练时间少则几小时,多则几天。 此外,还有学生训练专属植物分类 AI 模型的案例供您参考。在北京市新英才学校的跨学科选修课“生化 E 家”中,老师和学生共同收集校园内不同树叶的照片,在 OpenInnoLab里找到图像分类训练工具,建立植物分类模型,加入大量数据集进行训练,再用图像化编程将其套在程序里,形成简单的识别工具。在这个过程中,老师通过生活体验与学生讨论图像分类原理,学生从体验到实践操作,在不进行大量代码编程的情况下能够训练 AI 模型,并了解模型训练准确度与数据的关系。
2025-03-14
我要跟AI工作流有关的文章,只要飞书里边的,最好是飞行社和通往AGI之路里面的
以下是为您整合的与 AI 工作流相关的飞书内容: 根据 AI 使用的多少,人和 AI 协同的方式分为三种: 1. 嵌入式模式:工作仍由人主导,仅在部分步骤借助 AI 进行搜索或提供建议。 2. 协作模式:AI 完成部分完整步骤,如写文章时由 AI 完成初稿,人再调整,此模式基于目前 AI 发展程度最为常用。 3. 智能体模式:人设定目标并监督,整个工作流程由 AI 完成。 ChatGPT 给出了 AI 聊天机器人可完成的任务供参考,结合有效提示词,ChatGPT 能做的远超此列表,且 AI 工具不止 ChatGPT 一种。 个人常用任务对应的国内外 AI 产品可供了解尝试,需注意 AI 产品众多且更新变化快。 推荐网站“通往 AGI 之路”,该网站有大量 AI 相关的技术、产品、教程和案例等信息,并持续更新。 AI 不仅是个人的“外挂”,对公司也会带来变革。未来公司会加速数字化,业务拓展更多依托算力增加而非人力扩充,可能出现更多高效的小团队公司,满足未被满足的需求。 此外,“通往 AGI 之路”还有以下相关内容: 1. 对“飞书”感兴趣或想交流企业/个人效率提升,可访问“飞书官方社区——飞行社”。 2. 如需下载研究报告,可加入知识星球,内有数百份涵盖 AI 各方面的报告,并保持长期活跃更新。 3. 作者 Allen 端午假期实践了三篇教程,并准备调整写作工作流。
2025-03-04
用什么AI工具可以帮忙写教案,教案是word里面有表格,
以下是一些可以帮助您写教案(包含 word 表格)的 AI 工具: 1. 智谱 AI:可以通过上传相关参考资料,利用其内容生成插件来理解和整理信息,为教案的编写提供帮助。 2. 飞书自带的字段插件:例如可以总结宣语,生成视频的 prompt 指令,也可能对教案的编写有一定的辅助作用。 您可以根据具体需求和使用习惯选择适合的工具。
2025-02-23
coze的进阶教程有哪些,我需要有整个的搭建过程教程的,可以是共学活动里面的
以下是一些 Coze 的进阶教程和搭建过程的资源: 5 月 7 号():大聪明分享,主题为“Agent 的前世今生”,每个分享人分享最初接触 Coze 的经历以及现在用 Coze 做什么。流程为 20:00@?AJ 主持开场,20:00 21:00 大聪明分享,21:00 21:30 关于 Coze 随便聊聊。 5 月 8 号():大圣分享,主题为“我眼中的 AI Agent 以及通过搭建知识库实例入门 Coze”,20:00 21:20 大圣分享。 5 月 9 号():艾木分享,主题为“Agent 系统的核心构成:Workflow 和 Multiagent Flow(以‘Dr.Know’和‘卧底’为例),线上答疑。流程为 20:00 21:00 艾木分享,21:00 21:30 线上答疑。 5 月 10 号():罗文分享,主题为“一个方法解锁 COEZ 所有插件的用法+如何自动化解锁每天抓取 X 内容+改写+发布到飞书”,20:00 21:00 罗文分享。 5 月 11 号():Itao 分享,主题为“和 AI 成为搭子”,线上答疑。流程为 20:00 21:00 Itao 分享,21:00 21:30 线上答疑。 此外,还有以下案例合集和教程:
2025-02-22
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
我是一个实体店家,我怎么能利用AI产生内容进而帮助我在流量平台拓客
以下是一些利用 AI 为实体店在流量平台拓客的方法和思路: 1. 借助抖音平台:利用抖音对实体商家的流量扶持,购买 AI 抖音发广告的软件。这需要懂软件开发的技术人员,并且熟悉抖音。 2. 利用 AI 私域做客户培育/用户旅程:通过 AI 软件自动跟进和培育客户,需求是懂软件开发的技术人员且熟悉微信。 3. 打造特定领域的 AI 工具:比如针对法律、健康、财务、教育、销售、HR 等领域,开发如“AI 合同助手”“AI 健康管家”“AI 课程生成器”“AI 销售助理”等垂类工具。 4. 作为引流者:把 AI 工具做成“公众号插件”“小程序入口”或“微信机器人”进行推广,获取分成。 5. 参考优秀作品:如商业综合体 AI 伴侣、客流诊断师、跨境商品不求人、公私域全流程内容规划师、公众号 10W+爆文工厂、营销内容文案合规检查、提示词定制神器、Nicole 咖啡门店分析师、3C 软文文案撰写、网购评论助手、万能 AI 营销助手、贴心平替推荐精灵、产品一键生成一篇高质量的知乎种草文、One thing AI 目标达成教练、润物等,从中获取灵感和思路。
2025-04-15
如何识别网页内容
识别网页内容通常可以通过以下步骤实现: 1. 内容识别:使用智能算法分析网页的 HTML 结构,确定网页的主要内容区域。 2. 文本提取:在识别出内容区域后,提取这些区域的文本内容,包括从 HTML 标签中获取可见文本,同时忽略脚本、样式和其他无需翻译的代码。 3. 预处理:对提取出的文本进行处理,清除不必要的空格、特殊字符和格式信息,进行标准化。 4. 翻译调用:将预处理后的文本拼接到 Prompt 模板中请求相关模型的 API 进行翻译。 5. 结果整合:翻译完成后,将原文和译文对照整合回网页、字幕中,常见的展示形式有原文保持不变,译文以悬浮框、下划线注释或平行文本呈现。 6. 用户界面交互:用户可通过鼠标悬停、点击等操作控制翻译的显示与否,工具会根据用户操作实时显示或隐藏译文。 另外,在获取网页内容时,初版提示词实验中对大模型对话产品的外链解析能力依赖较大,但这种方式易受平台反爬机制制裁。转换思路,通过用户浏览器以浏览器插件形式本地提取网页内容是一种稳定且经济的解决方案。开发时,可拿着初版提示词询问 AI 来确定需要插件获取哪些网页元素。例如 SeeAct 能力可以在多种不同网站上识别网页上的各种元素,执行不同任务。
2025-04-15
我想做一个,基于我个人知识库的chatbot,以供我随时搜索和提问,且优先搜索知识库内的内容而非联网搜索,你有什么建议吗?
以下是为您提供的关于创建基于个人知识库的 chatbot 的建议: 1. 选择合适的平台和工具:例如可以考虑使用飞书智能伙伴创建平台(Aily)或扣子(https://www.coze.cn/home)等。 2. 数据分段储存:由于大模型的上下文长度有限制,需要将上传的资料根据特定符号或字符长度进行分段,如将 8000 字文档按每 800 字分成一个片段储存。 3. 增强检索:当用户输入问题,大模型会根据相似度检索出若干最相关的数据片段,再据此生成答案,这一技术称为 RAG(检索增强生成)。 4. 配置知识库: 在 Bot 内使用知识库: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。 在工作流内使用 Knowledge 节点: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 5. 注意使用限制:单用户最多创建 1000 个知识库,文本类型知识库下最多支持添加 100 个文档,单用户每月最多新增 2GB 数据,累计上限是 10GB。 此外,知识库可以解决大模型幻觉、专业领域知识不足的问题,提升大模型回复的准确率。您可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点,成为工作流中的一环。
2025-04-14
mcp 的内容
MCP(模型上下文协议)是一种创新的开放协议,由 Anthropic 公司在 2024 年 11 月推出并开源。 其主要特点和功能包括: 统一了交互标准,是链接所有 AI 应用与工具的桥梁,兼容所有 AI 应用。 具有三大功能:工具(Tools),底层使用 Function call 实现,与 OpenAI 格式兼容;资源(Resources),为 AI 提供参考信息;提示词(Prompts),预设对话模板。 主要接口路径包括获取工具列表、调用工具、获取资源列表、读取资源内容、获取提示词列表、获取提示词内容等。 转换步骤包括客户端向 MCP 服务器请求工具列表,将 MCP 工具定义转换为 Function call 格式,发送 Function Call 定义给 LLM,接收 LLM 生成的 Function call,将 Function call 转为 MCP 工具调用,发送工具调用结果给 LLM。 MCP 就像一个“转接头”或“通用插座”,其核心作用是统一不同外部服务,通过标准化接口与 AI 模型对接。它与传统 API 的关键区别在于: 单一协议:MCP 像一个统一接口,只要一次整合,就能连接多个服务。 动态发现:AI 模型能自动识别并使用可用的工具,不用提前写死每个接口。 双向通信:MCP 支持类似 WebSockets 的实时双向通信,模型不仅能查询数据,还能主动触发操作。 MCP 最早由 Anthropic 公司开发,目的是帮助 AI 模型(如 Claude)更容易地连接工具和数据源,现在已成为一个开放协议,被越来越多的企业和开发者采用,逐渐成为 AI 与工具互动的新标准。 官方文档:https://modelcontextprotocol.io/
2025-04-13
知识库中的LangChain和LangGraph的内容有哪些 ?
以下是关于 LangChain 和 LangGraph 的相关内容: LangChain: LangChain 是一个由 Harrison Chase 开发的开源 Python 库,旨在支持使用大型语言模型(LLM)和外部资源(如数据源或语言处理系统)开发应用程序。 它提供了标准的接口,与其他工具集成,并为常见应用程序提供端到端链。 设计主张集中在模块化组件上,这些组件提供用于使用 LLM 的行为抽象,并为每个抽象提供实现的集合,从而允许开发人员构造新链或实现现成的链。 LangChain 和 RAG 的关系: LangChain 是一个用于构建高级语言模型应用程序的框架,提供了实现 RAG 所必需的工具和组件。 RAG 即检索增强生成,是一种结合了检索(检索外部知识库中相关信息)和生成(利用 LLM 生成文本)的技术。 LangChain 作为框架,与 RAG 的关系包括:是框架与技术的关系,允许通过模块化组件构建 RAG 应用程序,简化开发过程,提高性能,支持构建复杂的 RAG 应用。 关于大模型 RAG 应用中的 LangChain: 有从产品视角出发的分享,包括项目背景、初步体验和评测结果等。 预计会分成 3 篇分享,分别是 LangChain 框架初体验、调优思路分享、如何测评。
2025-04-12