Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

用what,why,how,will,next,作为五个力量,用熵增熵减作为二进制,组成的底层语言用其中的next作为自主学习探索动力的自进化AI,潜力怎么样?

Answer

用 what、why、how、will、next 作为五个力量,以熵增熵减作为二进制,组成底层语言,并以其中的 next 作为自主学习探索动力的自进化 AI 具有一定的潜力,但也面临一些挑战。

从潜力方面来看,这种设计可能有助于 AI 系统更有针对性地进行自主学习和探索。例如,what 可以帮助明确要学习和理解的对象或概念;why 有助于挖掘背后的原因和逻辑,促进更深入的理解;how 能够指导实现目标的方法和步骤;will 可以对未来的发展进行预测和规划。而将 next 作为自主学习探索的动力,有可能推动 AI 不断开拓新的知识领域。

然而,也存在一些挑战。首先,熵增熵减作为二进制的基础,其在实际应用中的有效性和稳定性需要进一步验证和优化。其次,如何准确地定义和运用这五个力量,以及它们之间的协同关系,需要精细的设计和调试。再者,将这种复杂的底层语言转化为实际的算法和模型实现,具有较高的技术难度。

总之,这种自进化 AI 的概念具有创新性和潜力,但需要在理论和实践上进行深入的研究和探索,以充分发挥其优势并克服可能的问题。

Content generated by AI large model, please carefully verify (powered by aily)

References

展望2025,AI行业有哪些创新机会? | 峰瑞报告

3、“世界模型”的哲学三问:是什么,在哪里,为什么?在当前的多模态大型语言模型中,文本通常被视为“主模态”,因为其他模态(如图像、音频)大多需要通过特定编码器转换为与文本对应的高维向量,以便于模型理解和处理。然而,物理世界中存在许多难以用文本准确表达的事物,例如复杂的空间关系和感官体验。因此,我们很难仅依靠当前的大型语言模型(其主要能力源自于大量文本数据的训练)去全面理解物理世界,并与之交互。尽管加入了其他类型的模态数据,这种方法仍可能导致信息丢失。一些科学家试图深化AI理解现实世界的能力,为现有模型的局限提供潜在的解决方案。比如,Meta首席AI科学家Yann LeCun提出的“世界模型”概念,以及斯坦福大学教授李飞飞提出的“空间智能”概念。LeCun认为,当前的大型语言模型缺乏对物理世界的理解和常识,无法进行有效的推理和规划。他主张开发具备世界模型的AI系统,使其能够像人类一样通过观察和互动来学习世界的运作方式,从而实现更高级的智能。此外,被称为OpenCV之父的知名AI专家Gary Bradski提出了“WHAT-WHERE-WHY”框架:WHAT(是什么):识别和分类环境中的物体或事件。例如,AI系统可以识别图像中的人、车辆或树木等实体。WHERE(在哪里):确定已识别物体或事件的空间位置和关系,涉及空间定位和导航,使AI能够理解物体在空间中的分布及相对位置。WHY(为什么):理解物体或事件背后的因果关系和目的,涵盖推理和决策,使AI能够把握行为背后的动机和原因,从而促进更高层次的推理和预测(举例来说,底层的物理规律等)。

Others are asking
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
ai写程序
以下是关于使用 AI 写程序的相关内容: 1. 对于技术纯小白: 从最基础的小任务开始,让 AI 按照最佳实践写一个 say hello 的示例程序,并解释每个文件的作用及程序运行的逻辑,以学会必备的调试技能。 若学习写 chrome 插件,可让 AI 按照最佳实践生成简单的示范项目,包含全面的典型文件和功能,并讲解每个文件的作用和程序运行的逻辑。若使用 o1mini,可在提示词最后添加生成创建脚本的要求,并请教如何运行脚本(Windows 机器则是 create.cmd)。 2. 明确项目需求: 通过与 AI 的对话逐步明确项目需求。 让 AI 帮助梳理出产品需求文档,在后续开发时每次新起聊天将文档发给 AI 并告知在做的功能点。 3. 在独立游戏开发中的经验: 单独让 AI 写小功能没问题,但对于复杂的程序框架,可把不方便配表而又需要撰写的简单、模板化、多调用 API 且牵涉小部分特殊逻辑的代码交给 AI。 以 Buff 系统为例,可让 AI 仿照代码写一些 Buff。但目前 Cursor 生成复杂代码需要复杂的前期调教,ChatGPT 相对更方便。 教 AI 时要像哄小孩,及时肯定正确的,指出错误时要克制,不断完善其经验。 4. 相关资源和平台: AI 写小游戏平台:https://poe.com/ 图片网站:https://imgur.com/ 改 bug 的网站:https://v0.dev/chat 国内小游戏发布平台:https://open.4399.cn/console/ 需要注意的是,使用 AI 写程序时,对于技术小白来说,入门容易但深入较难,若没有技术背景可能提不出问题,从而影响 AI 发挥作用。
2025-04-19
stable diffusion底层技术
Stable Diffusion 的底层技术主要来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach 之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型的文本到图像生成模型,其原理包括以下几个步骤: 1. 使用新颖的文本编码器(OpenCLIP),由 LAION 开发并得到 Stability AI 的支持,将文本输入转换为向量表示,以捕捉文本语义信息并与图像空间对齐。 2. 采用扩散模型,将随机噪声图像逐渐变换为目标图像。扩散模型是一种生成模型,能从训练数据中学习概率分布并采样新数据。 3. 在扩散过程中,利用文本向量和噪声图像作为条件输入,给出每一步变换的概率分布,根据文本指导噪声图像向目标图像收敛,并保持图像的清晰度和连贯性。 4. 使用超分辨率放大器(Upscaler Diffusion Model),将生成的低分辨率图像放大到更高分辨率,从低分辨率图像中恢复细节信息并增强图像质量。 此外,ComfyUI 的底层依赖 Stable Diffusion,去噪过程由 UNet 网络完成。UNet 是一种编码器解码器结构,能处理多尺度特征表示。在 ComfyUI 中,去噪的每个步骤通过模型推理模块实现,调用训练好的 UNet 模型逐步将噪声图像还原成有意义的图像。交叉注意力机制在 Stable Diffusion 中很重要,允许模型在生成过程中融入文本提示、图像、语义信息等条件,在 ComfyUI 中通过“文本提示”和“条件输入”节点实现。跳跃连接是 UNet 的核心部分,能在不同尺度之间共享特征,在 ComfyUI 的节点网络中表现为中间过程数据的流转。切换器代表在去噪过程中的不同阶段对特征流的控制,在 ComfyUI 中可通过修改模型参数节点或自定义网络结构节点对不同阶段的噪声去除策略进行微调。 Stable Diffusion 还具有以下优点: 1. 可以处理任意领域和主题的文本输入,并生成与之相符合的多样化和富有创意的图像。 2. 可以生成高达 2048x2048 或更高分辨率的图像,且保持良好的视觉效果和真实感。 它还可以进行深度引导和结构保留的图像转换和合成,例如根据输入图片推断出深度信息,并利用深度信息和文本条件生成新图片。
2025-04-15
大神解读大模型底层
大模型的底层原理主要包括以下几个方面: 1. 生成式:大模型根据已有的输入为基础,不断计算生成下一个字词(token),逐字完成回答。例如,从给定的提示词“how”开始,通过计算推理依次输出“are”“you”等,直到计算出下一个词是“”时结束输出。 2. 预训练:大模型“脑袋”里存储的知识都是预先学习好的,这个预先学习并把对知识的理解存储记忆在“脑袋”里的过程称为预训练。以 GPT3 为例,训练它使用了约 4990 亿 token 的数据集,相当于 86 万本《西游记》。预训练需要花费大量时间和算力资源,且在没有外部帮助的情况下,大模型所知道的知识信息是不完备和滞后的。 3. 转换器模型(Transformer):Transformer 是一种处理文本内容的经典模型架构,虽然其具体细节不清楚不影响使用大模型,但感兴趣的可以通过相关链接进一步了解。 4. 参数规模:依靠概率计算逐字接龙的方法看似难以生成高质量回答,但随着参数规模的增加,如从 GPT1 的 1.5 亿到 GPT3.5 的 1750 亿,实现了量变到质变的突破,“涌现”出惊人的“智能”。这种“涌现”现象在人类的进化和个体学习成长历程中也存在。
2025-03-24
教我工作流的底层逻辑跟如何入门学习工作流
工作流的底层逻辑及入门学习方法如下: 工作流通常由多个节点构成,节点是其基本单元,本质上是包含输入和输出的函数。常见的节点类型包括: 1. LLM(大语言模型):使用输入参数和提示词生成处理结果。 2. Code(代码):通过 IDE 编写代码处理输入参数,并返回输出值。 3. Knowledage(知识库):根据输入参数从关联知识库中召回数据,并返回。 4. Condition(条件判断):ifelse 逻辑节点,用于设计工作流内的分支流程,根据设置条件运行相应的分支。 5. Variable(获取变量):从 Bot 中获取变量作为参数在工作流中使用。 6. Database(数据库):在工作流中使用提前配置在 Bot 数据库中的数据。 以下是一些入门学习工作流的示例和资源: 1. 对于生成绿幕素材和绿幕素材抠图的工作流,您可以下载工作流文件拖入 ComfyUI 中自动加载,然后对照相关说明进行学习。工作流链接:https://pan.quark.cn/s/01eae57419ce 提取码:KxgB 2. 对于 Glif 图像流制作冰淇淋甜品地标,您可以按照以下步骤学习: 1 分钟交作业:点击网址 https://glif.app/@jianStuart/glifs/cly85fy2i000cqe87zcu72i5l ,选一张主体区分度高且主体为地标的图,上传图片并点击相应按钮,多点几次选一张满意的即可。 5 分钟学习制作:点击顶上的“build”按钮,点击“+”加号,选择“img input”,再点下面的“+”加号,选“image generator”,把提示词放进节点,打开“advanced controls”,修改参数,勾选“Enable input image”并改参数。 3. 对于 Coze 平台的工作流,官方有现成的教程参考: 海外参考文档:https://www.coze.com/docs/zh_cn/use_workflow.html 国内参考文档:https://www.coze.cn/docs/guides/use_workflow 国内版本还提供了一些示例,建议跟着实操一遍,如: 搜索新闻:https://www.coze.cn/docs/guides/workflow_search_news 使用 LLM 处理问题:https://www.coze.cn/docs/guides/workflow_use_llm 生成随机数:https://www.coze.cn/docs/guides/workflow_use_code 搜索并获取第一个链接的内容:https://www.coze.cn/docs/guides/workflow_get_content 识别用户意图:https://www.coze.cn/docs/guides/workflow_user_intent
2025-03-24
我想学习ai视频ai生图的相关技能,并且我不想速成,我想了解其中的底层原理以便可以更好的控制生成的内容,我应该如何学习
以下是关于学习 AI 视频和生图相关技能的一些建议: 一、基础概念 1. 模型 Checkpoint:生图必需的基础模型,任何生图操作必须选定一个才能开始。 Lora:低阶自适应模型,可视为 Checkpoint 的小插件,用于精细控制面部、材质、物品等细节。 VAE:编码器,功能类似于滤镜,可调整生图的饱和度,一般选择 840000 这个。 2. 提示词 Prompt 提示词:想要 AI 生成的内容,需要花费功夫学习,可从照抄别人开始。 负向提示词 Negative Prompt:想要 AI 避免产生的内容,同样需要学习,可从照抄开始。 3. 其他概念 ControlNet:控制图片中特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 ADetailer:面部修复插件,用于治愈脸部崩坏,是高阶技能。 二、参数设置 1. 迭代步数:AI 调整图片内容的次数。步数越多,调整越精密,出图效果理论上更好,但耗时越长,且并非越多越好。 2. 尺寸:图片生成的尺寸大小,需适中选择,太小生成内容有限,太大 AI 可能放飞自我。 3. 生成批次和每批数量:决定重复生成图的批次和每批次同时生成的图片数量。 4. 提示词引导系数:指图像与 prompt 的匹配程度,数字增大图像更接近提示,但过高会使图像质量下降。 5. 随机数种子:固定后可对图片进行“控制变量”操作,首次生成图时无需关注。 6. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 在学习过程中,您可以先从熟悉基础模型、提示词和常见参数设置入手,通过实践和参考他人的经验不断积累知识,逐步掌握更高级的技能和工具。
2025-03-24
不能用APP思维、传统数字平台思维去做大模型创业和人工智能创业,二者在底层逻辑和商业模式等方面完全不同
大模型创业和人工智能创业与 APP 思维、传统数字平台思维在底层逻辑和商业模式等方面存在显著差异。大模型和人工智能创业更注重数据的深度处理、算法的优化创新以及对复杂问题的解决能力。相比之下,APP 思维通常侧重于用户界面和功能的设计,以满足特定的用户需求;传统数字平台思维则更多关注平台的搭建和用户流量的获取与运营。在大模型和人工智能领域,技术的突破和创新是关键,需要投入大量资源进行研发,并且要面对更高的技术门槛和不确定性。而 APP 和传统数字平台的创业相对更侧重于市场推广和用户体验的优化。总之,不能简单地用 APP 思维和传统数字平台思维来指导大模型和人工智能创业。
2025-03-07
AGI底层逻辑
AGI(通用人工智能)的底层逻辑包含以下方面: 在公众传播层面,相关名词常被混用,但底层是 Transformer 结构。Transformer 底层是 function loss 损失函数,是一个大参数(千亿级别)的回归方程。其通过回归方程的 Function loss 拟合 A 到 B 的 mapping 关系,实现数据集的压缩与还原。在一定 prompt condition 情况下,Transformer 能 repeat 曾经出现过的数据内容,从而实现“生成”能力。大语言模型在两个数据集压缩后,能解释两个数据集之间地带的“连续”能力。部分人觉得 LLM(大语言模型)具有 AGI 潜力,但 LeCun 反对。同时,大语言模型与 Alpha Go 存在差异,Alpha Go 是一个增强学习模型,学习结果会调整模型自身参数,具有推理能力,而大语言模型在这块很弱。Transformer 决定 LLM 是一个生成式模型。
2025-03-07