Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

对于70后,学ai,怎么学

Answer

对于 70 后学习 AI,以下是一些建议:

  1. 明确学习目标:确定自己学习 AI 的具体方向和应用场景,例如是对 AI 绘画感兴趣,还是希望将 AI 应用于工作中的数据分析等。
  2. 基础知识学习:可以通过在线课程、书籍等途径,学习数学(如线性代数、概率论)、编程(如 Python)等基础知识。
  3. 选择适合的学习路径:可以参考成功的案例,如 AI 教父辛顿的经历。辛顿在多次尝试和坚持后,最终在神经网络领域取得成就。
  4. 关注行业动态:了解 AI 在教育等领域的最新应用和发展趋势,例如未来教育中 AI 与人类教师的协作方式,以及个性化学习的普及。
  5. 实践与应用:通过实际项目或案例进行练习,将理论知识应用到实际中。

需要注意的是,学习 AI 是一个长期的过程,需要保持耐心和坚持不懈的精神。

Content generated by AI large model, please carefully verify (powered by aily)

References

知识分子:2024 诺贝尔物理奖给了 AI 教父辛顿,本人回应“没有想到”

1970年获得实验心理学学士学位后,对大学本科学习颇感失望的辛顿放弃了剑桥大学,成了一名木匠。他一边做书架、木门,一边思考人类大脑的运作原理,自认为这是他喜欢的生活方式。作了一年多之后又有新想法了,因为靠木匠谋生并不是件容易的事情,对了解大脑也无帮助,所以,辛顿又考虑回归学术界,并决定尝试一个新方向:人工智能。对如此奇特多变的求学经历,辛顿谑称自己患上了“学习上的过动症”,在一个专业上无法稳定下来。但其实不然,辛顿始终都在寻求自己的方向。前一段,是多次缀学的“传奇”,后面的经历,便说明了辛顿认定方向后坚持不懈的“传奇”精神。他1972年去了爱丁堡,进入苏格兰爱丁堡大学攻读博士,这次可能算是走对路了,因为那儿有一位非常聪明的叫希金斯(Christopher Higgins,1923 – 2004)的教授,正在研究神经网络,这是辛顿长年累月思考认为可以用机器实现大脑功能的方向。但是,辛顿好像总是运气不佳,就在他开始追求这个目标时,希金斯教授改变了他的学术初衷,“叛变”到了AI的符号主义一边,认为联结主义的神经网络是无稽之谈。这显然是受了MIT的AI大佬闵斯基的影响。闵斯基的《Perceptron》一书于69年出版,几乎摧毁了神经网络领域,使得1972年成为神经网络有史以来最低潮的时期。因此,希金斯试图说服辛顿停止做神经网络,转做符号人工智能。于是辛顿说,再给我六个月,我会证明这是有效的;然后每六个月之后,辛顿再跟希金斯说与上次一模一样的话。两人磨磨唧唧地争论了五年,辛顿终于坚持研究备受冷落的神经网络并熬到了博士毕业。

MQ:AI + 教育 | 实践与探索

2023年起,每个教育工作者,每个父母都应该意识到,我们孩子将要面对的世界,对教和学的要求,已经完全不一样了。真正的个性化学习时代已经到来。请回想一下,我们小时候的学习路径:从小到大在同一个大班(40-70人)接受同一个老师授课,学习同样的教材,完成同样的作业。而2016年,我去美国湾区访校,每个学校的管理层都在讨论如何为孩子提供personalized learning(个性化学习)。比如Khan Lab School(可汗学院旗下的K12学校),允许在孩子准备好的时候随时申请跳级,或者觉得自己没有ready,可以申请停留在之前的年级。7年前的访校给我带来了极大的认知震撼。虽然早就听说过项目制学习,个性化学习,但是看到每个学校积极落地的形态,带来的冲击完全不一样。7年后的今天,随着生成式AI智力崛起,个性化学习将逐渐普及到每个孩子。在未来教育的演变中,AI将作为教育生态系统的一部分,与人类教师共同协作,为孩子们提供完全不一样的学习体验。我们可能逐渐会看不同形态的AI +混合式教学,比如,让逝去的先贤和学生圆桌对谈。在那时,孩子们能够制定自己的学习节奏,根据自己的兴趣和目标和AI Tutor协商定制学习路径和学习材料。他们还可以用「费曼学习法」把学到的东西教给AI,从AI tutor处获得即时反馈。教育工作者不再仅仅是知识的传授者,而是成为学习的引导者以及支持学生在AI元年成长的伙伴。我们将有更多的时间和精力去关注孩子的全人发展,比如培养他们的创造力和社交智慧等。越是AI时代,这些有人味儿的元素可能会更珍贵。未来3年,对于教育从业者来说,任何能提升人机协作效率的点都蕴藏着巨大的机遇,比如AI作业批改,AI备课,AI定制教育规划,AI学前启蒙等。用4.0 V批改阅读理解题

苦涩的教训 The Bitter Lesson

of the special features of the game,but all those efforts proved irrelevant,or worse,once search was applied effectively at scale.Also important was the use of learning by self play to learn a value function(as it was in many other games and even in chess,although learning did not play a big role in the 1997 program that first beat a world champion).Learning by self play,and learning in general,is like search in that it enables massive computation to be brought to bear.Search and learning are the two most important classes of techniques for utilizing massive amounts of computation in AI research.In computer Go,as in computer chess,researchers' initial effort was directed towards utilizing human understanding(so that less search was needed)and only much later was much greater success had by embracing search and learning.In speech recognition,there was an early competition,sponsored by DARPA,in the 1970s.Entrants included a host of special methods that took advantage of human knowledge---knowledge of words,of phonemes,of the human vocal tract,etc.On the other side were newer methods that were more statistical in nature and did much more computation,based on hidden Markov models(HMMs).Again,the statistical methods won out over the human-knowledge-based methods.This led to a major change in all of natural language processing,gradually over decades,where statistics and computation came to dominate the field.The recent rise of deep learning in speech recognition is the most recent step in this consistent direction.Deep learning methods rely even less on human knowledge,and use even more computation,together with learning on huge training sets,to produce dramatically better speech recognition systems.As in the games,researchers always tried to make systems that worked the way the researchers thought their own minds worked---they tried to put that knowledge in their systems---but it proved ultimately counterproductive,and a colossal waste of researcher's time,when,through Moore's law,massive computation became available and a means was found to put it to good use.In computer vision,there has been a similar pattern.Early methods conceived of vision as searching for edges,or generalized cylinders,or

Others are asking
我是一位程序开发小白,不会用代码开发程序。我现在有一台安装Window 11操作系统的笔记本电脑,配置为14代i7CPU、32G内存、1TB硬盘、1张RTX4070显卡。我想部署一套本地的大模型+智能体+知识库。我要怎么样才能实现无代码部署,请列出详细的安装步骤。
以下是为您提供的无代码部署本地大模型、智能体和知识库的详细安装步骤: 1. 硬件评估:您的笔记本电脑配置为 14 代 i7 CPU、32G 内存、1TB 硬盘、1 张 RTX4070 显卡,基本满足部署要求。但需要注意,运行内存最低 32GB,越高越好,最低配可能会经常爆显存。建议将软件和模型部署在 SSD(固态硬盘)上,以提高加载模型的速度。 2. 选择合适的部署工具:ComfyUI 是一个相对配置要求较低、系统资源占用少、出图速度快的工具。它最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。 3. 安装准备:如果您的电脑能顺畅清晰地玩 3A 游戏,那么运行相关部署工具一般也没问题。 4. 预算和需求:根据您的需求和预算来选择合适的配置。例如,如果有做 AIGC 视频、建模渲染和炼丹(lora)的需求,可能需要更高的配置。 请注意,以上步骤仅为参考,实际部署过程可能会因具体情况而有所不同。
2025-03-26
r1-1.5b,7b,32b,70b的区别在哪
以下是关于 r11.5b、7b、32b、70b 区别的一些信息: 在模型规模方面,不同规模的模型具有不同的特点和应用场景。 从一些访谈和相关介绍来看: 小型模型(如 1.5b)在某些特定应用中可能已经足够好,并且成本相对较低,但在处理复杂任务和解锁新的有价值应用方面可能有限。 较大的模型(如 7b、70b)通常能够提供更强大的性能和能力,例如在提供良好的法律建议等任务中可能表现更出色。但大模型的成本也相对较高,并非所有应用都能证明其成本的合理性。 以 Qwen 2 为例,不同规模的模型具有不同的性能和处理能力: Qwen20.5B、Qwen21.5B 可处理 32k 上下文。 Qwen27B 可处理 128k 上下文。 像 baichuan7B 这样的 70 亿参数模型,在标准的中文和英文权威 benchmark 上均取得同尺寸最好的效果,支持中英双语,上下文窗口长度为 4096。 总之,不同规模的模型在性能、成本、适用场景等方面存在差异,需要根据具体需求来选择合适的模型。
2025-02-26
我想利用现有的20万条政务相关数据,基于qwen2.5 70B大模型构建自己的政务服务大模型,该如何做,请给出具体实现流程,谢谢!
以下是基于 qwen2.5 70B 大模型利用 20 万条政务相关数据构建政务服务大模型的大致流程: 1. 数据准备:对 20 万条政务相关数据进行清洗、预处理和标注,使其适合模型学习。 2. 模型选择与下载:选择 qwen2.5 70B 大模型,并按照相关说明进行下载。 3. 本地部署: 启动 OpenAI 兼容的 API 服务,根据硬件配置设置相关参数,如 tensorparallelsize(设置使用的 GPU 数量)、maxmodellen(定义最大输入序列长度)、maxnumbatchedtokens(设置 Chunked Prefill 的块大小)、maxnumseqs(限制并发处理的序列数量)。 遇到问题可参考相关内容。 4. 与模型交互:可以使用 Curl 或 Python 等方法与部署的模型进行交互,对于更高级的使用方式,可以探索如之类的框架。 5. 模型训练:模型训练是一个复杂且计算量极大的过程,需要大量的计算资源和时间。 需要注意的是,构建大模型是一个复杂的任务,需要具备一定的技术知识和经验。在实际操作中,可能会遇到各种问题,需要不断调试和优化。
2025-02-06
NVIDIA Graphics Device with CUDA capability sm_120 is not compatible with the current PyTorch installation. The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_61 sm_70 sm_75 sm_80 sm_86 sm_90 compute_37. If you want to use th
您好,出现“NVIDIA Graphics Device with CUDA capability sm_120 is not compatible with the current PyTorch installation. The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_61 sm_70 sm_75 sm_80 sm_86 sm_90 compute_37.”这种情况,意味着您所使用的 NVIDIA 显卡的 CUDA 计算能力(sm_120)与当前安装的 PyTorch 版本不兼容。当前安装的 PyTorch 支持的 CUDA 计算能力为 sm_37 至 sm_90 以及 compute_37 。您可能需要重新安装与您显卡 CUDA 计算能力相匹配的 PyTorch 版本,或者升级您的显卡驱动程序来解决此兼容性问题。
2024-11-30
如何让COMFYUI使用我的INTEL A770显卡?
要让 ComfyUI 使用您的 INTEL A770 显卡,以下是一些相关的步骤和信息供您参考: 首先,ComfyUI 本地安装的方法主要有以下几种: 1. 命令行安装: 如果您已经安装过 SD WebUI,可以跳到第二步。首先需要打开系统 Terminal,不同系统的 Terminal 可能有所不同。 Windows 用户:建议在有 NVIDIA 显卡的电脑上使用。需要下载 Miniconda3,输入相关命令进行安装,然后安装 pytorch 的 nightly 版本。 Mac 用户:安装需要根据电脑芯片不同输入不同代码。下载 Miniconda3 并输入相关命令进行安装,最后安装 pytorch。 2. 安装包安装:仅支持 Windows 系统且显卡必须是 Nivida。下载地址是,下载最新版本解压即可使用。 关于 ComfyUI 的硬件配置: ComfyUI 相比 WebUI 配置更低、系统资源占用更少、出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配会经常爆显存。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡,内存在 16G 以上。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD 上。 需要注意的是,目前 ComfyUI 对于 INTEL A770 显卡的支持情况可能不太明确,您可能需要根据实际情况进行尝试和调整。
2024-10-10
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
ai写程序
以下是关于使用 AI 写程序的相关内容: 1. 对于技术纯小白: 从最基础的小任务开始,让 AI 按照最佳实践写一个 say hello 的示例程序,并解释每个文件的作用及程序运行的逻辑,以学会必备的调试技能。 若学习写 chrome 插件,可让 AI 按照最佳实践生成简单的示范项目,包含全面的典型文件和功能,并讲解每个文件的作用和程序运行的逻辑。若使用 o1mini,可在提示词最后添加生成创建脚本的要求,并请教如何运行脚本(Windows 机器则是 create.cmd)。 2. 明确项目需求: 通过与 AI 的对话逐步明确项目需求。 让 AI 帮助梳理出产品需求文档,在后续开发时每次新起聊天将文档发给 AI 并告知在做的功能点。 3. 在独立游戏开发中的经验: 单独让 AI 写小功能没问题,但对于复杂的程序框架,可把不方便配表而又需要撰写的简单、模板化、多调用 API 且牵涉小部分特殊逻辑的代码交给 AI。 以 Buff 系统为例,可让 AI 仿照代码写一些 Buff。但目前 Cursor 生成复杂代码需要复杂的前期调教,ChatGPT 相对更方便。 教 AI 时要像哄小孩,及时肯定正确的,指出错误时要克制,不断完善其经验。 4. 相关资源和平台: AI 写小游戏平台:https://poe.com/ 图片网站:https://imgur.com/ 改 bug 的网站:https://v0.dev/chat 国内小游戏发布平台:https://open.4399.cn/console/ 需要注意的是,使用 AI 写程序时,对于技术小白来说,入门容易但深入较难,若没有技术背景可能提不出问题,从而影响 AI 发挥作用。
2025-04-19