Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

最近一个月有哪些令人惊艳的开源大模型

Answer

以下是最近一个月令人惊艳的开源大模型:

  1. 三月初,Meta 的 LLaMA 泄露给公众,随后社区出现一系列创新,包括指令调整、量化、质量改进、人类评估、多模态、RLHF 等变体,解决了扩展问题,降低了培训和实验的准入门槛。
  2. 1 月 20 日,DeepSeek 宣布开源 R1 模型,将大模型行业推进到推理时代,引发了深刻影响。
  3. 2024 年 5 月:
    • 谷歌在 Google Cloud Next 2024 上发布一系列生成式 AI 产品和服务。
    • OpenAI 发布 GPT-4 Turbo 模型,并开源评估框架 simple-evals。
    • xAI 发布首个多模态模型 Grok-1.5V 的预览版。
    • 微软 WizardLM 团队发布 WizardLM-2,后紧急撤回进行毒性测试。
    • Mistral AI 开源 Mistral 8x22B 模型。
    • Meta 发布拥有 4000 亿参数的开源大模型 Llama 3。
Content generated by AI large model, please carefully verify (powered by aily)

References

[译]谷歌研究员:“我们的AI没有护城河,OpenAI也没有”

虽然我们的模型在质量方面仍然稍占优势,但差距正在迅速缩小。开源模型更快、更可定制、更私密,而且在性能上更胜一筹。他们用100美元和13B个参数做的事情,我们用1000万美元和540B个参数仍然很困难。而且他们只需要几周的时间,而不是几个月的时间。这对我们有深远的影响:我们没有秘密武器。我们最好的希望是从谷歌之外的其他人所做的事情中学习并合作。我们应该优先考虑启用第三方集成。当免费、不受限制的替代品在质量上相当时,人们不会为受限制的模型付费。我们应该考虑我们真正的价值所在。巨型模型正在拖慢我们的速度。从长远来看,最好的模型是那些可以快速迭代的。既然我们知道在小于20B参数范围内可能实现什么,我们应该将小变体视为重要的事情,而不是事后的想法。作者:BigYe程普链接:https://juejin.cn/post/7229593695653314597来源:稀土掘金著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。[heading2]What Happened[content]三月初,开源社区得到了他们的第一个真正有能力的基础模型,Meta的LLaMA泄露给了公众。它没有指令或对话调整,也没有RLHF。尽管如此,社区立即理解了他们所得到的东西的重要性。紧接着是一系列惊人的创新,每个重大进展之间仅相隔数天(详见时间轴)。现在,仅仅一个月后,已经出现了具有指令调整、量化、质量改进、人类评估、多模态、RLHF等变体,其中许多变体都是相互建立的。最重要的是,他们已经解决了扩展问题,以至于任何人都可以进行调整。许多新想法来自普通人。培训和实验的准入门槛已经从一个主要研究机构的总产出降至一个人、一个晚上和一台强大的笔记本电脑。

赛博月刊@25年2月:AI行业大事记

1.模型✦过去两个月,我们共同见证了一场席卷全球AI领域的风云巨变。✦o1惊艳问世后,全世界的大模型团队都想找到OpenAI藏起来钥匙。没想到,最先踹开这扇门的是一家「名不见经传」的中国公司——DeepSeek。1月20日,DeepSeek宣布开源R1模型和相关论文,将整个大模型行业急速推进到了推理时代(Test-Time Scaling)。✦起初,我们以为这只是一次技术圈层的突破,完全没料到它会引发如此深刻的影响,甚至撼动了世界格局。美股暴跌1.2万亿,中美在AI领域频繁交锋;国内厂商纷纷接入R1并拉爆宣传,自家模型研发团队的脸面被按在地上摩擦;春节期间家喻户晓街头巷议,AI真正「飞入寻常百姓家」;而风暴中心的DeepSeek默默不语,只是不停地开源。✦Scaling Law再一次「续命」成功。这次的终点会是哪里呢?Sam Altman说是——AGI。2.图像✦图像模型近期没有大的突破,整体在往更快、更便宜的方向发展了。✦AI图像生成去年就已经跨过了真假难辨的临界点,成为最常用的生产力工具之一。从LibLibAI一年融资数亿就能看出来,资本市场已经非常看好这条赛道。3.视频✦视频模型的底层架构没有大的变化,大家都在做一些细节的优化,例如视频音效生成在逐渐成为标配。

2024 年历史更新(归档)

《[AI似乎在向着奇怪的方向飞奔](https://mp.weixin.qq.com/s/cXktu3BDUee-s2L8Z0wXYA)》作者JioNLP从AI发展方向争论谈起:杨植麟支持技术创新,朱啸虎提倡跟随OpenAI。互联网寒冬下,AI火爆,但找需求仍困难。AI大模型虽进步,但仍替代不了大部分人类工作。找AI落地点急切,但需求匮乏,盲目探索无果。《[大模型月度回顾·2024年4月](https://mp.weixin.qq.com/s/R4HgAW6pL_P_hGWFGFi0_Q)》作者ADFeed,这是我看到非常全面详细的大模型月度回顾文章,非常清晰直观展示了上个月的大模型进展。包括不限于:1.谷歌在Google Cloud Next 2024上发布一系列生成式AI产品和服务,包括优化AI基础设施、Gemini 1.5 Pro、Vertex AI等。2.OpenAI发布了GPT-4 Turbo模型,并开源评估框架simple-evals,取得在Chatbot Arena中的首位。3.xAI发布了首个多模态模型Grok-1.5V的预览版,在多模态理解和物理世界理解方面取得显著进展。4.微软WizardLM团队发布WizardLM-2,首次在MT-Bench上超越GPT-4,但随后紧急撤回进行毒性测试。5.Mistral AI开源了Mistral 8x22B模型,具有多语言能力、数学和编程能力、成本效率等优势。6.Meta发布拥有4000亿参数的开源大模型Llama 3,提升了性能并分为不同规模版本。

Others are asking
自动生成提示词的开源工具有哪些
以下是一些自动生成提示词的开源工具: 1. Freepik 推出的 Reimagine AI 工具:用户上传图片即可自动生成提示词,无需输入文字。它还能实时提供无限滚动结果展示,边操作边生成图像,通过调整提示词实时修改图片细节,并支持多种风格切换。相关链接:https://freepik.com/pikaso/reimagine 、https://x.com/imxiaohu/status/1770437135738581414?s=20 2. StreamMultiDiffusion 项目:使用区域文本提示实时生成图像,具有交互式操作体验,每个提示控制一个区域,实现精准图像生成。相关链接:https://arxiv.org/abs/2403.09055 、https://github.com/ironjr/StreamMultiDiffusion?tab=readmeovfile 、https://huggingface.co/spaces/ironjr/SemanticPalette 、https://x.com/imxiaohu/status/1770371036967850439?s=20 3. 【SD】自动写提示词脚本 One Button Prompt:可以在主菜单输入人物提示词,在“高级”中设置提示词混合,还具有一键运行放大的模块,包括完整的文生图放大和图生图放大,甚至可接入其他脚本和 controlnet。获取方式:添加公众号【白马与少年】,回复【SD】。
2025-04-12
开源flux模型如何快速使用
以下是关于开源 Flux 模型快速使用的方法: 1. 模型的下载: 如果因为环境问题,可以在网盘中下载。 siglipso400mpatch14384(视觉模型):siglip 由 Google 开发的视觉特征提取模型,负责理解和编码图像内容。工作流程包括接收输入图像、分析图像的视觉内容并将这些视觉信息编码成一组特征向量。打开 ComfyUI\models\clip,在地址栏输入 CMD 回车,打开命令行,输入下面的命令拉取模型(也可以在网盘里下载)。 image_adapter.pt(适配器):连接视觉模型和语言模型,优化数据转换。工作流程包括接收来自视觉模型的特征向量、转换和调整这些特征,使其适合语言模型处理。通过 https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,如果该文件夹不存在,就新建一个。 MetaLlama3.18Bbnb4bit(语言模型):大型语言模型,负责生成文本描述。工作流程包括接收经过适配器处理的特征、基于这些特征生成相应的文本描述、应用语言知识来确保描述的连贯性和准确性。打开 ComfyUI\models\LLM,地址栏输入 CMD 回车,在命令行里面输入下面命令。 2. 下载地址: ae.safetensors 和 flux1dev.safetensors 下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 准备了夸克和百度的网盘链接,方便部分同学下载: flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b 。 flux 相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。 3. 工作流下载: 最后我们再下载 dev 的工作流: 。或者下面官方原版的图片链接,图片导入 comfyUI 就是工作流:https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png 。我们打开 ComfyUI,把工作流或图片拖拽到 ComfyUI 里。
2025-04-08
开源AI Agent软件有哪些
以下是一些开源的 AI Agent 软件: 1. AutoGPT 和 BabyAGI:在去年 GPT4 刚发布时风靡全球科技圈,给出了让 LLM 自己做自动化多步骤推理的解题思路。 2. Coze:新一代的一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成了丰富的插件工具。 3. Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 4. 文心智能体:百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据自身需求打造大模型时代的产品能力。 5. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行设计良好的工作流。 6. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等多种场景,提供多种成熟模板,功能强大且开箱即用。 7. 钉钉 AI 超级助理:依托于钉钉强大的场景和数据优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 此外,智谱·AI 开源的语言模型中也有与 Agent 相关的,如 AgentLM7B、AgentLM13B、AgentLM70B 等。
2025-03-29
mcp 有什么开源的方案吗
Anthropic 于 2024 年 11 月推出并开源了 MCP(模型上下文协议)。MCP 就像一个“转接头”或“通用插座”,能统一不同的外部服务,如 Google Drive、GitHub、Slack、本地文件系统等,通过标准化接口与大语言模型对接。开发者基于 MCP 规范开发一次“接口适配器”(MCP 服务器),就能让所有兼容 MCP 的模型(MCP 客户端)无缝接入,无需针对每个模型单独适配,大幅提升兼容性与开发效率。MCP 里面还包含 SSE(ServerSent Events),是一种允许服务器向浏览器推送实时更新的技术。MCP 像为 AI 模型量身定制的“USBC 接口”,可以标准化地连接 AI 系统与各类外部工具和数据源。与传统 API 相比,MCP 是单一协议,只要一次整合就能连接多个服务;具有动态发现功能,AI 模型能自动识别并使用可用的工具;支持双向通信,模型不仅能查询数据,还能主动触发操作。相关链接:
2025-03-27
帮我列举2025年3月1日以来,国内外、闭源开源模型厂商的更新记录。
以下是 2025 年 3 月 1 日以来,国内外、闭源开源模型厂商的部分更新记录: 2025 年 3 月 20 日,OpenAI 推出了一套全新的音频模型,旨在通过 API 为开发者提供更智能、更可定制的语音代理支持,包括改进的语音转文本和文本转语音功能,为语音交互应用带来显著提升。 李开复公开表示 OpenAI 面临生存危机,商业模式不可持续。他强调中国的 DeepSeek 以极低成本提供接近的性能,开源模式将主导未来 AI 发展。他认为企业级 AI 应用将成为投资重点,资源限制反而促进了创新。李开复大胆预测,中国将出现三大 AI 玩家,竞争愈发激烈。 SuperCLUE 发布《中文大模型基准测评 2025 年 3 月报告》,指出 2022 2025 年经历多阶段发展,国内外模型差距缩小。测评显示 o3mini总分领先,国产模型表现亮眼,如 DeepSeekR1 等在部分能力上与国际领先模型相当,且小参数模型潜力大。性价比上,国产模型优势明显。DeepSeek 系列模型深度分析表明,其 R1 在多方面表现出色,蒸馏模型实用性高,不同第三方平台的联网搜索和稳定性有差异。 以上信息来源包括: 《》 《》 《》
2025-03-26
现在Ai作图用什么?还是以前的Stable Diffusion吗?还是又出现了新的开源软件?
目前在 AI 作图领域,Stable Diffusion 仍然是常用的工具之一。Stable Diffusion 是 AI 绘画领域的核心模型,能够进行文生图和图生图等图像生成任务,其完全开源的特点使其能快速构建强大繁荣的上下游生态。 除了 Stable Diffusion,也出现了一些新的相关开源软件和工具,例如: :Stability AI 开源的 AI 图像生成平台。 :拥有超过 700 种经过测试的艺术风格,可快速搜索查找各类艺术家,并支持一键复制 Prompt。 同时,市面上主流的 AI 绘图软件还有 Midjourney,其优势是操作简单方便,创作内容丰富,但需要科学上网并且付费。如果您想尝试使用 Stable Diffusion,可以参考 B 站【秋葉 aaaki】这个 Up 主的视频了解具体的安装方法。
2025-03-24
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14
最近一个月有哪些产品更新了ai能力
以下是近一个月 AI 能力更新的相关产品情况: 1. 在 AI 视频应用场景方面: 服务头部创作者方面,未来产品会增强编辑器能力,智能化后期制作任务。 影视后期方向,可将动捕演员表演转化为虚拟角色提高特效制作效率。 专业领域,创作者能通过草图分镜快速验证效果,如动画制作产品 Fable 于今年 4 月试水 Prism Beta 功能。 C 端大众消费侧,AI 视频在小说、网文阅读、短情景剧等内容消费方向有潜力,人物识别和替换可衍生电商平台虚拟试衣间能力。 Viggle、DomoAI 的产品中的模板套用能力若以更低成本开放在短视频产品中,可能带来新的爆发周期。 2. Luma AI 产品: Dream Machine 目前支持 txt2vid 文生视频和 img2vid 图生视频两种能力,8 月底发布的 Dream Machine 1.5 增强了提示词理解能力和视频生成能力,对视频内文字的表现很强。 在 img2vid 图生视频方面,生成效果在多方面远超其他产品,如生成时长较长、运动幅度大、能产生相机多角度位移、提示词中可增加无人机控制的视角变化、运动过程中一致性保持较好、分辨率高且改善了运动幅度大带来的模糊感。 3. 头部产品能力测评: 9 月初针对 Runway(Gen3)、Luma AI(Dream Machine1.5)、可灵 1.0 进行了 txt2vid 和 img2vid 不同场景的测试。 9 月末可灵 1.5 与 Luma、Runway Gen3 的差距在缩小。
2025-02-19
我是一个ai小白,我想要在一个月内快速入行ai,需要怎么做
以下是对于您在一个月内快速入行 AI 的建议: 首先,要明白对于超出自己理解范围的事情,最简单有效的方法就是亲自尝试。学习新事物,百闻不如一练。AI 是未来必然的发展方向,其科普还有很长的路要走,但尽可能简单地试用它,是让普通人在这场 AI 浪潮中受益的最佳方式。 对于普通人来说,对 AI 最好的直观初接触主要有两个方面: 1. 思考最低成本能直接上手试的工具是什么,自己能否亲自尝试。 2. 了解现在最普遍或最好的工具是什么,以及它们能达到的效果。 虽然底层都是大模型,但 AI 工具各有侧重,不同公司也会进行各自的优化。关于每一种工具的详细入门、讲解和应用,WayToAIG 已经分好了类目。为了更便捷地展示 AI 的能力,让普通人能更直观地马上上手,您可以重点关注以下几种工具: 1. 聊天工具 2. 绘画工具 3. 视频工具 4. 音乐工具 如果您想要跟他人交流、一起在 AI 路上探寻,可以戳这里:
2025-02-18
充值gpt 一个月需要多少钱?
GPT4 的充值价格为 20 美元一个月。GPT3.5 免费使用。 此外,在某些平台如极简未来(Link.AI)平台,充值 19 元可兑换 10000 积分用于使用 GPT 3.5 能力的大模型。
2024-12-13
最近一个月最重要的AI动态
以下是最近一个月的一些重要 AI 动态: 2024 年 4 月第二周:谷歌发布了一堆 AI 能力和升级,AI 音乐生成工具 Udio 发布,Open AI 发布 GPT4 Turbo 正式版,AI 画图应用 Ideogram 发布模型更新。 2024 年 4 月第三周:Meta 正式发布 Llama3 8B、70B 模型,Open AI 的 Assistants API 更新等,Reka Core 发布,一个 GPT4 级别的多模态 LLM,Mixtral8X22B 模型开源。 2024 年 4 月第四周:Open AI 的动态包括企业服务、起初研究和 ChatGPT 体验优化。 2024 年 5 月第一周:Claude 推出移动应用以及团队版计划,突然爆火的两款 SD 图像风格,亚马逊推出了 Amazon Q AI 助手。 2024 年 5 月第二周:Open AI 高强度预热发布会,Open AI 宣布和 Stack Overflow 达成合作,Controlnet 作者敏神发布 ICLight 光线融合生成项目。 此外,在过去的一段时间里,人工智能行业发展迅速。在过去 12 个月里,人工智能行业是重要的技术发展之一。从 2022 年 9 月到 2023 年 8 月,研究的工具访问量大幅增长。这一飞跃从去年 11 月 ChatGPT 成为最快达到 100 万用户的平台开始,炒作持续攀升,直到 2023 年 5 月达到峰值,之后虽有回落,但人们的兴趣仍然巨大。 另外,关于如何使用 AI 做事,目前似乎没有完善的用户文档,相关指南多通过 Twitter 影响者获得。作者基于自身经验为学生和读者准备的人工智能入门指南也需不断修改。
2024-11-15
帮我制定《通往AGI之路》的学习规划。并在为期一个月内将内容全部学完并掌握AI基本操作技巧
以下是为您制定的为期一个月的《通往 AGI 之路》学习规划: 第一周: 了解并选择感兴趣的学习小组,如 AI 音乐之路、关键词学社(AI 绘画)、SD 学社(AI 绘画)、AI 视频学社等。按照相应要求进群,如添加微信或飞书群,并备注相关信息。 第二周: 熟悉所选学习小组的活动规则和学习内容。 对于 AI 绘画相关的小组,开始学习相关软件的基本操作。 第三周: 积极参与小组活动,如根据关键词出图测试、案例实操等。 尝试将所学应用到实际操作中,如创建图像流智能体等。 第四周: 总结所学知识和实践经验。 巩固 AI 基本操作技巧,确保能够熟练运用。 在学习过程中,要注重学以致用,通过学习、分享不断填补知识的缝隙,成长进步。同时,要记住“少就是多”“先有个初识”“目录索引推荐”“兴趣最重要”“先动手”等学习要点,找到适合自己的学习路径。
2024-10-23