Navigate to WaytoAGI Wiki →
Home/All Questions
AGI比赛在哪里可以看
以下是一些 AGI 相关的比赛信息: 【线下⬇️】Founder Park:6 月 22 日 6 月 23 日在北京朝阳 751 园区举行。李大海、Troy Cui、王长虎、汪华、王小川、杨建勃、阳萌、杨植麟、赵霏等大佬聚集。面壁智能、亚马逊、爱诗科技、创新工场、百川智能、可以科技、安克创新、月之暗面、Google 等参与。WaytoAGI 专属购票优惠:全票种八折(WH87),Workshop 七折(YP9X)。购票链接:https://mp.weixin.qq.com/s/GxEMDxak0V7VgsAFPIY_oA 【线下⬇️】北大创新学社 AI Demo Day:6 月 22 日在北京大学中关新园 B1 群英厅举行。活动报名链接:https://mp.weixin.qq.com/s/YIElRYINpyu6t0oL5o3fg 【线上⬆️】:6 月 19 日 6 月 27 日,组队中。链接:https://waytoagi.feishu.cn/wiki/PX1WwghGpijTbbkazFMcFIbMneb 。Coze 大赛有 13 万奖金、超多流量扶持、字节 Offer、入选即可获得扣子周边 T 恤。 HB(HBHuman VS.Bot:“谁是人类”):由 WayToAGI 主办,阿里云百炼和通义千问赞助发起的 AI 共学活动。大赛设置连续三轮迭代式初赛和一次决赛,鼓励专业人士及 Agent 爱好者们制作 AI Agent 及创意性赋予 AI Bot 人设,比赛谁的 bot 更让人难以分辨。活动形式为在一个活动群里,主持人出题,AI 机器人+人类卧底潜伏在微信群中回答问题。一场比赛 6 8 轮,每轮群众选出谁是人类。围观群众可在比赛时间查看视频号「通往 AGI 之路」或「阿里云」。参与选手可加入微信群,7 月 24 日首次共学结束后,群中统一招募。会议时间均为 20:00 22:00,会议 ID:804 075 240,会议链接:https://vc.feishu.cn/j/804075240,加入共学日历:
2025-03-31
我是一名日语大四学生,我要利用我的开题报告和文献综述结合deepseek完成一篇论文初稿,请问怎么向deepseek提问
向 DeepSeek 提问时,可遵循以下万能通用的提问公式:提示词=赋予角色+背景/现状+目标/需求+补充要求。 1. 赋予角色(选填):对 DeepSeek 赋予一个特定的角色,以便它能更专业地回答您的问题。 2. 背景/现状(必填):提供尽可能详细的背景信息,以使它更好地理解您的问题,并为您提供更准确的答案。例如您是日语大四学生,正在进行开题报告和文献综述相关工作。 3. 需求/目标(必填):明确告诉 DeepSeek 您的需求,比如完成一篇结合开题报告和文献综述的论文初稿。 4. 补充要求:例如指定写作风格要具有吸引力、友好性和幽默感等。 另外,在使用 DeepSeek 时还需注意: 对于像“仅通过东方集团的历年公开财务数据,分析这家公司的潜在投资机会和风险”这样的特定需求,可能需要进一步追问以获得更满意的结果。 与 DeepSeek 交流时,在其提供方法建议后,可以追问背后的方法论。 对于创作类的需求,如脱口秀段子,可以结合特定人物的特点和风格,并指定主题和字数等要求。
2025-03-31
用AI做职业测评
以下是关于用 AI 做职业测评的相关信息: 职业规划导师(校招版)功能: 1. 职业趋势分析:基于最新市场数据和行业报告,协助用户分析自身专业或职业的前景,助其了解未来职业趋势。 2. 技能评估与提升:通过测评工具评估用户当前职业兴趣,提供针对性学习资源和课程建议,帮助提升专业技能。 3. 职业匹配与推荐:根据用户兴趣、技能和职业目标,推荐适合的职业路径和职位,提供个性化职业建议。 4. 职业发展规划:结合用户个人情况和市场需求,制定详细的职业发展计划,包括短、中、长期目标,帮助用户在 AI 时代找到职业定位。 后续使用场景及商业化前景: 1. 学生和应届毕业生: 职业选择和规划:了解 AI 技术在不同职业中的应用,评估兴趣和技能,选择合适路径并制定规划。 技能提升:根据职业目标获得个性化学习建议和资源,提升 AI 领域技能。 2. 职场新人和职业转换者: 职业发展指导:制定职业发展计划,明确短期和长期目标。 职业转型支持:提供转型路径和必要技能培训资源,帮助顺利转型。 3. 企业: 人才招聘和培养:评估应聘者 AI 技能水平,选择合适候选人,为现有员工提供职业发展规划和技能提升建议,培养内部 AI 人才。 员工职业发展:为员工制定个性化职业发展计划,提供持续指导和培训,提升满意度和留任率。 4. 教育机构: 职业指导服务:作为学生职业指导一部分,帮助了解 AI 领域职业机会和发展路径,提升就业率。 课程设计和优化:根据市场需求和学生职业规划优化课程设置,提供针对性 AI 技能培训。 5. 职业咨询师: 辅助工具:使用产品为客户提供更精准职业规划建议和技能评估,提升服务质量和效率。 数据支持:基于产品提供的市场数据和职业趋势分析,为客户提供更全面和前瞻性指导。 BotID:7388833785208504358
2025-03-31
请介绍一下WaytoAGI 知识库
WaytoAGI 是一个由一群热爱 AI 的专家和爱好者共同建设的开源 AI 知识库和社区平台。 其特点和内容包括: 1. 涵盖多个版块:如 AI 绘画、AI 视频、AI 智能体、AI 3D 等,包含赛事和活动促进大家动手实践,访问量达 1000 万。 2. 孵化了离谱村项目:这是一个千人共创项目,让大家学习和接触 AI 更容易,参与者不分年龄层,都能通过 AI 工具创作作品。 3. 社区介绍: 是致力于人工智能学习的中文知识库和社区平台,为学习者提供系统全面的 AI 学习路径。 汇集了上千个人工智能网站和工具,提供最新的 AI 工具、应用、智能体和行业资讯。 提供丰富的学习资源,包括文章、教程、工具推荐以及最新的行业资讯等。 定期组织活动,如视频挑战赛、模型创作大赛等,鼓励成员在实践中学习,促进交流与合作。 引领并推广开放共享的知识体系,倡导共学共创等形式,孵化了 AI 春晚、离谱村等大型共创项目。 在没有任何推广的情况下,一年时间已有超过 100 万用户和超千万次的访问量。 4. 目标与愿景:让每个人的学习过程少走弯路,让更多的人因 AI 而强大。 5. 合作情况:目前合作过的公司/产品包括阿里云、通义千问、淘宝、智谱、支付宝、豆包、火山引擎、marscode、coze、堆友、即梦、可灵、MiniMax 海螺 AI、阶跃星辰、百度、Kimi、吐司、liblib、华硕、美团、美的、360、伊利、魔搭、央视频、Civitai、Openart、Tripo3D、青椒云等。 我们是一个开源 AI 社区,坚信人工智能将重新塑造我们的思考和学习方式,在搭建知识库的过程中收获很多,特别感谢一路上支持和推荐知识库的伙伴们。
2025-03-31
AIGC和GAI是什么关系
在公众传播层面: AIGC 指用 Stable Diffusion 或 Midjourney 生成图像内容,后来泛指用 AI 生成音乐、图像、视频等内容。 GAI(Generative AI)强调技术。 生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。 GenAI 涵盖了 LLM 和 AIGC。 国内官方政策文件使用 GenAI 这个词相对科学。 公众传播一般会混用上述名词,但底层是 Transformer 结构。Transformer 底层是 function loss 损失函数,是一个大参数(千亿级别)的回归方程,能在一定 prompt condition 情况下,repeat 曾经出现过的数据内容,实现“生成”能力。大语言模型是一个 perfect memory,repeat 曾经出现的内容。
2025-03-31
chatgpt作图后,显示已经完成,但是无法显示
以下是为您整合的相关内容: GPT4 在通用人工智能的工具使用方面表现出色,能够完成几乎所有任务,包括结合多个工具管理用户的日历和电子邮件。但它也存在一些弱点,如缺乏当前世界知识、难以进行符号操作等,不过能通过使用搜索引擎或 API 等外部工具来克服部分限制。相比之下,ChatGPT 在完成同样任务时存在较多不足。 Andrej Karpathy 亲授的大语言模型入门中提到,ChatGPT 在数学方面不擅长,会使用计算器和工具来完成相关任务,如计算估值、绘制图表、添加趋势线和进行分析等。
2025-03-31
Riffusion
Riffusion 是一个令人瞩目的 AI 音乐产品。它具有深度和现实主义,其新更新在输出中添加了抒情的声音。 在相关技术实施过程中,经历了多个阶段,例如使用 Python 在 Raspberry Pi 上测试 Musicgen API,在 Raspberry Pi 上使用时间编码的 LP 记录测试 Xwax DVS 包,使用键盘矩阵库对按钮输入进行原型设计等。 此外,Riffusion 还推出了 FUZZ 这一全新音乐生成模型,基于扩散模型,支持永久免费开放(只要服务器能撑住)。FUZZ 通过生成声谱图并转换为音频,可输入提示词(音乐类型、乐器、情绪等)生成风格匹配的音乐,还支持无缝风格过渡。 如果您想了解更多关于 Riffusion 的详细信息,比如其安装配置等,可以继续向我提问。
2025-03-31
本地部署大模型硬件配置
本地部署大模型的硬件配置如下: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,最低配置可能运行速度非常慢。对于 SDXL 大模型的本地部署,其分为两个部分,base + refiner 是必须下载的,还有一个配套的 VAE 模型用于调节图片效果和色彩。要在 webUI 中使用 SDXL 的大模型,需在秋叶启动器中将 webUI 的版本升级到 1.5 以上,然后将模型放入对应的文件夹中。对于通义千问的 Qwen2.5 1M 模型的本地部署,使用以下命令启动服务时要根据硬件配置进行设置,如设置 GPU 数量、最大输入序列长度、Chunked Prefill 的块大小、限制并发处理的序列数量等。如果遇到问题,可参考相关的 Troubleshooting 内容。与模型交互可以使用 Curl 或 Python 等方法,对于更高级的使用方式,可以探索如 Qwen Agent 之类的框架。
2025-03-31
帮我写一段cursor的user rules,符合前端开发
以下是关于 Cursor 的 User Rules 相关内容,适用于前端开发: Cursor Rules 简单来说是为 Cursor 做角色定位,使其以更专业的角色服务。它允许开发者为 AI 助手设置特定指导原则和行为模式,让 AI 在生成代码、提供建议和响应查询时能更好适应开发者的编码风格和项目需求。 设置通用规则的步骤如下: 1. 点击界面右上角的小齿轮图标。 2. 在 cursor settings 中找到 Rules。 3. 将相关文本拷贝到 User Rules 后,关掉页面即可。 当您从新手阶段进阶,希望进行更专业的 APP 开发、前后端项目时,可以通过以下方式获取更专业的 Cursor Rules: 1. 访问下方的 github 项目:https://github.com/PatrickJS/awesomecursorrules 。 2. 使用 https://cursor.directory/generate ,根据项目重点直接生成。 设置好 Cursor Rules 后,就可以开始创作第一个小作品,比如一个打砖块的小游戏。首先在右侧对话框中输入本次项目的内容(可以非常口语化),使用 claude3.7 模型等待代码生成完毕。可以看到左侧文件夹生成多个文件,中间显示 AI 生成的不少代码,右边是 AI 告知的互动生成内容。点击右下方的 Accept all 使代码生效。若想查看项目效果,直接跟 AI 说“运行项目”,点击 AI 提示的 Run command 会跳转到预览页面。如果玩起来有问题(如操控感不好、不美观),可以让 AI 进一步帮助美化。 另外,在某些情况下,比如导入 cursor 时,需要上传到 github 并下载到本地,在设置里把 user rules 改成“always respond in 中文”,在 terminal 里输入“npm i”“npm run dev”等操作。
2025-03-31
如何部署本地大模型
以下是本地部署大模型的一般步骤: 1. 部署大语言模型: 下载并安装 Ollama:根据您的电脑系统,从 https://ollama.com/download 下载。下载完成后,双击打开,点击“Install”。安装完成后,将 http://127.0.0.1:11434/ 复制进浏览器中,若出现相关字样则表示安装完成。 下载 qwen2:0.5b 模型(若设备充足可下载更大模型): Windows 电脑:点击 win+R,输入 cmd 点击回车。 Mac 电脑:按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行并粘贴回车,等待自动下载完成。 2. 部署 SDXL 大模型: SDXL 的大模型分为 base+refiner(必须下载)和配套的 VAE 模型。 关注公众号【白马与少年】,回复【SDXL】获取下载链接。 在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 将模型放入对应的文件夹:base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。 3. ComfyUI ollama 本地大模型部署: 先下载 ollama 安装,安装完成后可在电脑桌面右下角或隐藏图标里找到。 下载对应的模型,选择模型并复制对应的命令。 打开命令行界面,输入对应的模型获取命令,等待下载完成。 设置目录,下载的模型会保存到 D:\\ollama\\blobs。 进行 docker 安装,安装会下载一些文件,安装后更改目录,不要放在 C 盘。 进行 Open webui 安装,输入相关命令,安装成功后回到 docker,点击会自动打开网页,第一次使用需注册账号,选择下载好的模型即可开始使用。 4. 错误解决:端口占用问题,在 Windows 上可能出现,运行下面两条命令可以解决。 5. 相关链接: comfyuiollama:https://github.com/stavsap/comfyuiollama?tab=readmeovfile Ollama:https://ollama.com/ docker:https://www.docker.com/ Open webui:https://openwebui.com/
2025-03-31