Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

本地编程辅助大模型,推荐用哪些插件和基座模型

Answer

以下是为您推荐的一些用于本地编程辅助的插件和基座模型:

  1. 插件:
    • OpenRouter:新发布的 BYOK 功能,可集成 xAI、OpenAI、Mistral 等数十个平台的 Key,能同时使用其他平台和 OpenRouter 的免费额度。目前支持白“赚”的平台包括 AI Studio、Cohere、DeepSeek、Mistral、SambaNova、Together、xAI 等。
    • simple-one-api:若对国产大模型支持有需求,熟悉代码的可通过本地或 Docker 启动。
  2. 基座模型:
    • 推理模型:o1、gemini-2.0-flash-thinking
    • 代码模型:claude-3.5-sonet(性能强)、gpt-4o-mini(价格友好)
    • 多模态模型:gemini-2.0-flash
    • 常规模型:DeepSeek V3
    • 开源中文大语言模型:

此外,对于 SDXL 的本地部署,大模型分为 base+refiner 和配套的 VAE 模型两部分。base 是基础模型用于文生图操作,refiner 用于细化生成的模型以获得更丰富的细节,VAE 用于调节图片效果和色彩。要在 webUI 中使用,需将 webUI 版本升级到 1.5 以上,并将模型放入对应文件夹。

Content generated by AI large model, please carefully verify (powered by aily)

References

4款插件2个API,我把Cursor“迭代”成了满血超频版程序员

这就要先提到API大户OpenRouter新发布的功能:BYOK(Bring Your Own API Keys)简单来说是个第三方Key集成功能,将xAI、OpenAI、Mistral等数十个平台的Key集中在一起。跟其他的集成项目最大的不同是可以同时使用其他平台和OpenRouter的额度。以gemini-2.0-flash为例,相当于可以同时使用OpenRouter和AI Studio的免费额度。目前支持白“赚”的平台:AI Studio/Cohere/DeepSeek/Mistral/SambaNova/Together/xAI模型太多也不是好事,虽然有快捷键,但编程过程中还是需要人脑判断用哪个模型,我理想的配置应该是:推理模型:o1、gemini-2.0-flash-thinking代码模型:claude-3.5-sonet(还是太能打了)、gpt-4o-mini(价格友好)多模态模型:gemini-2.0-flash常规模型:DeepSeek V3使用OpenRouter集成API Key的好处不仅是整合了免费额度,还解放了更多的槽位。毕竟在Cursor的设置里,deepseek就会跟gpt的配置发生冲突。也就是说虽然我有十几个key,但是我同一时间最多只能使用4个类型的模型。当然,如果觉得这些供应商支持的模型还不够,特别是对国产大模型支持比较少的话,我们还可以使用上古真神:simple-one-api不过simple-one-api不像openrouter,支持直接在线配置多个Key。熟悉代码的可以通过本地或者Docker启动。如果你想跟我一样,在其他环境也想用到配置好的大模型们,我觉得可以试试看Zeabu r:

【SD】向未来而生,关于SDXL你要知道事儿

SDXL的大模型分为两个部分:第一部分,base+refiner是必须下载的,base是基础模型,我们使用它进行文生图的操作;refiner是精炼模型,我们使用它对文生图中生成的模型进行细化,生成细节更丰富的图片。第二部分,是SDXL还有一个配套的VAE模型,用于调节图片的画面效果和色彩。这三个模型,我已经放入了云盘链接中,大家可以关注我的公众号【白马与少年】,然后回复【SDXL】获取下载链接。想要在webUI中使用SDXL的大模型,首先我们要在秋叶启动器中将webUI的版本升级到1.5以上。接下来,将模型放入对应的文件夹中,base和refiner放在“……\sd-webui-aki-v4.2\models\Stable-diffusion”路径下;vae放在“……\sd-webui-aki-v4.2\models\VAE”路径下。完成之后,我们启动webUI,就可以在模型中看到SDXL的模型了。我们正常的使用方法是这样的:先在文生图中使用base模型,填写提示词和常规参数,尺寸可以设置为1024*1024,进行生成。我这边使用了一个最简单的提示词“1girl”,来看看效果。生成的图片大家可以看一下,我觉得是相当不错的。我知道大家心里可能会想——“就这,还好吧,也没有那么惊艳吧?”,那么,我用同样的参数再给你画一幅sd1.5版本的图像,你就能看出进步有多大了。是不是没有对比就没有伤害?SDXL,真香!

LLM开源中文大语言模型及数据集集合

Fengshenbang-LM:地址:[https://github.com/IDEA-CCNL/Fengshenbang-LM](https://github.com/IDEA-CCNL/Fengshenbang-LM)简介:Fengshenbang-LM(封神榜大模型)是IDEA研究院认知计算与自然语言研究中心主导的大模型开源体系,该项目开源了姜子牙通用大模型V1,是基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。除姜子牙系列模型之外,该项目还开源了太乙、二郎神系列等模型。BiLLa:地址:[https://github.com/Neutralzz/BiLLa](https://github.com/Neutralzz/BiLLa)简介:该项目开源了推理能力增强的中英双语LLaMA模型。模型的主要特性有:较大提升LLaMA的中文理解能力,并尽可能减少对原始LLaMA英文能力的损伤;训练过程增加较多的任务型数据,利用ChatGPT生成解析,强化模型理解任务求解逻辑;全量参数更新,追求更好的生成效果。Moss:地址:[https://github.com/OpenLMLab/MOSS](https://github.com/OpenLMLab/MOSS)简介:支持中英双语和多种插件的开源对话语言模型,MOSS基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。

Others are asking
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14
trae 推荐安装那个版本的 vscode插件
在 Trae 中安装 VS Code 插件可以通过以下方式: 1. 从 Trae 的插件市场安装: 在左侧导航栏中,点击插件市场图标,界面左侧显示插件市场面板。 搜索您想要的插件并在未安装列表中将其选中,界面上显示该插件的详情窗口,展示该插件的详细说明、变更日志等信息。 点击安装,Trae 开始安装该插件。安装完成后,该插件会出现在已安装列表中。 2. 从 VS Code 的插件市场安装: 前往。 搜索您想要的插件,例如:Pylance。 在搜索结果中,点击您所需的插件,您会前往该插件的详情页。 在详情页中,点击 Version History。 结合插件页的 URL 和 Version History 中的信息,提取出以下信息(以 Pylance 为例): itemName:URL Query 中的 itemName 字段,如截图中的 mspython.vscodepylance,并将小数点(.)前后的内容分成以下两个字段: fieldA:mspython fieldB:vscodepylance version:如截图中的 2025.1.102 使用提取出来的 3 个字段的值替换下方 URL 中的同名字段。 在浏览器中输入修改后的 URL,然后按下回车键,浏览器开始下载该插件。 下载完成后,返回 Trae 并打开插件市场。 将下载的.vsix 文件拖拽至插件市场面板中,Trae 开始自动安装该插件。安装完成后,该插件会出现在已安装列表中。 此外,如果 VS Code 插件市场中某个版本的插件依赖了新版 VS Code 中的某些接口,则可能会导致该插件与 Trae 不兼容。您可以查看该插件的 Version History,然后下载该插件的历史版本。 管理插件还包括禁用插件和卸载插件: 1. 禁用插件: 在 Trae 中,打开插件市场。 在已安装列表中,找到需禁用的插件。 鼠标悬浮至列表中的插件,然后点击设置>禁用。或点击该插件以打开其详情窗口,然后点击禁用。 2. 卸载插件: 在 Trae 中,打开插件市场。 在已安装列表中,找到需卸载的插件。 鼠标悬浮至该插件,然后点击卸载。或点击该插件以打开其详情窗口,然后点击卸载。
2025-04-19
我们是搜索团队的产品经理,团队定位倾向于“对于插件的建设与调用”定位,现在要做AI相关的产品规划,请以通俗易懂的方式对以下问题做出回答 1、请通过流程图的方式,介绍【插件/工具】能力在大模型生态架构中的环节、定位、实现流程是什么 2、调研下对于我们搜索团队而言,插件应该做什么,可以做什么 3、思考对于大模型来说,有哪些(通用或垂类)的模块/功能/插件是无法绕开的,或高频使用的,作为我们团队后续争取的发力点(如搜索推荐对于传统综合搜索结果页)
以下是为您提供的关于 AI 相关产品规划的回答: 一、插件/工具能力在大模型生态架构中的环节、定位、实现流程 从 2023 年 3 月份 OpenAI 宣布插件计划开始,到 5 月份上线,其中包括联网、代码、画图三个插件。其实现流程大致为: 1. 经过对模型的微调,检测何时需要调用函数(取决于用户的输入)。 2. 使用符合函数签名的 JSON 进行响应。 3. 在接口层面声明可调用的工具。 4. 使用函数和用户输入调用模型。 5. 使用模型响应调用 API。 6. 将响应发送回模型进行汇总。 二、对于搜索团队,插件可以做和应该做的事 目前没有直接针对搜索团队插件具体可做和应做事项的明确内容,但可以参考 OpenAI 的插件计划,例如开发与搜索相关的特定功能插件,或者探索如何将现有的搜索推荐功能与大模型更好地结合。 三、对于大模型无法绕开或高频使用的模块/功能/插件 目前没有直接指出对于大模型无法绕开或高频使用的具体模块、功能或插件。但从相关信息中可以推测,例如与数据获取和处理相关的插件(如联网)、与技术开发相关的插件(如代码)以及与内容生成相关的插件(如画图)可能是较为重要和高频使用的。对于搜索团队来说,可以考虑在这些方向上寻找发力点,结合搜索推荐等传统功能,开发出更具竞争力的插件。
2025-04-08
找一下翻译插件
以下为您介绍一些翻译插件和方法: 1. 提示词翻译副本 Alekpet: 插件地址:安装后重启 ComfyUI 即可。 将 CLIP 文本编码器转换为输入,连接翻译文本节点即可使用。 链接:https://github.com/kingzcheung/ComfyUI_kkTranslator_nodes 2. 提示词翻译副本 Prompt_Translate_to_English: 用的百度翻译 API 方法如下: 下载节点压缩包,并将它放在 custom_nodes 文件夹。 去百度翻译 Api 和登记册开发人员的帐户中得到您的 appid 和 secretKey。 百度翻译平台地址:https://fanyiapi.baidu.com/manage/developer 。 打开文件 config.py 在记事本/其他编辑,填您的 secretKey 在引号的 secretKey ="",保存文件重启 Comfy 即可。 3. 翻译一份英文 PDF 完整地翻译成中文的方法: DeepL(网站): 点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 沉浸式翻译(浏览器插件): 安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML/TXT 文件」、「翻译本地字幕文件」。 calibre(电子书管理应用): 下载并安装 calibre,并安装翻译插件「Ebook Translator」。 谷歌翻译(网页): 使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 百度翻译(网页): 点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、PDF、Word、Excel、PPT、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 浏览器自带的翻译功能:如果一些 PDF 太大,翻译工具不支持,除了将 PDF 压缩或者切分外,还可以转成 HTML 格式,然后使用浏览器自带的网页翻译功能。
2025-04-08
ai和office软件结合的插件有哪些
以下是一些 AI 和 Office 软件结合的插件: 1. Excel Labs:这是一个 Excel 插件,新增了基于 OpenAI 技术的生成式 AI 功能,可用于数据分析和决策支持。 2. Microsoft 365 Copilot:微软推出的 AI 工具,整合了 Word、Excel、PowerPoint、Outlook、Teams 等办公软件,能通过聊天形式完成用户需求,如数据分析和格式创建。 3. Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,用户可通过自然语言交互式地进行数据分析和生成 Excel 公式。 4. Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,能进行公式生成、生成相关文本内容、执行情感分析、语言翻译等任务。 随着技术发展,未来可能会有更多 AI 功能集成到 Office 软件中,进一步提高工作效率和智能化水平。内容由 AI 大模型生成,请仔细甄别。
2025-04-01
coze上提取视频文案的插件有哪些?都是怎么调用的
以下是关于在 coze 上提取视频文案的插件及调用方法: 1. 进入 coze 个人空间,选择插件,新建一个插件并命名,如 api_1。 2. 在插件的 URL 部分,填入通过 ngrok 随机生成的 https 的链接地址。 3. 配置输出参数和 message 输出。 4. 测试后发布插件。 需要注意的是: 1. 如果在生产环境中已有准备好的 https 的 api,可直接接入。 2. 本案例中使用的是 coze 国内版,且案例中的 ngrok 仅供娱乐,在生产环境中勿用。
2025-04-01
如何综合运用插件、工作流、知识库,搭建满足各种需求的智能体,尤其是调用多个智能体,组成像Manus这样的工具?
要综合运用插件、工作流、知识库搭建满足各种需求的智能体,尤其是调用多个智能体组成类似 Manus 的工具,需要了解以下内容: 插件:插件如同一个工具箱,里面可放置一个或多个工具,称为 API。扣子平台有多种类型的插件,如看新闻、规划旅行、提高办公效率、理解图片内容的 API 及能处理多种任务的模型。若平台现有插件不符合需求,还可自行制作添加所需 API。 工作流:工作流类似可视化拼图游戏,可将插件、大语言模型、代码块等功能组合,创建复杂稳定的业务流程。工作流由多个节点组成,开始和结束节点有特殊作用,不同节点可能需要不同信息,包括引用前面节点信息或自行设定信息。 知识库:可上传私有文件作为回答参考。 智能体:智能体是对自定义操作的封装,用于解决特定场景问题。以 ChatGPT 的 GPTs 为例,包括描述作用和回复格式的提示词、作为回答参考的知识库、请求第三方 API 获取实时数据的外挂 API 以及个性化配置等。 例如,在“竖起耳朵听”的智能体中添加了插件和工作流的相关设置。创建智能体时,输入人设等信息,并配置工作流。但需注意,如工作流中使用的插件 api_token 为个人 token 时,不能直接发布,可将其作为工作流开始的输入,由用户购买后输入使用再发布。 此外,在 AI 搜索中,可预置 after_answer 钩子,将请求大模型的上下文和回答发给第三方插件整理成文章或思维导图等格式同步到第三方笔记软件。全流程中有很多节点可做 Hook 埋点,多个插件构成可插拔架构,常用功能可抽离成标准插件用于主流程或辅助流程,还可自定义智能体 Agent 等。
2025-03-29
如何使用cursor进行编程
以下是关于如何使用 Cursor 进行编程的相关信息: Cursor 旨在让您极其高效,是使用 AI 进行编码的最佳方式。您可以从代码库中获得最佳答案,参考特定文件或文档,一键使用模型中的代码。 它允许您使用指令编写代码,通过简单的提示就能更新整个类或函数。 Cursor 能通过预测您的下一个编辑,让您轻松完成更改。
2025-04-18
作为一个小白,如何开始ai编程
以下是小白开始 AI 编程的步骤和相关建议: 直接上手: AI 编程就像一场 PUA 和提问大赛。 要分辨 Chat 和 Composer 两个模式。Chat 模式可与大模型对话,但常用的是 Composer 模式,它能即时反馈,直接创建文件、填写代码并询问您是否满意。 例如,在 Composer 模式下输入“给我创建一个 2048 的网页游戏吧”,1 2 分钟后会生成相关文件。 生成文件后,可打开文件夹找到 index.html 双击查看本地运行效果。若环境报错双击打不开,可截图在 Composer 对话框询问解决方法。 思想准备: 对于小白来说,因为无知会充满勇气和忧虑。能从心理上面对“我或许能行”这件事,可能就解决了 AI 编程问题的一半。 后续探索: 作者将继续探索并更新相关文章,包括: 第一弹,一点小小的震撼——cursor 黑客松。 第二弹,文案工作者的福音——cursor 批量写 prompt、写文章。 第三弹,上一辈的崛起——cursor 的“向上”,给爹妈一场安利。 如果想要交流或了解更多,欢迎戳这里:
2025-04-14
如何快速上手Cursor、Windsurf、V0.dev、bolt.new、Devin等AI编程产品的经验,能快速转型为AI产品经理?
以下是关于快速上手 Cursor、Windsurf、V0.dev、bolt.new、Devin 等 AI 编程产品并转型为 AI 产品经理的一些经验: 1. 深入理解用户场景和 AI 能力边界:要构建差异化的 AI Native 体验,需要同时对 AI 能力边界和用户场景有深入洞察。 2. 持续迭代产品:在快速变化的模型能力下,避免在每次的基座模型迭代中掉队或被淘汰。 3. 构建良好的模型产品化能力和基础设施:使得应用可以持续收集用户数据以迭代模型。 对于具体的产品: Cursor: 允许用自然语言描述需求,对上下文有深度理解能力,能理解整个项目的结构和依赖关系,进行跨文件的语义分析。 提供智能的代码重构建议,自动诊断和修复常见错误,基于代码自动生成文档。 但要注意,即使有 AI 辅助,当好产品经理也不容易,需要反复沟通和调整。 Devin:作为 2024 年横空出世的产品,预示着软件开发范式的根本转变。 Windsurf、V0.dev、bolt.new 等: 可以使用如 Cursor Composer 构建产品、使用 Bolt.new 构建产品、使用 V0.dev 生成组件等。 此外,国内知名的 AI 全栈开发者 @idoubi 分享了相关使用经验,包括自动补全代码、Debug&&Fix Error、实时对话&&联网搜索、写提示词、写前端页面、截图生成组件、写常用的代码逻辑/函数、代码重构、多语言翻译等方面。同时,对于零代码基础的人员,也有使用相关工具实现想法的方法,如使用 Cursor Composer、Bolt.new、Claude 等构建不同类型的应用。还可以盘点常用的 AI 辅助编程工具和使用场景,如 AI 编辑器(Cursor、Windsurf、Pear Al 等)、编辑器 AI 扩展(Github Copilot、Continue、Cline 等)、UI 组件生成工具(Cursor、V0.dev、Claude、screenshottocode 等)、完整项目构建工具(Cursor、Bolt.new、Replit Agent、Wordware 等)。
2025-04-10
AI编程蓝皮书
以下是关于“AI 编程蓝皮书”的相关内容: 字节发布全新 AI IDE:Trae,免费使用 Claude,发布 3 天阅读量超 3 万。Trae 原生中文支持,无需安装中文插件,语言设置为中文后操作细节清晰明了,还有匠心设计的交互体验,比如直接叫审查,不用琢磨 Diff。 2 月 18 日晚 8:00 有关于 Trae 的直播,飞书会议地址为 https://vc.feishu.cn/j/254331715,邀请了多位重磅嘉宾。 有人受小红书金句格言卡片启发,思考能否通过简单操作实现卡片制作工具。看了黄叔的《AI 编程蓝皮书》和直播课,明白目前编程可用自然语言交互实现,降低了门槛,清晰向 AI 说明需求很重要,以及了解了调用 API 是怎么回事。相关文档:
2025-04-09
COE团队需要什么AI能力,比如AI辅助编程;AI部署+和调优;AI智能体;AI提示词; OCR识别
COE 团队可能需要以下 AI 能力: 1. AI 辅助编程:虽然 AI CODING 目前适用于小场景和产品的第一个版本,但在复杂应用中可能存在需求理解错误导致产品出错的情况。 2. AI 部署和调优:涵盖服务器创建、搭建微信机器人到引入 coze API 的全过程,包括 Docker 部署、本地运行、RailWay 部署等多种方式。 3. AI 智能体:从最初只有对话框的 chatbot 到有更多交互方式,低代码或零代码的工作流等场景做得较好。例如以证件照为例,实现了相关智能体和交互。创建智能体工作流包括创建、编辑人设、编排设计等步骤。 4. AI 提示词:在编写系统提示词时需要用{{input}}作为参数引入,以使大模型知道需要生成与输入相关的结果。 5. OCR 识别:未提及相关具体内容。 同时,在图像能力方面,支持图片生成、图片识别、图生图等,可选择 Dal3、stable diffusion、replicate、midjourney、CogView3、vision 模型。具有丰富插件,支持个性化插件扩展,已实现多角色切换、文字险、敏感词过滤、聊天记录总结、文档总结和对话、联网搜索等插件。通过上传知识库文件可自定义专属机器人,作为数字分身、智能客服、私域助手使用,基于 LinkAI 实现。
2025-04-09
学编程
以下是关于学习编程的一些建议和经验: 1. 借助 AI 学习编程的关键: 从“Hello World”起点开始,验证环境、建立信心、理解基本概念,打通“理解→实践→问题解决→加深理解”的学习循环。 使用流行语言和框架(如 React、Next.js、TailwindCSS)。 先运行再优化,小步迭代,一次解决一个小功能。 借助 AI 生成代码后请求注释或解释,帮助理解代码。 遇到问题三步走:复现、精确描述、回滚。AI 是强大的工具,但仍需人工主导,掌握每次可运行的小成果才能实现持续提升。 原文: 2. o1 pro 重构代码的体验: 适用于单个或少数几个文件的代码重构,提示词简单直接。 效果:重构质量可靠,极少出错,若有问题重新生成一般即可解决。 实践方法:一边重构一边添加新功能,完成后手动 Review 和测试,有条件的话让 AI 顺便生成测试代码更佳。 原文: 3. 教孩子学编程的经验分享: 方法总结: 找需求:选择一个实用的小项目,例如浏览器插件,激发学习兴趣。 与 AI 结对编程:先学习基础知识(如 Chrome Dev Tool 查找 API),然后借助 AI 完成第一版代码,快速构建可用版本。 解释代码:通过讲解代码工作原理加深理解,遇到不清楚的地方让 AI 辅助解释,反复学习并修改代码观察效果。 迭代功能:在基础版本上不断增加新功能(如显示图片、本地存储等),通过迭代完善程序,同时在实践中学习。 关键理念: 通过实际项目激发兴趣,学以致用。 采用费曼学习法:讲解代码工作原理,教会别人才能真正掌握。 借助 AI 辅助编程,解决问题与学习编程技能同步进行。 原文: 4. 用 GPT4 构建的 AI 编程 Master 测试: 例如,当表示想用 Rust 开发一个程序时,AI 编程 Master 会进一步询问关于程序的类型、具体项目想法以及编程经验等细节,以更好地提供帮助。 GPTs:
2025-04-01
什么是基座模型
基座模型是在自然语言处理领域中具有重要地位的模型。 例如,GLM(General Language Model)是清华提出的基座模型,属于Prefix LM方式。其出发点是希望能同时在3种NLP任务上达到最优,同时不想引入原始encoderdecoder成倍的计算量代价。具体做法是先用双向网络encoder对题干(prompt)审题,然后通过decoderonly的方式把题干中位置做展开作答。 此外,还有一些开源的基座模型,如: 1. CPMBee:一个完全开源、允许商用的百亿参数中英文基座模型。采用Transformer自回归架构,在超万亿高质量语料上进行预训练,拥有强大的基础能力。 2. TigerBot:一个多语言多任务的大规模语言模型,开源了包括模型:TigerBot7B、TigerBot7Bbase、TigerBot180B,基本训练和推理代码,100G预训练数据,涵盖金融、法律、百科的领域数据以及API等。 3. 书生·浦语:由商汤科技、上海AI实验室联合香港中文大学、复旦大学和上海交通大学发布的千亿级参数大语言模型,具有1040亿参数,基于“包含1.6万亿token的多语种高质量数据集”训练而成。 在一些应用中,如Kolors,会选择直接使用大语言模型如ChatGLM6BBase作为文本编码的基座模型。
2024-12-27