Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

怎样操作来源模型

Answer

以下是关于操作来源模型的相关内容:

对于某些模型,如 Llama-3.1 8B Instruct,操作方式如下:

  1. 选择自定义提示词(也可选择预定义的话题,即黑色按钮,黑色按钮会有新手使用指引)。然后左边会出现熟悉的 chat 界面。
  2. 输入对话内容,等待左右两边的内容生成。若右边的分析未刷新,在相关按钮间切换。
  3. Activation Mode 可获得整段的推理判断;Attribution Mode 需选中一个 token,它会分析对应的最大关联内容。

对于 ComfyUI 玩 SDXL 的模型,操作要点包括:

  1. 添加噪波:disable,运行后操作:fixed,步数:30,开始降噪步数:20,结束降噪步数:30,返回噪波:disable。
  2. 若将 refiner 的模型连上提示词导致第一个 base 模型的链接断开,可通过加入新节点(右键点击-【新建节点】-【实用工具】-【Primitive 元节点】),在文本节点上单击右键选择【转换文本为输入】,将元节点与文本节点相连接,复制出正负提示词节点分别给 base 模型和 refiner 模型,再将 base 模型的一套输出给第一个采样器节点,refiner 模型的一套输出给第二个采样器节点,使两个模型同时起作用。

对于 Tusiart 模型:

  1. 首页包括模型、帖子、排行榜,可查看大手子炼成的模型、图片,不同模型有 checkpoint 和 lora 等标签,还有 XL 标签属于 SDXL 新模型,点击可看模型详细信息及返图区。
  2. 基础模型(checkpoint)是生图必需的,任何生图操作必须选定,lora 是低阶自适应模型,可有可无,但对细节控制有价值。
  3. ControlNet 可控制图片中特定图像,VAE 类似于滤镜可调整生图饱和度,选择 840000 即可。
  4. Prompt 提示词是想要 AI 生成的内容,负向提示词 Negative Prompt 是想要 AI 避免产生的内容。
Content generated by AI large model, please carefully verify (powered by aily)

References

有人破译了模型回答 9.9<9.11 的原因! (大佬把模型拆了, 解剖神经元帮你解释

1.选择自定义提示词(当然你也可以选之前预定义的话题,也就是黑色的按钮):PS:黑色的按钮会带着你做新手使用指引。然后左边会出现我们熟悉的chat界面,就不详细介绍这个界面。网站上提供的模型是Llama-3.1 8B Instruct:1.输入你的对话内容,等待左右两边的内容生成。如果这时右边的分析没刷新成上图的样子,在这两个按钮之间做做切换。由于它的归因聚类也是用了大模型,所以稍微等等,它也有个反应时间,过程中可能是这样的:最终你得到的结果可能和我不同,甚至可能是正确的答案,猜测是这个模型用的温度temprature不是最低,因此你会得到不同的结果。Activation Mode:你将获得整段的推理判断。Attribution Mode:你需要选中一个token,它会帮你分析对应的内容里最大的关联。1.从结果中,你会发现模型认知的9.11大概率是那个著名的时间,也可能是一个日期。这种情况下,模型就判断9月11日比9月3日大。而如果我们用一个显然不是日期的数字对比,比如9.31和9.4比,大概率答案是正确的:解释也回归到了数字范畴:它从侧面证明了LLM的基本原理:LLM是采用多头注意力机制预测下一个token的,因此训练数据中相关的语句如果越多,它们之间的相关性概率会越高。在这个案例里,9.11作为日期“概念”的权重显然比它是个数字“概念”的权重大。

【ComfyUI】使用ComfyUI玩SDXL的正确打开方式

添加噪波:disable。这里关闭,因为是继承上一个采样器,所以不需要再添加噪声。运行后操作:fixed。相当于锁定随机种子的意思。步数:30。迭代的总步数,和之前保持一致。开始降噪步数:20。传递过来之后,是从第20步开始的。结束降噪步数:30。这个数字也可以保持默认,反正就是运行到结束。返回噪波:disable。不用返回了,到这一步已经结束了。但是,现在问题来了。如果我将refiner的模型连上提示词的话,第一个base模型的链接就会断开,怎么样才能让两个模型同时起作用呢?我们来加入一个新节点,右键点击-【新建节点】-【实用工具】-【Primitive元节点】。这个节点很有意思,它连接谁,就会变成谁的属性。在文本节点上单击右键,选择【转换文本为输入】。此时,文本节点上就多了一个文本的连接点。将元节点与文本节点相连接,这时元节点就变成了正向提示词的输入框。同理,可以将负向提示词框也用元节点代替。再复制出一套正负提示词节点,一套给base模型,一套给refiner模型。然后,base模型的那一套输出给第一个采样器节点,refiner模型的那一套输出给第二个采样器节点。

Tusiart简易上手教程

1.首页-模型\帖子\排行榜:发布了其他大手子炼成的模型、图片。不同的模型有checkpoint和lora两种不同的标签,有些模型的标签后面还有第二个XL的标签,这是属于SDXL这个新模型的意思。点击后可以看模型的详细信息。模型详情信息的下方,是用这个模型生成的图片,俗称返图区。1.基础模型:生图必需的,英文名Checkpoint。任何生图操作必须要选定一个checkpoint模型才能开始操作。注意,checkpoint区别于lora,这两个东西在模型广场都是混着展示的。checkpoint必选,lora可选可不选,任何主题的作图需求,都可以试着在模型广场上搜索或者浏览,然后收集到模型库中用于生图。1.lora:低阶自适应模型,你可以理解为checkpoint的小插件,生图的时候lora可有可无。但是lora的价值还是很明显的,基本上你看到一些精细的控制,如面部、材质、物品等等细节都常见于用相应的lora进行控制。旁边的数值是lora的权重。1.ControlNet:控制图片中一些特定的图像,可以用于控制人物姿态,或者是生成特定文字、艺术化二维码等等。也是高阶技能,后面再学不迟。1.VAE:是个编码器,功能类似于我们熟悉的滤镜,调整生图的饱和度。无脑选择右侧截图中840000这个即可。1.Prompt提示词:想要AI生成的内容(不绝对有效,需要多费功夫学习,哪怕从照抄别人开始)。2.负向提示词Negative Prompt:想要AI避免产生的内容(不绝对有效,也需要费功夫学,哪怕从照抄别人开始)。

Others are asking
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14
我想让我的论文降低AIGC使用率,请问我有什么具体可以操作的办法
以下是一些降低论文中 AIGC 使用率的具体操作办法: 1. 使用 AIGC 论文检测工具: Turnitin:广泛使用的学术剽窃检测工具,增加了检测 AI 生成内容的功能。使用方法是上传论文,系统会自动分析文本并提供详细报告,标示出可能由 AI 生成的部分。 Copyscape:主要用于检测网络上的剽窃行为,虽不是专门的 AIGC 检测工具,但能发现可能被 AI 生成的重复内容。输入文本或上传文档,系统会扫描网络查找相似或重复内容。 Grammarly:提供语法检查和剽窃检测功能,其剽窃检测部分可帮助识别可能由 AI 生成的非原创内容。将文本粘贴到编辑器中,选择剽窃检测功能,系统会提供分析报告。 Unicheck:基于云的剽窃检测工具,适用于教育机构和学术研究,能检测 AI 生成内容的迹象。上传文档或输入文本,系统会分析并生成报告,显示潜在的剽窃和 AI 生成内容。 :专门设计用于检测 AI 生成内容的工具,使用先进算法分析文本,识别是否由 GPT3 或其他 AI 模型生成。上传文档或输入文本,系统会提供详细报告。 :提供免费的 AI 内容检测工具,可识别文本是否由 AI 生成。将文本粘贴到在线工具中,点击检测按钮,系统会提供分析结果。 GPTZero:专门设计用于检测由 GPT3 生成内容的工具,适用于教育和出版行业。上传文档或输入文本,系统会分析并提供报告。 Content at Scale:提供 AI 内容检测功能,帮助用户识别文本是否由 AI 生成。将文本粘贴到在线检测工具中,系统会分析并提供结果。 此外,为了从根本上降低 AIGC 使用率,您还需要注重自身的思考和研究,确保论文内容是基于您的独立见解和深入分析。
2025-04-14
我要根据PPT开发一个网页,请详细提供操作步骤和选择哪一个AI工具更合适。
以下是根据 PPT 开发网页的详细操作步骤以及适用的 AI 工具: 一、生成 PDF 1. 将您的文件转换为 PDF 格式,其他文件格式也可行,但 PDF 效果更佳。 2. 若希望在文章中加入图片,需将图片转换为 Markdown 格式。 网络图片:直接复制图片的 URL,右键图片选择复制 URL,然后用 Markdown 格式写入文档。 自己的图片:使用图床服务(如 https://sm.ms/)托管图片,生成公链。 3. 插入视频:先将本地视频上传到公网(如 B 站),在视频页面寻找“分享”按钮,点击“嵌入”或“嵌入代码”选项获取 URL,用 Markdown 格式写入。 二、适用的 AI 工具 1. 爱设计 网址:https://ppt.isheji.com/?code=ysslhaqllp&as=invite 输入大纲和要点: 导入大纲和要点 输入主题自动生成大纲和要求 选择模版并生成 PPT 导出 2. MindShow 网址:https://www.mindshow.fun//home 输入大纲和要点: 导入大纲和要点 输入主题自动生成大纲和要求 选择模版并生成 PPT 导出 3. Process ON 网址:https://www.processon.com/ 输入大纲和要点: 导入大纲和要点: 手动复制(相对耗时) 导入方式:复制最终大纲内容到本地 txt 文件,将后缀改为.md(若看不见后缀可自行搜索开启),打开 Xmind 软件导入 md 文件,在 Process ON 导入 Xmind 文件。 输入主题自动生成大纲和要求:新增思维导图,输入主题点击 AI 帮我创作。 选择模版并生成 PPT:点击下载,选择导入格式为 PPT 文件,选择模版再点击下载。若喜欢使用且无会员,可在某宝买一天会员。
2025-04-13
我是一个新手,请给我一些AI文本工具的操作指南
以下是为您提供的一些 AI 文本工具的操作指南: AI 内容检测工具 1. 功能:提供免费的 AI 内容检测工具,可识别文本是否由 AI 生成。 使用方法:将文本粘贴到在线工具中,点击检测按钮,系统会提供分析结果。 2. GPTZero 功能:专门设计用于检测由 GPT3 生成的内容,适用于教育和出版行业。 使用方法:上传文档或输入文本,系统会分析并提供报告,显示文本是否由 GPT3 生成。 3. Content at Scale 功能:提供 AI 内容检测功能,帮助识别文本是否由 AI 生成。 使用方法:将文本粘贴到在线检测工具中,系统会分析并提供结果。 TecCreative 创意工具箱 1. AI 字幕 操作指引:点击上传视频——开始生成——字幕解析完成——下载 SRT 字幕。 注意:支持 MP4 文件类型,大小上限为 50M。 2. 文生图 操作指引:输入文本描述(关键词或场景描述等)——选择模型(注意 FLUX 模型不可商用)——开始生成——下载。 3. AI 翻译 操作指引:输入原始文本——选择翻译的目标语言——开始生成。 4. TikTok 风格数字人 操作指引:输入口播文案——选择数字人角色——点击开始生成。 视频默认输出语言和输入文案语言保持一致,默认尺寸为 9:16 竖版。 5. 多场景数字人口播配音 操作指引:输入口播文案——选择数字人角色和场景——选择输出类型——点击开始生成。 视频默认输出语言和输入文案语言保持一致。 AI 文章排版工具 1. Grammarly 不仅是语法和拼写检查工具,还提供排版功能,可改进文档整体风格和流畅性。 2. QuillBot AI 驱动的写作和排版工具,可改进文本清晰度和流畅性,保持原意。 3. Latex 虽不是纯粹的 AI 工具,但广泛用于学术论文排版,使用标记语言描述文档格式,有许多 AI 辅助的编辑器和插件简化排版过程。 4. PandaDoc 文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune AI 写作助手,可重新表述和改进文本,使其更清晰专业,保持原始意图。 6. Overleaf 在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的 AI 文章排版工具取决于您的具体需求,如文档类型、出版标准和个人偏好。对于学术论文,Latex 和 Overleaf 受欢迎,因其提供强大排版功能和广泛学术支持。对于一般文章和商业文档,Grammarly 和 PandaDoc 等工具可能更适用。
2025-04-11
AI文本工具操作文档
以下是为您整理的一些 AI 文本工具的操作文档: AIGC 论文检测网站 1. 功能:提供免费的 AI 内容检测工具,可识别文本是否由 AI 生成。 使用方法:将文本粘贴到在线工具中,点击检测按钮,系统会提供分析结果。 2. GPTZero 功能:专门设计用于检测由 GPT3 生成的内容,适用于教育和出版行业。 使用方法:上传文档或输入文本,系统会分析并提供报告,显示文本是否由 GPT3 生成。 3. Content at Scale 功能:提供 AI 内容检测功能,帮助用户识别文本是否由 AI 生成。 使用方法:将文本粘贴到在线检测工具中,系统会分析并提供结果。 【TecCreative】帮助手册 1. 创意工具箱 AI 字幕 智能识别视频语言并生成对应字幕,满足海外多国投放场景需求。 操作指引:点击上传视频——开始生成——字幕解析完成——下载 SRT 字幕。注意:支持 MP4 文件类型,大小上限为 50M。 文生图 仅需输入文本描述,即可一键生成图片素材,海量创意灵感信手拈来! 操作指引:输入文本描述(关键词或场景描述等)——选择模型(注意 FLUX 模型不可商用)——开始生成——下载。 AI 翻译 支持多语种文本翻译,翻译结果实时准确,助力海外投放无语言障碍! 操作指引:输入原始文本——选择翻译的目标语言——开始生成。 TikTok 风格数字人 适配 TikTok 媒体平台的数字人形象上线,100+数字人模板可供选择,助力 TikTok 营销素材生产无难度! 操作指引:输入口播文案——选择数字人角色——点击开始生成。视频默认输出语言和输入文案语言保持一致,默认尺寸为 9:16 竖版。 多场景数字人口播配音 支持生成不同场景下(室内、户外、站姿、坐姿等)的数字人口播视频,一键满足多场景投放需求! 操作指引:输入口播文案——选择数字人角色和场景——选择输出类型——点击开始生成。视频默认输出语言和输入文案语言保持一致。 工具教程:AI 漫画 Anifusion 网址:https://anifusion.ai/ ,twitter 账号:https://x.com/anifusion_ai 功能: AI 文本生成漫画:用户输入描述性提示,AI 会根据文本生成相应的漫画页面或面板。 直观的布局工具:提供预设模板,用户也可自定义漫画布局,设计独特的面板结构。 强大的画布编辑器:在浏览器中直接优化和完善 AI 生成的艺术作品,调整角色姿势、面部细节等。 多种 AI 模型支持:高级用户可访问多种 LoRA 模型,实现不同的艺术风格和效果。 商业使用权:用户对在平台上创作的所有作品拥有完整的商业使用权,可自由用于商业目的。 使用案例: 独立漫画创作:有抱负的漫画艺术家无需高级绘画技能即可将他们的故事变为现实。 快速原型设计:专业艺术家可以在详细插图之前快速可视化故事概念和布局。 教育内容:教师和教育工作者可以为课程和演示创建引人入胜的视觉内容。 营销材料:企业可以制作动漫风格的促销漫画或用于活动的分镜脚本。 粉丝艺术和同人志:粉丝可以基于他们最喜欢的动漫和漫画系列创作衍生作品。 优点: 非艺术家也可轻松进行漫画创作。 基于浏览器的全方位解决方案,无需安装额外软件。 快速迭代和原型设计能力。 创作的全部商业权利。 缺点:(未提及)
2025-04-11
将照片改成卡通效果用什么ai会比较简单易操作
以下几种 AI 工具可以将照片改成卡通效果,操作相对简单易操作: 1. ChatGPT 4o:支持上传照片后直接生成“吉卜力卡通风格”图像,提示词只需简单写“吉卜力风格化”即可,后续会话中只需上传图片,无需重复输入提示词。参考链接:
2025-04-08
神采AI操作文档
以下是为您整理的关于 AI 操作的相关内容: 1. 海螺 AI 声音克隆及录视频工作流: 该工具不仅能进行声音克隆,还能嵌入完整的 AI 录视频工作流。 工作流适合教程视频或口播内容创作者,可解决录制时的多种问题,确保音画同步和内容准确。 具体步骤包括录制初始视频、音频提取(将 mp4 转为 mp3 可用剪映或格式工厂)、语音转文字(上传至通义听悟或飞书妙记)。可能会遇到语音识别不准的问题,可使用 Gemini 2.0 Pro 进行校正,校正时需提供足够上下文,如视频初稿、最终文章、工作流操作文档、转录文本等。 2. Claude 3.5 的新功能【AI 操作电脑】上手体验: 亮点包括 AI 操作电脑和编程能力大提升。 准备工作:需要一台电脑(Window 系统,理论上能跑 Docker 都可以)和 Claude 的官方 Key。 Docker 安装:正常安装,完成后本地打开,确保左下角服务启动成功。 拉取镜像:Claude 官方提供了 Demo(Python),拉取到本地后在当前 Python 环境下安装依赖(建议 3.11 以上),并根据官方文档设置环境变量,启动 docker。对于不熟悉环境变量的朋友,可使用修改过的启动命令。启动成功后,按照提示访问网页:http://localhost:8080,侧边栏填写 key 即可正常使用。 3. XiaoHu.AI 日报(3 月 6 日): 包含 Manus AI 代理的相关介绍,其特点为自动完成任务并交付完整结果,交付形式多样,能充分利用 AI 能力在云端自动运行。 GPT4.5 向所有 Plus 用户推送,预计 3 天内推送完毕。
2025-04-01
ai相关信息很多,如果只推荐一种信息来源,你会推荐什么
如果只推荐一种 AI 信息来源,以下是一些选择: 对于初学者,推荐看 Open AI 的官方 Cookbook,小琪姐做了中文精读翻译。 从简报方面,TLDR AI()等是不错的选择。 播客方面,No Priors podcast hosted by Sarah Guo and Elad Gil、Robot Brains Podcast hosted by Pieter Abbeel、Lex Fridman Podcast hosted by Lex Fridman、The Gradient podcast hosted by Daniel Bashir、Generally Intelligent hosted by Kanjun Qiu、Last Week in AI 等值得关注。 会议方面,工业界的 World AI Cannes Festival、Gen AI conference()等都是获取 AI 信息的重要渠道。 此外,还可以通过赛博蝉星公众号、国外优质博主的 blog 或 Twitter 等订阅获取最新信息,也可以参考通往 AGI 之路知识库中的相关内容,如 AI 相关名词解释、经典必读文章、历史脉络类资料等。
2025-03-21
AI应用赛道中top应用介绍,实现的功能和应用场景,产品Launch时间:AIGC功能 Launch时间、当前月活用户数、营收利润、一年成本投入、市场占有率、目前融资金额及估值、创始团队介绍、公司员工规模、所属国家、用户来源、用户来自于哪些国家、用户profile、转化率、ROI等等, 盈利模式,优劣势与未来发展趋势。
以下是关于 AI 应用赛道的相关介绍: 应用场景:涵盖医疗、制造业、金融风控、消费端个性化服务、办公、农业、能源优化、娱乐等领域。 关键技术: 1. 包括大语言模型作为中枢神经系统,记忆模块实现长期和短期记忆,以及规划能力中的目标设定、任务拆解、生成策略、执行与反馈、资源管理和多智能体协同。 2. 强化学习用于环境感知和决策调整,多模态融合涉及多种数据类型,低成本训练是考虑成本的重要因素。 智能体特征:包括自主性、交互性和适应性,如通过自我对弈和博弈不断进化,在金融风控领域利用大量数据提升准确率。 AI 技术路线:从有语言能力的 AI 到有推理能力,再到能使用工具、发明创新以及形成组织,共五级。 智能体框架类型:分为任务驱动型、多智能体协作、强化学习型、具身智能体、应用型智能体,每种类型都有代表性框架。 智能体与大模型的关系:大模型是中枢和基石,智能体是行动引擎,两者协同演进,智能体产生的数据可反哺大模型。 未来趋势:智能体可能在中小企业中更具效益,人机协作中人类成为监督角色,但存在算力成本、伦理风险、技术瓶颈等挑战。 B 端变现与创业方向: 1. B 端变现细分包括高频率和大规模的内容生产细分,如文字、视频、3D 模型、AI 智能体等,底层是需求和数据收集及训练模型,算力和能源是关键。 2. 自媒体创业:视频号等平台尚有蓝海空间,需具备内容创新和差异化,内容成本低且更新迭代快。 3. 游戏创业:个人或团队可做轻量化游戏,结合 AI 技术,满足放松和社交需求,专注垂类赛道,避免与大厂竞争。 4. 影视创业:25 年将是拐点,更多内容会采用 AI 技术,如哪吒 2 因前期规划未用 AI 技术。 5. 广告营销创业:重点是 AI 虚拟人,数字插画可走治愈类型,要明确平台用户画像和产品定位,做好次留存和引入私域。 AI 虚拟人的发展与创业机遇: 1. 创业难点:创业对创业者综合能力要求极高,找到志同道合且能力互补的战友是创业前期最难的事。 2. AI 虚拟人发展:从早期以首位为核心的宅文化虚拟偶像,到以 CG 技术和动捕语音合成技术为核心的角色,再到如今以动捕和人工智能技术为核心的服务型虚拟人,其发展历程不断演进。 3. 虚拟人产业链:包括基础层的硬件和软件研发,平台层如商汤、百度等提供工具和系统,应用层涉及影视、传媒、游戏、金融、文旅等内容变现。 4. 未来创业机遇:AI 虚拟人是未来 310 年 Web 3.0 的风口,提前布局未来有潜力的赛道,准备好迎接机遇。 相关案例和产品信息: 1. 10 月 26 日,AI 翻译和口型匹配技术在视频制作中的应用逐渐流行,公司如 Captions、HeyGen 和 Verbalate 通过 AI 生成字幕、配音和口型匹配等功能,帮助用户轻松实现视频翻译本地化。 2. 10 月 25 日,Perplexity 最新估值约为 5 亿美元,较 3 月宣布的 1.5 亿美元估值上涨 300%以上,当前的付费用户数量达到了 1.5 万人,截止本月,Perplexity 的 ARR 达到 300 万美元,最新估值约为 ARR 的 150 倍。 3. 《100 个有意思的 AI 应用》由国盛证券出品,分为基于 LLM 自然语言能力的对话、写作、阅读、分析等应用;多模态技术持续发展,图像、视频、音频、3D 等 AIGC 应用;企业级应用等。
2025-03-14
优秀的来源大模型有哪些
以下是一些优秀的大模型: Google 的 T5:属于 encoderdecoder 类型的模型,适用于翻译和摘要等任务。 OpenAI 的 GPT3:预训练数据量大,参数众多,能根据用户输入的任务描述或示例完成任务。 ChatGPT:用户通过像和人类对话的方式即可完成任务。 国内的优秀大模型有: 智谱清言(清华&智谱 AI):基础模型为 ChatGLM 大模型。在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三,更擅长专业能力,但代码能力有优化空间,知识百科稍显不足。可应用于 AI 智能体、较复杂推理、广告文案、文学写作等场景。 通义千问 2.0(阿里云):在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡。聚焦在移动设备端的应用,涵盖知识、记忆、工具、创作等方向,支持多种工具和文生文、文生图等场景。 Baichuan213BChat(百川智能):百川智能自主训练的开源大语言模型,是中文开源模型的主导力量。
2024-12-28
国内外最好的来源大模型有哪些 对比介绍一下
以下是国内外一些较好的大模型及其对比介绍: 国外大模型: GPT4 Turbo 总分 90.63 分遥遥领先,在各项能力上表现出色。 国内大模型: 文心一言 4.0(API)总分 79.02 分,过去 1 年有长足进步。 通义千问 2.0(阿里云):在代码、上下文对话基础能力上排名国内第一,各项能力较为均衡,位于国内大模型第一梯队,适合应用于金融、医疗、汽车等垂直专业场景及代码生成与纠错等场景。 AndesGPT(OPPO):在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用。 百川智能的 Baichuan213BChat:是中文开源模型的主导力量,在中文上表现优于国外开源模型。 在 SuperCLUE 测评中,国外模型的平均成绩为 69.42 分,国内模型平均成绩为 65.95 分,差距在 4 分左右,但国内外的平均水平差距在缩小。另外,国内开源模型在中文上表现要好于国外开源模型。
2024-12-28
自己的ai来源模型是什么
智谱·AI 的开源模型包括以下部分: 其他模型: WebGLM10B:利用百亿参数通用语言模型(GLM)提供高效、经济的网络增强型问题解答系统,旨在通过将网络搜索和检索功能集成到预训练的语言模型中,改进现实世界的应用部署。 WebGLM2B MathGLM2B:在训练数据充足的情况下,20 亿参数的 MathGLM 模型能够准确地执行多位算术运算,准确率几乎可以达到 100%,其结果显著超越最强大语言模型 GPT4 在相同测试数据上 18.84%的准确率。 MathGLM500M MathGLM100M MathGLM10M MathGLMLarge:采用 GLM 的不同变体作为骨干来训练 MathGLM,包括具有 335M 参数的 GLMlarge 和 GLM10B。此外,还使用 ChatGLM6B 和 ChatGLM26B 作为基座模型来训练 MathGLM。这些骨干模型赋予 MathGLM 基本的语言理解能力,使其能够有效理解数学应用题中包含的语言信息。 多模态模型: CogAgent18B:基于 CogVLM17B 改进的开源视觉语言模型。CogAgent18B 拥有 110 亿视觉参数和 70 亿语言参数,支持 11201120 分辨率的图像理解,在 CogVLM 功能的基础上,具备 GUI 图像的 Agent 能力。 CogVLM17B:强大的开源视觉语言模型(VLM)。基于对视觉和语言信息之间融合的理解,CogVLM 可以在不牺牲任何 NLP 任务性能的情况下,实现视觉语言特征的深度融合。 Visualglm6B:一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,具有 62 亿参数;图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。 部署和训练自己的 AI 开源模型的主要步骤如下: 1. 选择合适的部署方式,包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求选择合适的部署方式。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可以使用开源的预训练模型如 BERT、GPT 等作为基础,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 总的来说,部署和训练自己的大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2024-12-27
AI数据来源
以下是关于生成式 AI 不同领域 2024 年 1 3 月的季度数据报告: 文字 社交: 数据来源:Similarweb,Visit,单位为万,变化公式为 3 月/2 月 1 100%。 3 月个人视频访问量为 71 万。 赛道方面:天花板潜力为 14 亿美金,对标公司无,总体趋势下滑严重,月平均增速为 5.7 万 PV/月,原生产品占比低,多为原有换脸产品升级。 竞争方面:Top1 占比 76%,Top3 占比 92%,马太效应较强,网络效应弱,大厂未入局,大厂占比低,技术门槛中。 Top1 公司(非大厂)为 Deepfakes Web,其最新月 PV 为 54 万。 音频大类: 网址:aiwatch.ai 数据来源:Similarweb,Visit,单位为万,变化公式为 3 月/2 月 1 100%。 赛道方面:天花板潜力为 200 亿美金,对标公司为 Spotify,总体趋势高速增长,月平均增速为 522 万 PV/月,原生产品占比高。 竞争方面:Top1 占比 33%,Top3 占比 53%,马太效应中,网络效应较高,大厂已入局,大厂占比低,技术门槛高。 Top1 公司(非大厂)为 sunoAI,其 3 月 PV 为 2192 万,单用户 PV 价值为 0.27 美元。 文字 教育: 网址:aiwatch.ai 数据来源:Similarweb,Visit,单位为万,变化公式为 3 月/2 月 1 100%。 赛道方面:天花板潜力约 30 亿,对标公司为 Chegg,总体趋势快速增长,月平均增速为 1793 万 PV/月,原生产品占比低。 竞争方面:Top1 占比 45%,Top3 占比 76%,马太效应弱,网络效应弱,大厂未入局,大厂占比低,技术门槛中。 Top1 公司(非大厂)为 Quizlet,其估值为 10 亿美元(2020.5),3 月 PV 为 1.3 亿,收入约 7500 万美元(2023),PS 为 13.3x,单用户 PV 价值为 7.5 美元。
2024-12-04