Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

本站的stable diffusion在哪个分类

Answer

Stable Diffusion(简称 SD)属于图片美术类的 AIGC 项目。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,2022 年发布的深度学习文本到图像生成模型。其代码模型权重已公开发布,可在多数配备适度 GPU 的电脑硬件上运行,当前版本为 2.1 稳定版(2022.12.7)。源代码库为 github.com/Stability-AI/stablediffusion 。

在分类上,它可以归为 AIGC 常见名词解释中的图片美术类。同时,关于 Stable Diffusion 有很多详细的教程,比如在知乎上有深入浅出完整解析其核心基础知识的内容,包括系列资源、核心基础原理、核心网络结构解析、搭建使用模型进行 AI 绘画、经典应用场景、训练自己的 AI 绘画模型等方面。

Content generated by AI large model, please carefully verify (powered by aily)

References

AIGC常见名词解释(字典篇)

AIGC:AI generated content,又称为生成式AI,意为人工智能生成内容。例如AI文本续写,文字转图像的AI图、AI主持人等,都属于AIGC的应用。类似的名词缩写还有UGC(普通用户生产),PGC(专业用户生产)等。能进行AIGC的产品项目也很多,能进行AIGC的媒介也很多包括且不限于语言文字类:OpenAI的GPT,Google的Bard,百度的文心一言,还有一种国内大佬下场要做的的LLM都是语言类的。语音声音类:Google的WaveNet,微软的Deep Nerual Network,百度的DeepSpeech等,还有合成AI孙燕姿大火的开源模型Sovits。图片美术类:早期有GEN等图片识别/生成技术,去年大热的扩散模型又带火了我们比较熟悉的、生成质量无敌的Midjourney,先驱者谷歌的Disco Diffusion,一直在排队测试的OpenAI的Dalle·2,以及stability ai和runaway共同推出的Stable Diffusion...[heading1]SD是什么?[content]SD是Stable Diffusion的简称。是它是由初创公司StabilityAI、CompVis与Runway合作开发,2022年发布的深度学习文本到图像生成模型。它主要用于根据文本的描述产生详细图像。Stable Diffusion是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model; LDM)。SD的代码模型权重已公开发布,可以在大多数配备有适度GPU的电脑硬件上运行。当前版本为2.1稳定版(2022.12.7)。<br>|源代码库:github.com/Stability-AI/stablediffusion|我们可以通过一系列的工具搭建准备,使用SD进行想要的图片aigc(心想事成的魔法施与)。

教程:深入浅出完整解析Stable Diffusion(SD)核心基础知识 - 知乎

[title]教程:深入浅出完整解析Stable Diffusion(SD)核心基础知识-知乎[heading2]目录1.Stable Diffusion系列资源2.零基础深入浅出理解Stable Diffusion核心基础原理2.1通俗讲解Stable Diffusion模型工作流程(包含详细图解)2.2从0到1读懂Stable Diffusion模型核心基础原理(包含详细图解)2.3零基础读懂Stable Diffusion训练全过程(包含详细图解)2.4其他主流生成式模型介绍3.Stable Diffusion核心网络结构解析(全网最详细)3.1 SD模型整体架构初识3.2 VAE模型3.3 U-Net模型3.4 CLIP Text Encoder模型3.5 SD官方训练细节解析4.从0到1搭建使用Stable Diffusion模型进行AI绘画(全网最详细讲解)4.1零基础使用ComfyUI搭建Stable Diffusion推理流程4.2零基础使用SD.Next搭建Stable Diffusion推理流程4.3零基础使用Stable Diffusion WebUI搭建Stable Diffusion推理流程4.4零基础使用diffusers搭建Stable Diffusion推理流程4.5 Stable Diffusion生成示例5.Stable Diffusion经典应用场景5.1文本生成图像5.2图片生成图片5.3图像inpainting5.4使用controlnet辅助生成图片5.5超分辨率重建6.从0到1上手使用Stable Diffusion训练自己的AI绘画模型(全网最详细讲解)6.0 Stable Diffusion训练资源分享6.1 Stable Diffusion模型训练初识6.2配置训练环境与训练文件

教程:深入浅出完整解析Stable Diffusion(SD)核心基础知识 - 知乎

[title]教程:深入浅出完整解析Stable Diffusion(SD)核心基础知识-知乎[heading2]正文码字不易,希望大家能多多点赞!Rocky持续在撰写Stable Diffusion XL全方位解析文章,希望大家能多多点赞,让Rocky有更多坚持的动力:[深入浅出完整解析Stable Diffusion XL(SDXL)核心基础知识967赞同· 148评论文章](https://zhuanlan.zhihu.com/p/643420260)2023.08.26最新消息,本文已经撰写Stable Diffusion 1.x-2.x系列和对应LoRA的训练全流程与详细解读内容,同时发布对应的保姆级训练资源,大家可以愉快地训练属于自己的SD和LoRA模型了!2023.07.26最新消息,由于Stable Diffusion模型的网络结构比较复杂,不好可视化,导致大家看的云里雾里。因此本文中已经发布Stable Diffusion中VAE,U-Net和CLIP三大模型的可视化网络结构图,大家可以下载用于学习!大家好,我是Rocky。2022年,Stable Diffusion模型横空出世,成为AI行业从传统深度学习时代走向AIGC时代的标志性模型之一,并为工业界、投资界、学术界和竞赛界都注入了新的AI想象空间,让AI再次“性感”。Stable Diffusion(简称SD)是AI绘画领域的一个核心模型,能够进行文生图(txt2img)和图生图(img2img)等图像生成任务。与Midjourney不同的是,Stable Diffusion是一个完全开源的项目(模型、代码、训练数据、论文、生态等全部开源),这使得其能快速构建强大繁荣的上下游生态(AI绘画社区、基于SD的自训练AI绘画模型、丰富的辅助AI绘画工具与插件等),并且吸引了越来越多的AI绘画爱好者加入其中,与AI行业从业者一起推动AIGC领域的发展与普惠。

Others are asking
stable diffusion底层技术
Stable Diffusion 的底层技术主要来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach 之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型的文本到图像生成模型,其原理包括以下几个步骤: 1. 使用新颖的文本编码器(OpenCLIP),由 LAION 开发并得到 Stability AI 的支持,将文本输入转换为向量表示,以捕捉文本语义信息并与图像空间对齐。 2. 采用扩散模型,将随机噪声图像逐渐变换为目标图像。扩散模型是一种生成模型,能从训练数据中学习概率分布并采样新数据。 3. 在扩散过程中,利用文本向量和噪声图像作为条件输入,给出每一步变换的概率分布,根据文本指导噪声图像向目标图像收敛,并保持图像的清晰度和连贯性。 4. 使用超分辨率放大器(Upscaler Diffusion Model),将生成的低分辨率图像放大到更高分辨率,从低分辨率图像中恢复细节信息并增强图像质量。 此外,ComfyUI 的底层依赖 Stable Diffusion,去噪过程由 UNet 网络完成。UNet 是一种编码器解码器结构,能处理多尺度特征表示。在 ComfyUI 中,去噪的每个步骤通过模型推理模块实现,调用训练好的 UNet 模型逐步将噪声图像还原成有意义的图像。交叉注意力机制在 Stable Diffusion 中很重要,允许模型在生成过程中融入文本提示、图像、语义信息等条件,在 ComfyUI 中通过“文本提示”和“条件输入”节点实现。跳跃连接是 UNet 的核心部分,能在不同尺度之间共享特征,在 ComfyUI 的节点网络中表现为中间过程数据的流转。切换器代表在去噪过程中的不同阶段对特征流的控制,在 ComfyUI 中可通过修改模型参数节点或自定义网络结构节点对不同阶段的噪声去除策略进行微调。 Stable Diffusion 还具有以下优点: 1. 可以处理任意领域和主题的文本输入,并生成与之相符合的多样化和富有创意的图像。 2. 可以生成高达 2048x2048 或更高分辨率的图像,且保持良好的视觉效果和真实感。 它还可以进行深度引导和结构保留的图像转换和合成,例如根据输入图片推断出深度信息,并利用深度信息和文本条件生成新图片。
2025-04-15
stable video diffusion开发
以下是关于 Stable Video Diffusion 开发的相关信息: SVD 介绍: 简介:Stable Video Diffusion 是 Stability AI 于 2023 年 11 月 21 日发布的视频生成式大模型,用于高分辨率、先进的文本到视频和图像到视频生成的潜在视频扩散模型。它支持多种功能,用户可调整多种参数,但对硬件要求较高,支持的图片尺寸较小,应用场景受限。 模型版本:开源了两种图生视频的模型,一种能生成 14 帧的 SVD,另一种是可以生成 25 帧的 SVDXL,发布时通过外部评估超越了人类偏好研究中领先的封闭模型。 主要贡献:提出系统的数据管理工作流程,将大量未经管理的视频集合转变为高质量数据集;训练出性能优于现有模型的文本到视频和图像到视频模型;通过特定领域实验探索模型中运动和 3D 理解的强先验,预训练的视频扩散模型可转变为强大的多视图生成器,有助于克服 3D 领域数据稀缺问题。 部署实战避坑指南: 直接使用百度网盘里准备好的资源,可规避 90%的坑。 若一直报显存溢出问题,可调低帧数或增加 novram 启动参数。 云部署实战中,基础依赖模型权重有两个 models–laion–CLIPViTH14laion2Bs32Bb79K 和 ViTL14.pt,需放到指定路径下。 总结: Sora 发布后,此前的视频生成模型相形见绌,但 Stable Video Diffusion 作为开源项目可在自己机器上自由创作无需充值。SVD 生成的视频画质清晰,帧与帧过渡自然,能解决背景闪烁和人物一致性问题,虽目前最多生成 4 秒视频,与 Sora 的 60 秒差距大,但在不断迭代。我们会持续关注其技术及前沿视频生成技术,尝试不同部署微调方式,介绍更多技术模型,更多精彩内容后续放出。 同时,您还可以加入「AIGCmagic 社区」群聊交流讨论,涉及 AI 视频、AI 绘画、Sora 技术拆解、数字人、多模态、大模型、传统深度学习、自动驾驶等多个方向,可私信或添加微信号:【m_aigc2022】,备注不同方向邀请入群。
2025-04-15
stable diffusion是runway和goole联合开的吗
Stable Diffusion(简称 SD)不是由 Runway 和 Google 联合开发的,而是由初创公司 StabilityAI、CompVis 与 Runway 合作开发的。 Stable Diffusion 是 2022 年发布的深度学习文本到图像生成模型,其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于这两位开发者之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中根据文本向量和噪声图像作为条件输入给出变换的概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高的分辨率。 围绕 Stable Diffusion 等基础模型的兴奋和关注正在产生惊人的估值,但新研究的不断涌现确保新模型将随着新技术的完善而更替。目前,这些模型在法律方面也面临挑战,例如其训练所使用的大量内容数据集通常是通过爬取互联网本身获得的,这可能会引发法律问题。
2025-04-15
stable diffusion开发公司
Stable Diffusion 是由初创公司 StabilityAI、CompVis 与 Runway 合作开发的。其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于他们之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器(OpenCLIP)将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中以文本向量和噪声图像作为条件输入给出变换的概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高分辨率。 Stable Diffusion 总共有 1B 左右的参数量,可以用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等丰富的任务。在文生图任务中,将一段文本输入到模型中,经过一定迭代次数输出符合文本描述的图片;图生图任务则在输入文本基础上再输入一张图片,模型根据文本提示对输入图片进行重绘。输入的文本信息通过 CLIP Text Encoder 模型编码生成与文本信息对应的 Text Embeddings 特征矩阵,用于控制图像生成。源代码库为 github.com/StabilityAI/stablediffusion ,当前版本为 2.1 稳定版(2022.12.7),其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行。
2025-04-15
stable diffusion开发公司
Stable Diffusion 是由初创公司 Stability AI、CompVis 与 Runway 合作开发的。其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于他们之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器(OpenCLIP)将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中以文本向量和噪声图像作为条件输入给出变换概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高分辨率。 Stable Diffusion 总共有 1B 左右的参数量,可以用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等丰富的任务。其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行,当前版本为 2.1 稳定版(2022.12.7),源代码库为 github.com/StabilityAI/stablediffusion 。
2025-04-15
有stable diffusion的学习教程吗
以下为您提供一些 Stable Diffusion 的学习教程: 1. 超详细的 Stable Diffusion 教程: 介绍了为什么要学习 Stable Diffusion 及其强大之处。 指出 Stable Diffusion 是能根据输入文字生成图片的软件。 强调学习目的是快速入门,而非深入研究原理,通过案例和实际操作帮助上手。 2. 深入浅出完整解析 Stable Diffusion(SD)核心基础知识 知乎: 包含 Stable Diffusion 系列资源。 零基础深入浅出理解 Stable Diffusion 核心基础原理,如模型工作流程、核心基础原理、训练全过程等。 解析 Stable Diffusion 核心网络结构,包括 SD 模型整体架构、VAE 模型、UNet 模型等。 介绍从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画的流程。 列举 Stable Diffusion 经典应用场景。 讲解从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型。 3. 视频教程: 「AI 绘画」软件比较与 stable diffusion 的优势: 「AI 绘画」零基础学会 Stable Diffusion: 「AI 绘画」革命性技术突破: 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论: 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错: 「入门 2」stable diffusion 安装教程,有手就会不折腾: 「入门 3」你的电脑是否跑得动 stable diffusion?: 「入门 4」stable diffusion 插件如何下载和安装?:
2025-03-28
我是一个刚接触本站的AI小白,本站的AI提示词应该怎样使用
以下是关于本站 AI 提示词使用的详细介绍: 1. 提示词的定义和作用: 提示词用于描绘您想要的画面。 星流通用大模型与基础模型 F.1、基础模型 XL 使用自然语言(如一个长头发的金发女孩),基础模型 1.5 使用单个词组(如女孩、金发、长头发),支持中英文输入。 启用提示词优化后,能帮您扩展提示词,更生动地描述画面内容。 2. 如何写好提示词: 预设词组:小白用户可以点击提示词上方官方预设词组进行生图。 提示词内容准确:包含人物主体、风格、场景特点、环境光照、画面构图、画质等,比如:一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量。 调整负面提示词:点击提示框下方的齿轮按钮,弹出负面提示词框。负面提示词可以帮助 AI 理解我们不想生成的内容,比如:不好的质量、低像素、模糊、水印。 利用“加权重”功能:可在功能框增加提示词,并进行加权重调节,权重数值越大,越优先。还可以对已有的提示词权重进行编辑。 辅助功能:包括翻译功能(一键将提示词翻译成英文)、删除所有提示词(清空提示词框)、会员加速(加速图像生图速度,提升效率)。 3. 提示词相关资源: 提示词模板的相关网站,如 Majinai: 。 希望以上内容对您有所帮助,祝您使用愉快!
2025-03-15
我应该如何系统学习本站的内容,以应用为主,基础理论为辅
如果您想系统学习本站内容,以应用为主、基础理论为辅,可以参考以下步骤: 基础理论方面: 了解人工智能、机器学习、深度学习的定义及其之间的关系。 简要回顾 AI 的发展历程和重要里程碑。 掌握数学基础,包括统计学基础(熟悉均值、中位数、方差等统计概念)、线性代数(了解向量、矩阵等基本概念)、概率论(基础的概率论知识,如条件概率、贝叶斯定理)。 算法和模型方面: 对于监督学习,了解常用算法,如线性回归、决策树、支持向量机(SVM)。 熟悉无监督学习中的聚类、降维等算法。 了解强化学习的基本概念。 评估和调优方面: 学会如何评估模型性能,包括交叉验证、精确度、召回率等。 掌握使用网格搜索等技术优化模型参数的方法。 神经网络基础方面: 理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 关于知识库的使用,以 Agent 板块为例: 链接: 用法:从下往上看,一个一个点进去,都有视频。 注意事项:共学都有视频,都是手把手从注册开始的教学,不会就多看几遍,基本保障一个工具能调通、一个 Agent 能搭好。确实内容有点多,点进去看看哪个工具您听过就从哪个工具开始,不然太累。 链接: 用法:看了一些视频之后,您就知道您要看理论还是应用了,找到导航,想看哪里点哪里。 备注:智能千帆、阿里云百炼都是有视频的,其余没有视频。 注意事项:内容较多,您如果都看到这里了,就要考虑聚焦了,先挑一个,开始手把手一起做起来,看看能不能持续用起来,只要您开始用起来,这事儿就成啦!快捷菜单找不到的话,看这里。
2025-03-10
目前模型之间是如何分类的
目前模型的分类方式多种多样,以下为您介绍几种常见的分类角度: 1. 从来源角度:根据模型的出处,可分为来自行业(如 Google、Meta、OpenAI 等公司)、学术界(如清华大学、麻省理工学院、牛津大学等)、政府(如英国的艾伦·图灵研究所、阿布扎比的技术创新研究所等)以及研究团体(如艾伦研究所、弗劳恩霍夫研究所等非营利性 AI 研究组织)。在 2014 年之前,学术界在发布机器学习模型方面领先,此后行业占据主导。 2. 从整体架构角度: 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 数据层:包括企业根据自身特性维护的静态知识库和动态的三方数据集,而非用于基层模型训练的数据基集。 模型层:分为 LLm(如 GPT 等大语言模型,一般使用 transformer 算法实现)和多模态模型(如文生图、图生图等模型,训练数据为图文或声音等多模态数据集)。 平台层:如大模型的评测体系或 langchain 平台等,是模型与应用之间的组成部分。 表现层:即应用层,是用户实际看到的部分。 此外,像 OpenAI o3mini 模型,在 OpenAI 的准备框架中被分类为中等风险,并采取了相应的保障和安全缓解措施。
2025-04-13
基于技术类别的不同,将现在的AI产品进行分类
目前,AI 产品基于技术类别可以进行如下分类: 1. 从生成方式分类: 文生视频、图生视频:如 Runway、Pika labs、SD+Deforum、SD+Infinite zoom、SD+AnimateDiff、Warpfusion、Stability Animation 等。 视频生视频: 逐帧生成:如 SD+Mov2Mov。 关键帧+补帧:如 SD+Ebsynth、Rerender A Video。 动态捕捉:如 Deep motion、Move AI、Wonder Dynamics。 视频修复:如 Topaz Video AI。 AI Avatar+语音生成:如 Synthesia、HeyGen AI、DID。 长视频生短视频:如 Opus Clip。 脚本生成+视频匹配:如 Invideo AI。 剧情生成:如 Showrunner AI。 2. 从产品阶段和可用维度分类: 以 AI 为底层设计逻辑的 AI 原生类产品。 在原有互联网产品上深度嵌入 AI 功能的 AI+X 产品,目前整体数据表现显著优于 AI 原生类产品,在办公软件和内容平台重点布局。办公软件方面,如百度文库和 WPS AI 等在续写、改写、命题写作等不同程度的 AI 写作功能,以及针对论文、小说等不同题材的 AI 总结功能上表现突出。内容平台方面,AIGC 大多从基于平台内容的 AI 搜索、用于带动 UGC 的 AI 生成功能及模板、降低门槛的内容创作工具三个方向发力。 基于外接 API 微创新的套壳类产品。 将多个产品/模型 API 集中拼凑的集合站类产品。 此外,从 AI 产品经理的角度,个人划分仅供娱乐和参考: 1. 入门级:能通过 WaytoAGI 等开源网站或一些课程了解 AI 概念,使用 AI 产品并尝试动手实践应用搭建。 2. 研究级:有技术研究和商业化研究两个路径,能根据需求场景选择解决方案,或利用 Hugging face 等工具手搓出一些 AI 应用来验证想法。 3. 落地应用级:有成功落地应用的案例,产生商业化价值。对应传统互联网 PM 也有三个层级: 负责功能模块与执行细节。 负责整体系统与产品架构。 熟悉行业竞争格局与商业运营策略。
2025-04-01
请基于应用场景,对AI模型进行分类
以下是对 AI 模型基于应用场景的分类: 1. 文本生成和内容创作:包括撰写文章、生成新闻报道、创作诗歌和故事等。 2. 聊天机器人和虚拟助手:提供客户服务、日常任务提醒和信息咨询等服务。 3. 编程和代码辅助:如代码自动补全、bug 修复和代码解释。 4. 翻译和跨语言通信:促进不同语言背景的用户之间的沟通和信息共享。 5. 情感分析和意见挖掘:为市场研究和产品改进提供数据支持。 6. 教育和学习辅助:创建个性化的学习材料、自动回答学生问题和提供语言学习支持。 7. 图像和视频生成:如根据文本描述生成相应的图像,甚至未来可能扩展到视频内容的生成。 8. 游戏开发和互动体验:创建游戏中的角色对话、故事情节生成和增强玩家的沉浸式体验。 9. 医疗和健康咨询:理解和回答医疗相关的问题,提供初步的健康建议和医疗信息查询服务。 10. 法律和合规咨询:帮助解读法律文件,提供合规建议。 此外,在开源模型方面,如 Civitai、海艺 AI、liblib 等为主流创作社区,提供了让用户利用 AI 技术进行图像创作和分享的平台。AI 视频方面,其应用场景广泛,涵盖内容创建、社交媒体营销、讲故事与动画制作、个性化内容、视频摘要、电子学习和培训、新闻媒体、电子游戏开发、虚拟助理和聊天机器人、归档与文档保存以及提高内容的可访问性等多个领域。从使用场景来看,分为改善大模型产品的使用体验、助力用户工作流、细分场景独立实用工具、AI 社区、Chatbot 五个方向;从产品形态上来看,分为插件、辅助现有产品能力、深度结合 LLM 能力的独立网站&应用、AI 社区四种。目前产品大多分布在 PC 端。
2025-04-01
基于深度学习的商代食器分类研究 明确详细的研究意义
基于深度学习的商代食器分类研究具有多方面的重要意义。首先,它有助于深入了解商代的饮食文化和社会生活。通过对食器的准确分类,可以揭示当时人们的饮食习惯、烹饪方式以及社交礼仪等方面的信息。 其次,为考古学研究提供新的方法和视角。利用深度学习技术能够更高效、更准确地处理和分析大量的商代食器数据,突破传统研究方法的局限。 再者,有助于文物保护和管理。精确的分类有助于制定更有针对性的保护策略,确保这些珍贵的文化遗产得到妥善保存。 最后,促进跨学科研究的发展。将深度学习与考古学相结合,能够吸引更多不同领域的学者参与,推动相关研究的创新和进步。
2025-03-27
AI分类
AI 主要有以下分类: 1. 生成式 AI: 生产力方面:包括文档、PPT、会议、脑爆、数据处理、搜索、浏览、email、文件等。 社交方面:包括真实和虚拟社交。 教育方面:涵盖早教、语言学习、公司教育、父母教育、学生工具、学校工具等。 创意内容方面:包含视频、音乐、声音、个人图像、图像等。 2. 以生成方式划分: 音视频生成类: 视频生成:当前视频生成可分为文生视频、图生视频与视频生视频。主流生成模型为扩散模型,可用于娱乐、体育分析和自动驾驶等领域,经常与语音生成一起使用。 语音生成:用于文本到语音的转换、虚拟助手和语音克隆等,模型可由 Transformers 提供。 音频生成:用于生成音乐、语音或其他声音,常用技术包括循环神经网络、长短时记忆网络、WaveNet 等。 一些具有代表性的海外项目: Sora(OpenAI):以扩散 Transformer 模型为核心,能生成长达一分钟的高保真视频,支持多种生成方式,在文本理解方面表现出色。 Genie(Google):采用 STtransformer 架构,包括潜在动作模型、视频分词器与动力学模型,拥有 110 亿参数。 WaveNet(DeepMind):一种生成模型,可以生成非常逼真的人类语音。 MuseNet(OpenAI):一种生成音乐的 AI 模型,可以在多种风格和乐器之间进行组合。 Multilingual v2(ElevenLabs):一种语音生成模型,支持 28 种语言的语音合成服务。 3. 在 AI 创客松中,参与同学的分类: 秦超:AI 2C 项目负责人,擅长产品落地服务,具有产品、技术架构和项目管理经验。 kaikai:技术实践者,擅长多 Agent 处理任务流,具备技术实践和团队合作能力。 Cici?:AI 算法开发,想法是宠物与 AI 结合,具有 AI 产品研发和创业经验。 BIN 陈裕彬:CTO,方向是 AI 绘画精灵、AI 推文小说视频生成器,是爆款 AI 小程序作者。 11 鸭鸭呀:产品经理,专注智能写作产品,擅长 Prompt 撰写和 AI 应用。 zz:AI 产品经理,方向是效率工具和游戏,具有大厂经验。 天天向上:AIGC 爱好者,方向是 AI 配音应用,是配音演员,有 AI 预告片制作经验。 烦烦烦??:产品经理,方向是企业服务 AI 应用,具备 PRD 输出和前端开发能力。 周文斌:产品业务负责人,方向是 AI 创业,具有产品规划和研发经验。 Wilson·W:咨询顾问/服务设计师,方向是 AI 组团协作场景,是 GPT4.0 用户,有咨询行业经验。 王蒙:程序员,从事 AI 相关开发,具有后端开发经验。 Nero:产品体验设计师,方向是 AI 绘画、AI 视频,研究 AIGC 方向。
2025-03-26
我是一个没有技术背景且对AI感兴趣的互联网产品经理,目标是希望理解AI的实现原理并且能够跟开发算法工程师沟通交流,请给我举出AI模型或者机器学习的分类吧。
以下是 AI 模型和机器学习的分类: 1. AI(人工智能):是一个广泛的概念,旨在使计算机系统能够模拟人类智能。 2. 机器学习:是人工智能的一个子领域,让计算机通过数据学习来提高性能。包括以下几种类型: 监督学习:使用有标签的训练数据,算法学习输入和输出之间的映射关系,包括分类和回归任务。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 3. 深度学习:是机器学习的一个子领域,模拟人脑创建人工神经网络处理数据,包含多个处理层,在图像识别、语音识别和自然语言处理等任务中表现出色。 4. 大语言模型:是深度学习在自然语言处理领域的应用,目标是理解和生成人类语言,如 ChatGPT、文心一言等。同时具有生成式 AI 的特点,能够生成文本、图像、音频和视频等内容。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。生成式 AI 生成的内容称为 AIGC。
2025-03-26