Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AIGC和GAI是什么关系

Answer

在公众传播层面: AIGC 指用 Stable Diffusion 或 Midjourney 生成图像内容,后来泛指用 AI 生成音乐、图像、视频等内容。 GAI(Generative AI)强调技术。 生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。 GenAI 涵盖了 LLM 和 AIGC。 国内官方政策文件使用 GenAI 这个词相对科学。 公众传播一般会混用上述名词,但底层是 Transformer 结构。Transformer 底层是 function loss 损失函数,是一个大参数(千亿级别)的回归方程,能在一定 prompt condition 情况下,repeat 曾经出现过的数据内容,实现“生成”能力。大语言模型是一个 perfect memory,repeat 曾经出现的内容。

Content generated by AI large model, please carefully verify (powered by aily)

References

乌嘉文:大模型应用层

作者:Garman邬嘉文原文:https://mp.weixin.qq.com/s/b7Cctfgb4w5LCCBrSYIlrg[heading2]Transformer决定边界[content]在CES 2024,李飞飞在争论LLM和AIGC名称不能混用,吴恩达觉得在公众传播没关系。李飞飞觉得难以接受,个人猜测是它模糊了大模型的本质。在公众传播层面:AIGC:指用Stable Diffusion或Midjourney生成图像内容,后来泛指用AI生成音乐、图像、视频等内容。LLM:指NLP领域的大语言模型,如ChatGPT。GenAI:生成式人工智能模型,国内官方政策文件使用这个词相对科学,涵盖了LLM和AIGC。AGI:指通用人工智能,部分人觉得LLM具有AGI潜力,LeCun反对。公众传播一般会混用上述名词,但底层是transformer结构。(stable diffusion原采用LDM+UNet,后来改为DiT)而transformer底层是function loss损失函数Transformer是一个大参数(千亿级别)的回归方程。回归方程的Function loss拟合A to B mapping关系,实现数据集的压缩与还原。Transformer是在一定prompt condition情况下,repeat曾经出现过的数据内容,实现“生成”能力。大语言模型的智能体验在两个数据集压缩后,能解释两个数据集之间地带的“连续”能力。(Ilya)所以大语言模型是一个perfect memory,repeat曾经出现的内容。它与Alpha Go差异:Alpha Go是一个增强学习模型,学习结果会调整模型自身参数Alpha Go有推理能力,但大语言模型这块很弱。Transformer决定LLM是一个生成式模型。

邬嘉文:大模型应用层

作者:Garman邬嘉文原文:https://mp.weixin.qq.com/s/b7Cctfgb4w5LCCBrSYIlrg[heading2]Transformer决定边界[content]在CES 2024,李飞飞在争论LLM和AIGC名称不能混用,吴恩达觉得在公众传播没关系。李飞飞觉得难以接受,个人猜测是它模糊了大模型的本质。在公众传播层面:AIGC:指用Stable Diffusion或Midjourney生成图像内容,后来泛指用AI生成音乐、图像、视频等内容。LLM:指NLP领域的大语言模型,如ChatGPT。GenAI:生成式人工智能模型,国内官方政策文件使用这个词相对科学,涵盖了LLM和AIGC。AGI:指通用人工智能,部分人觉得LLM具有AGI潜力,LeCun反对。公众传播一般会混用上述名词,但底层是transformer结构。(stable diffusion原采用LDM+UNet,后来改为DiT)而transformer底层是function loss损失函数Transformer是一个大参数(千亿级别)的回归方程。回归方程的Function loss拟合A to B mapping关系,实现数据集的压缩与还原。Transformer是在一定prompt condition情况下,repeat曾经出现过的数据内容,实现“生成”能力。大语言模型的智能体验在两个数据集压缩后,能解释两个数据集之间地带的“连续”能力。(Ilya)所以大语言模型是一个perfect memory,repeat曾经出现的内容。它与Alpha Go差异:Alpha Go是一个增强学习模型,学习结果会调整模型自身参数Alpha Go有推理能力,但大语言模型这块很弱。Transformer决定LLM是一个生成式模型。

张翼然:AI引领未来课堂的探索与实践.pdf

深入浅出地讲解生成式AI的工作原理,让技术不再神秘。纠正对生成式AI的常见误解,帮助教师正确认识其能力和局限性。02误区澄清03安全与伦理讨论在教育中应用AI时需要注意的道德和安全问题。生成式人工智能AIGC(AI-Generated Content)强调内容GAI(Generative AI)强调技术生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。--国家互联网信息办公室等七部门:《生成式人工智能服务管理暂行办法》,2023-07-13.手里有张地图•文生文•文生图•文生音频•文生视频生成式AI的基本原理?进入GenAI领域两件事:最少必要(基础)知识•生成式AI原理•能力范围•性能参数人工智能(AI)是一组工具和方法AI监督学习(鹦鹉学舌、以达到既定目标)根据房屋特征面积预测价格垃圾短信检测分类强化学习生成式AI根据消费者购买行为偏好分组&手机相册里的人脸识别分类无监督学习汽车自动驾驶或路径规划导航

Others are asking
我想让我的论文降低AIGC使用率,请问我有什么具体可以操作的办法
以下是一些降低论文中 AIGC 使用率的具体操作办法: 1. 使用 AIGC 论文检测工具: Turnitin:广泛使用的学术剽窃检测工具,增加了检测 AI 生成内容的功能。使用方法是上传论文,系统会自动分析文本并提供详细报告,标示出可能由 AI 生成的部分。 Copyscape:主要用于检测网络上的剽窃行为,虽不是专门的 AIGC 检测工具,但能发现可能被 AI 生成的重复内容。输入文本或上传文档,系统会扫描网络查找相似或重复内容。 Grammarly:提供语法检查和剽窃检测功能,其剽窃检测部分可帮助识别可能由 AI 生成的非原创内容。将文本粘贴到编辑器中,选择剽窃检测功能,系统会提供分析报告。 Unicheck:基于云的剽窃检测工具,适用于教育机构和学术研究,能检测 AI 生成内容的迹象。上传文档或输入文本,系统会分析并生成报告,显示潜在的剽窃和 AI 生成内容。 :专门设计用于检测 AI 生成内容的工具,使用先进算法分析文本,识别是否由 GPT3 或其他 AI 模型生成。上传文档或输入文本,系统会提供详细报告。 :提供免费的 AI 内容检测工具,可识别文本是否由 AI 生成。将文本粘贴到在线工具中,点击检测按钮,系统会提供分析结果。 GPTZero:专门设计用于检测由 GPT3 生成内容的工具,适用于教育和出版行业。上传文档或输入文本,系统会分析并提供报告。 Content at Scale:提供 AI 内容检测功能,帮助用户识别文本是否由 AI 生成。将文本粘贴到在线检测工具中,系统会分析并提供结果。 此外,为了从根本上降低 AIGC 使用率,您还需要注重自身的思考和研究,确保论文内容是基于您的独立见解和深入分析。
2025-04-14
想要学习AIGC,推荐下相关的行业大V
以下是一些 AIGC 相关的行业大 V 推荐: :归臧整理的 AIGC 周刊,关注 AI 的朋友每周必读。 :连续创业者,Prompt 版块共建者。 。 :“互联网的那点事”,微博互联网观察家。 ZHO:建筑师|ComfyUI 设计师。 :AIGC 社区野神殿创始人。 。 赛博禅心:最新最快的 AI 资讯,作者大聪明。 张蔚:华兴资本经理,架构和投资版块共建者。 :热爱分享,永远好奇,AI 高质量社群组织者。 汗青:产品经理|AI 设计师。 此外,还有北京分队中的一些相关人士: Lucky:在信息技术领域公司任职 7 年+,目前担任江西 5 家公司企业级 information security 管理,3 个地区千万级企业级 confidentiality Project 管理,5 个地区上海、合肥、苏州、南京、深圳 information security 体系建设管理顾问,目前一只 20 人+AI 项目团队,终身学习践行者。能提供 AI 相关技术的所有项目,包括 AI 图片视频、2D 动画视频、AI prompt、AI 提示词企业培训、AI 大模型、AI agent、数字人等产品。坐标南昌。 粉仔:目前抖音上的 AIGC 相关博主,粉丝画像特别受到中老年妇女们的喜爱,俨然成了她们的偶像。熟悉目前主流的 AIGC 工具。坐标北京。 sam:做技术行业,热爱互联网和 AI 技术。 海地老师:AI 影视共创社北京分社的负责人。逍遥游的制片人和编剧。 Sunkim:自由体验设计师,前保利威设计负责人,先后在新浪、百度、脉脉做体验设计工作。对 AIGC 感兴趣,目前在做 AI 口语教育类产品(上线了),和 web3 相关设计,以及跟大伙学习 AI 视频制作。 胡凯翔:国企工作 10 余年,后沉迷 AI 提示词研究编写,小七姐第一期课程毕业生,微软、讯飞认证提示词工程师,曾担任破局俱乐部企业培训和 AI+教育行动营教练,共创有约 10 万字 AI+教育手册,使用 AI 辅助阅读和开智,标书、论文的写作,玄学取名和头像设计,目前沉迷个人知识体系的搭建和离谱村系列视频的共创。 陈皓/Robin:目前在家科技公司从事产品工作,主要和 Ai,3D 视觉内容+数字人相关;有过知识付费和海外教育的创业经历。
2025-04-14
降低AIGC查重率的提示语
以下是关于降低 AIGC 查重率的提示语相关内容: 结构化提示词对于控制 AIGC 输出效果有重要作用,但原有的结构化提示词在 DeepSeek 上可能不好使,主要原因包括:详细规定思考步骤限制模型自主思考能力、包含大量低信息价值内容降低信息密度、严格的输出格式要求限制模型表达方式。 针对此问题,可设计新的提示词结构,基础结构如下: 1. 符合角色扮演的,基于 html 标签语法编写格式,好处是不用再学 Markdown 语法,降低学习门槛,有更完善逻辑结构且逻辑可嵌套,但坏处是比 Markdown 语法逻辑负担重,初学者易忘记写闭合标签。 2. 您也可以继续使用 MarkDown,只要抽象出来的元素不瞎换位置就行,因为目前这个次序是实际组合排列测试中效果最好的。 同时,还有关于 AIGC 其他方面的内容,如: 1. AI 将使任何人都能够创建游戏,包括人工智能+人类共同创作工具、提示共享和搜索等方面。 2. AIGC 存在刑事法律风险,如利用 AIGC 传递假新闻、诈骗等,服务提供者应遵循相关规定,采取标识、保存日志、设置反馈机制等措施以确保合规。
2025-04-14
写论文,AI写的部分比较多,如何降低AIGC呢?
以下是一些降低论文中 AIGC 比例的方法和常用的 AIGC 论文检测网站: 降低 AIGC 比例的方法:需要您更多地进行自主思考、研究和创作,减少对 AI 生成内容的依赖。 AIGC 论文检测网站: Turnitin:是广泛使用的学术剽窃检测工具,增加了检测 AI 生成内容的功能。使用方法为上传论文,系统自动分析并提供详细报告,标示出可能由 AI 生成的部分。 Copyscape:主要用于检测网络剽窃行为,虽非专门的 AIGC 检测工具,但可发现可能被 AI 生成的重复内容。输入文本或上传文档,系统扫描网络查找相似或重复内容。 Grammarly:提供语法检查和剽窃检测功能,剽窃检测部分可帮助识别可能由 AI 生成的非原创内容。将文本粘贴到编辑器中,选择剽窃检测功能,系统提供分析报告。 Unicheck:基于云的剽窃检测工具,适用于教育机构和学术研究,可检测 AI 生成内容的迹象。上传文档或输入文本,系统分析生成报告,显示潜在的剽窃和 AI 生成内容。 :专门设计用于检测 AI 生成内容的工具,使用先进算法分析文本,识别是否由 GPT3 或其他 AI 模型生成。上传文档或输入文本,系统提供详细报告。 :提供免费的 AI 内容检测工具,可识别文本是否由 AI 生成。将文本粘贴到在线工具中,点击检测按钮,系统提供分析结果。 GPTZero:专门设计用于检测由 GPT3 生成内容的工具,适用于教育和出版行业。上传文档或输入文本,系统分析并提供报告。 Content at Scale:提供 AI 内容检测功能,帮助识别文本是否由 AI 生成。将文本粘贴到在线检测工具中,系统分析并提供结果。 这些工具和网站可以帮助教育机构、研究人员和编辑识别 AI 生成的内容,确保学术和出版的原创性和诚信。您可以根据具体需求选择适合的工具来进行检测。
2025-04-13
降低让写论文时aigc查重的提示词
以下是一些可能有助于降低写论文时 AIGC 查重的提示词相关内容: 1. 利用连锁密度法撰写摘要:来自相关文章,您向其索取一篇文章后,需通过重复特定步骤来撰写逐渐简洁、重点突出的摘要。步骤包括找出遗漏的关键要素并编写新的更精炼的摘要,要遵循一系列原则,如与主要内容紧密相关、具体简明、新颖、忠实原文等,最终以 JSON 格式回答,包含“Missing_Entities”和“Denser_Summary”两个键值。 2. 适配 DeepSeek 的结构化提示词:结构化提示词对整理逻辑内容有帮助,当前旧的结构化提示词在 DeepSeek 上不好使的主要原因包括限制模型自主思考能力、包含低信息价值内容、严格的输出格式要求限制表达方式等,应设计新的提示词结构,如基于 html 标签语法的编写格式,其有降低学习门槛、完善逻辑结构等好处,也有逻辑负担重等坏处。 3. RAG 提示工程(二)中的安全与防护实践:文章最初发表于 LangGPT 社区,融入了宝贵见解。提到之前提过的提示词安全问题,展示了某 toC 产品泄漏提示词及模型回复的情况,强调对于生产级应用,安全是第一位的,在讲解更进一步的提示词技术前要先关注提示词安全。
2025-04-11
什么是AIGC
AIGC(人工智能生成内容)是一种利用人工智能技术生成各种类型内容的应用方式。它能够通过机器学习和深度学习算法,根据输入的数据和指令生成符合特定要求的内容,在内容创作、广告、媒体等领域有着广泛的应用。 具体来说: 1. 文字生成:使用大型语言模型(如 GPT 系列模型)生成文章、故事、对话等内容。 2. 图像生成:使用 Stable Diffusion、DALLE 等模型生成艺术作品、照片等。 3. 视频生成:使用 Runway、KLING 等模型生成动画、短视频等。 AIGC 又称为生成式 AI,例如 AI 文本续写,文字转图像的 AI 图、AI 主持人等,都属于 AIGC 的应用。类似的名词缩写还有 UGC(普通用户生产),PGC(专业用户生产)等。能进行 AIGC 的产品项目和媒介很多,包括但不限于: 语言文字类:OpenAI 的 GPT,Google 的 Bard,百度的文心一言等。 语音声音类:Google 的 WaveNet,微软的 Deep Nerual Network,百度的 DeepSpeech 等,还有合成 AI 孙燕姿大火的开源模型 Sovits。 图片美术类:早期有 GEN 等图片识别/生成技术,去年大热的扩散模型又带火了我们比较熟悉的、生成质量无敌的 Midjourney,先驱者谷歌的 Disco Diffusion,一直在排队测试的 OpenAI 的 Dalle·2,以及 stability ai 和 runaway 共同推出的 Stable Diffusion。 GenAI(即生成式 AI)是一种能够从已有数据中学习并生成新的数据或内容的 AI 应用,利用 GenAI 创建的内容即 AIGC。作为一种强大的技术,生成式 AI 能够赋能诸多领域,但也存在多重潜在的合规风险。目前,我国对 AIGC 的监管框架由《网络安全法》《数据安全法》及《个人信息保护法》构成,并与《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》、《科技伦理审查办法(试行)》等形成了共同监管的形势。AIGC 主要分为语言文本生成、图像生成和音视频生成。语言文本生成利用马尔科夫链、RNN、LSTMs 和 Transformer 等模型生成文本,如 GPT4 和 Gemini Ultra。图像生成依赖于 GANs、VAEs 和 Stable Diffusion 等技术,应用于数据增强和艺术创作,代表项目有 Stable Diffusion 和 StyleGAN 2。音视频生成利用扩散模型、GANs 和 Video Diffusion 等,广泛应用于娱乐和语音生成,代表项目有 Sora 和 WaveNet。此外,AIGC 还可应用于音乐生成、游戏开发和医疗保健等领域,展现出广泛的应用前景。AIGC 应用可能引发内生风险、数据隐私问题和知识产权风险。内生风险包括算法的不可解释性和不可问责性,以及代码开源可能带来的安全和伦理担忧。数据隐私方面,AIGC 工具可能导致数据泄露、匿名化不足、未经授权的数据共享等问题。应用风险涉及作品侵权、不当竞争等问题。相关法律和规定对 AIGC 的透明性、数据收集和处理、知识产权归属等提出了要求。然而,著作权归属、数据隐私等问题尚需更多法律明确规定。此外,AIGC 的滥用可能导致虚假信息传播、侵犯隐私等问题,因此需要进一步加强监管和伦理约束。
2025-04-10
GAI的含义
GAI 即生成式人工智能(Generative AI),是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。 其主要特点和功能包括: 1. 能够从语音和单张肖像图片合成自然的会说话的头像视频。 2. 支持诸如“悲伤”“张开嘴”或“惊讶”等文本提示来指导视频生成。 3. 允许精确控制虚拟人物的每个面部动作,比如微笑或惊讶的表情。 4. 可以接受语音、视频或文字指令创建会说话的人物头像视频。 根据语音生成会说话的虚拟人物。 根据视频生成会说话的虚拟人物。 控制虚拟人物的头部姿势。 在学习和了解 GAI 时,只要记住“生成”两个字即可。目前大部分人所说的 AI 本质上都属于生成式人工智能,而 AI 生成的内容称为 AIGC(AI Generated Content)。
2025-03-23
通往GAI之路中AI提示词板块李继刚的提示词如何使用
李继刚的提示词使用方法如下: 从最佳实践中的收录内容开始学习,其结构化提示词能让模型给出更优质、完整的答案。 操作时可点开并复制相关提示词,将复制内容丢进大语言模型对话,会有不同效果。 近期提示词有升级,李继刚老师将提示词玩到新高度,cloud 等大语言模型可直接显示编译结果内容。 输入特定提示词可生成卡片,小创业项目可利用并改变提示词形成独到见解或小应用。 李继刚老师会在 13 号讲创作思路。 从工程视角看,一个提示词就能用于写游戏,如现在的 AI 编程(如 CURSOR)能做出开源小游戏,可拿来使用、交流并研究内容、优化改造。
2025-03-09
公共议题:AI如何助力HR业务? 研讨目标: 深入理解:深入探讨 AI在人力资源管理领域的应用、薪酬管理、员工关系、公司文化、包括人才获取与配置、学习与发展、组织与人才培、HR共享与HRIS等各模块的可应用场景 机会识别与场景落地:基于组织现状,识别出业务价值高、可落地的 A 应用场景; 研讨成果(输出物): 请输出10个业务价值高、具备可行性的AI应用场景介绍,并说明what(场景是什么)、why(为什么值得做)、How(如何落地);
以下是为您生成的 10 个业务价值高、具备可行性的 AI 应用场景介绍: 1. 人才招聘与筛选 What:利用 AI 技术对求职者的简历进行自动筛选和分析,评估其与岗位的匹配度。 Why:节省 HR 大量的时间和精力,提高招聘效率和准确性。 How:通过自然语言处理和机器学习算法,训练模型识别关键信息和技能。 2. 员工培训与发展 What:根据员工的技能水平和职业发展目标,定制个性化的培训计划。 Why:提升员工的能力和绩效,增强员工对企业的忠诚度。 How:利用大数据分析员工的工作表现和学习需求,推荐相关课程和学习资源。 3. 薪酬福利管理 What:运用 AI 预测市场薪酬趋势,为企业制定合理的薪酬策略。 Why:保持企业薪酬的竞争力,吸引和留住优秀人才。 How:收集和分析行业薪酬数据,结合企业的财务状况和战略目标进行优化。 4. 员工绩效评估 What:借助 AI 实时监测员工的工作表现,提供客观的绩效评估。 Why:减少人为偏差,确保评估的公正性和准确性。 How:利用工作流程数据和行为分析模型进行评估。 5. 员工关系管理 What:通过 AI 分析员工的情绪和满意度,及时发现问题并解决。 Why:营造良好的工作氛围,提高员工的工作积极性和创造力。 How:使用情感分析技术处理员工的反馈和交流信息。 6. 组织架构优化 What:利用 AI 分析企业的业务流程和人员配置,提供组织架构调整建议。 Why:提高企业的运营效率和灵活性,适应市场变化。 How:基于数据分析和模拟优化算法进行评估和推荐。 7. 人力资源规划 What:根据企业的战略目标和业务发展预测人力资源需求。 Why:提前做好人才储备和招聘计划,保障企业的正常运营。 How:运用数据分析和预测模型进行规划。 8. 企业文化传播 What:使用 AI 生成个性化的企业文化宣传内容,提高传播效果。 Why:增强员工对企业文化的认同感和归属感。 How:利用自然语言生成技术和个性化推荐算法。 9. 智能客服 What:在 HR 服务中引入 AI 客服,解答员工常见问题。 Why:快速响应员工需求,提高服务质量。 How:训练智能客服模型,涵盖常见的 HR 问题和解决方案。 10. 人才库管理 What:利用 AI 对人才库进行分类和更新,提高人才库的利用效率。 Why:方便快速找到合适的人才,降低招聘成本。 How:运用数据挖掘和分类算法进行管理。
2025-04-14
公共议题:AI如何助力HR业务? 研讨目标: 深入理解:深入探讨 AI在人力资源管理领域的应用、薪酬管理、员工关系、公司文化、包括人才获取与配置、学习与发展、组织与人才培、HR共享与HRIS等各模块的可应用场景 机会识别与场景落地:基于组织现状,识别出业务价值高、可落地的 A 应用场景; 研讨成果(输出物): 请输出3-5个业务价值高、具备可行性的AI应用场景介绍,并说明what(场景是什么)、why(为什么值得做)、How(如何落地);
以下是为您提供的 3 个业务价值高、具备可行性的 AI 应用场景介绍: 场景一:AI 在企业招聘中的应用 What:利用 AI 技术进行简历筛选、人才匹配和面试评估。 Why:能够快速处理大量简历,提高招聘效率和准确性,节省人力和时间成本,同时更精准地找到符合岗位需求的人才。 How:通过引入相关的 AI 招聘软件,与企业现有的招聘系统集成,对简历进行关键词提取和分析,利用机器学习算法进行人才匹配,并通过视频面试中的语音和表情分析辅助评估候选人。 场景二:AI 助力个性化人力资源管理 What:根据员工的个人特点和工作表现,提供个性化的培训计划、职业发展建议和绩效评估。 Why:能够充分发挥员工的潜力,提高员工满意度和忠诚度,促进企业的长期发展。 How:收集员工的工作数据、学习记录和绩效表现等信息,运用 AI 算法进行分析和预测,为员工制定专属的发展方案,并通过移动应用或内部系统向员工推送相关建议和培训课程。 场景三:AI 打造无人值守的 HR 平台 What:实现 HR 业务的自动化处理,如员工请假审批、薪酬计算和福利发放等。 Why:减少人工操作的错误和繁琐流程,提高 HR 工作的效率和准确性,使 HR 人员能够专注于更有价值的战略工作。 How:整合企业内部的各种 HR 系统和数据,利用 RPA 和 AI 技术实现流程的自动化,同时建立监控和预警机制,确保平台的稳定运行。
2025-04-14
画数据库关系图,用什么al软件好
以下是一些可以用于画数据库关系图的 AI 软件和传统工具: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建,包括数据库关系图,用户可通过拖放界面轻松操作。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能,如数据库的逻辑视图(类图、组件图)、功能视图(用例图)和部署视图(部署图)。 3. ArchiMate:开源的建模语言,专门用于企业架构,支持逻辑视图创建,可与 Archi 工具配合使用,该工具提供图形化界面创建模型。 4. Enterprise Architect:强大的建模、设计和生成代码的工具,支持创建包括数据库逻辑、功能和部署等多种视图。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板用于创建数据库逻辑视图、功能视图和部署视图等。 6. draw.io(现称为 diagrams.net):免费的在线图表软件,允许创建各种类型图表,包括数据库逻辑视图和部署视图。 7. PlantUML:文本到 UML 的转换工具,通过编写描述性文本自动生成序列图、用例图、类图等,有助于创建数据库逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建包括数据库逻辑视图和部署视图等各种架构图的功能。 9. Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持创建包括数据库逻辑视图和部署视图等多种视图。
2025-03-22
AI、AIGC、大模型这三者之间有什么关系
AI(人工智能)是一种让机器展现智慧的目标。AIGC(人工智能生成内容)是利用人工智能技术生成包括文本、图像、音频和视频等内容的新型生产方式。大模型如大语言模型(LLM)是具有大量参数的“深度学习”模型。 生成式 AI 是一种让机器产生复杂有结构内容的目标。机器学习是让机器自动从资料中找公式的手段,深度学习是更厉害的类神经网络且有大量参数的手段。 AIGC 技术可用于多种应用,如自动撰写新闻文章、生成艺术画作等。ChatGPT 是 AIGC 技术在文本生成领域的一个应用实例,它是基于大型语言模型(LLM)的对话机器人,能根据用户输入生成连贯且相关的文本回复。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖循环神经网络(RNN)或卷积神经网络(CNN)。
2025-03-13
1、Puzzle 选择一个你(们)感兴趣的社会问题或者现象。 “赛博信仰”指在网络环境下衍生的一系列超现实、寄托心理期许的新兴文化现象。这种现象反映了人们在数字化时代中对精神寄托、心理安慰和未来预测的需求。赛博信仰不仅是一种文化现象,也反映了现代社会中人们对科技、信仰和现实之间关系的重新思考。 2、Facts 关于这个问题/现象,都有哪些基本事实? 比如有人购买电子形式的马克思、爱因斯坦的脑子,象征着对智慧的渴望;借助塔罗测试程序、deepseek算命等AI工具,尝试预知命运;夸赞鹿童、转发锦鲤
关于“赛博信仰”这一现象,目前所了解到的基本事实包括:有人购买电子形式的马克思、爱因斯坦的脑子以象征对智慧的渴望;借助塔罗测试程序、deepseek 算命等 AI 工具尝试预知命运;夸赞鹿童、转发锦鲤等。但目前掌握的相关事实相对有限,还需要进一步的研究和观察来更全面地了解这一现象。
2025-03-13
token与参数的关系
Token 与参数存在密切关系。在大模型中,用于表达 token 之间关系的参数众多,主要指模型中的权重(weight)与偏置(bias)。例如,GPT3 拥有 1750 亿参数,而词汇表 token 数相对较少,只有 5 万左右。 目前使用的大模型存在 token 限制,如 Claude2100k 模型的上下文上限是 100k Tokens(100000 个 token),ChatGPT16k 模型的上下文上限是 16k Tokens(16000 个 token),ChatGPT432k 模型的上下文上限是 32k Tokens(32000 个 token)。这种 token 限制同时对一次性输入和一次对话的总体上下文长度生效,当达到上限时不是停止对话,而是遗忘最前面的对话。 在分词过程中,不同的字符串会被编码为不同的 token,例如字符串“Tokenization”编码到 token30642 及其后的 token1634,token“is”(包括前面的空格)是 318 等。数字的分解可能不一致,如 127 是由 3 个字符组成的 token,677 是 2 个 token 等。 为了让计算机理解 Token 之间的联系,需要把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法包括基于统计的 Word2Vec、GloVe 等,基于深度网络的 CNN、RNN/LSTM 等,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力机制来学习不同 token 之间的依赖关系,生成高质量 embedding。
2025-03-06