以下是关于学习使用 AI 模型的一些建议和知识:
Teachable Machine: 这是由 Google 开发的机器学习工具,可应用于商品说明书、自动驾驶、教学互动等多个场景。使用步骤如下:
它具有多种优势:
AI 模型相关技术原理:
|技术名称|应用场景|技术类型|简介|主要特点|工作原理|其他|官方网站|项目及演示|论文|Github|在线体验|附件|最后更新时间||-|-|-|-|-|-|-|-|-|-|-|-|-|-||Teachable Machine:一个由Google开发的机器学习工具|这个项目在很多应用场景中可以被使用,<br>例如商品说明书,自动驾驶,教学互动等多个场景。|AI学习模型|它允许用户快速、简单地创建自己的机器学习模型,而无需专业知识或编程技能。<br><br>你可以用它来教电脑识别图片、声音或人的动作。|使用这个工具的步骤很简单:<br><br>1、收集数据:你可以上传图片、录制声音或动作视频来作为训练数据。<br><br>2、训练模型:用这些数据来训练你的模型,然后测试它能否正确识别新的图片、声音或动作。<br><br>3、导出模型:完成训练后,你可以下载这个模型,或者上传到网上,用在其他项目中。|Teachable Machine提供了多种方式来创建机器学习模型,非常灵活和用户友好。<br><br>1、使用文件或实时捕捉示例:用户可以选择上传已有的图片、音频文件作为数据,也可以直接通过电脑的摄像头或麦克风实时录制视频、声音作为训练数据。<br><br>2、可以在本地完成训练:用户有选项不通过网络发送或处理数据。所有操作,包括数据的收集、模型的训练和应用,都可以在用户自己的电脑上完成,不需要将摄像头或麦克风收集的数据发送到互联网上。这对于隐私保护是非常重要的,特别是当处理敏感信息时。<br><br>3、Teachable Machine”生成的模型是真实的TensorFlow.js模型,可以在任何运行JavaScript的地方工作。<br>此外,还可以将模型导出到不同的格式,以便在其他地方使用,如Coral、Arduino等。|||[https://teachablemachine.withgoogle.com](https://t.co/pZ3hjg3U2t)|||||2024/01/12|
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。