Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

欧盟人工智能法案在实施中对我国未来立法的影响

Answer

欧盟人工智能法案在实施中对我国未来立法主要有以下影响:

  1. 参考意义:我国与欧盟在人工智能立法方面处于“齐头并进”态势,且立法理念有共通之处,欧盟的《人工智能法案》对我国人工智能立法工作具有重要参考价值。
  2. 产品调整:若AI项目有意拓展欧洲市场,可能因不同市场要求而需根据欧盟法案对产品进行调整。
  3. 对中小企业的监管:我国法律制度在一般性规定基础上强化对大型企业监管,而欧盟法案顾及到中小企业弱势地位。将对中小企业的合规义务豁免及合规支持规定纳入我国未来人工智能立法,有利于形成公平竞争秩序,激发中小企业科技创新活力,避免过度监管。
  4. 法律衔接:我国《个人信息保护法》规定可能对人工智能研发和部署使用中的个人信息处理形成合规障碍,而欧盟《人工智能法案》在不影响GDPR实施的情况下对涉及个人数据的处理进行了解释和衔接。我国若进行统一的人工智能立法,个人数据处理的合法性问题无法回避,可在立法中进行特别规定。
Content generated by AI large model, please carefully verify (powered by aily)

References

快讯|欧盟《人工智能法案》,已通过谈判

三、《法案》将对我国AI监管产生何种影响?我国与欧盟对于人工智能立法的工作一直以来处于“齐头并进”的态势,遥遥领先于其余各国,双方的立法理念也不难看出有共通之处,尤其体现在风险分级管理、高风险项目的“备案”、“评估”、“透明”等原则,均在《生成式人工智能服务安全基本要求》、《人工智能法1.0(专家意见稿)》等相关法律法规中已有所体现,此次欧盟的《人工智能法案》也必将对我国人工智能立法工作具有重要参考意义。同时,如果AI项目有意拓展欧洲市场,由于针对不同市场重新训练特有模型的效率不高,将因“木桶原理”而不得不根据欧盟《人工智能法案》而对产品进行调整。四、总结监管过严,则技术发展不畅,监管过松,则乱象丛生。但监管势在必行,毕竟技术侵染的土壤后留下的烂摊子,最终依然是政府出面收场。马老师曾经说过,战胜AI最好的办法是先掌握AI,关注监管动态,是为了稳步跑赢落在最后的那个人,为此你可以关注这个公众号,还可以扫码添加我的微信,找我喝个咖啡。

【非官方解读】全球人工智能治理大变局之欧盟人工智能治理 监管框架评述及启示

[heading4](4)对中小企业的兼顾激励与监管的制度体系相较而言,我国的法律制度更多是在一般性规定的基础之上,强化对大型企业的监管。例如,就《个人信息保护法》而言,关键信息基础设施运营者和大型个人信息处理者将面临更多的合规义务,执行个人信息出境时也面临更严格的要求;而对于小型个人信息处理者的保障仅出现在第62条,属于个人信息保护工作推进内容之一,但目前尚未有具体规定。而专门针对人工智能领域制定的,针对算法推荐、深度合成、以及生成式人工智能的办法,均没有对中小型的服务提供者制定专门的规定,以控制其合规成本。从防止垄断,促进人工智能技术创新的角度而言,欧盟的《人工智能法案》顾及到了中小企业在当中的弱势地位。我们认为,适当地将对中小企业的合规义务豁免规定以及合规支持规定纳入到未来的人工智能立法中,将有利于形成人工智能领域健康有序的公平竞争秩序,有效激发中小企业的科技创新活力,同时也能够在制度上有效防止过度监管,避免“放过老虎抓苍蝇”的行为。以上,我们对欧盟整体的人工智能治理框架及2023年《AI法案》折衷草案的重点变化进行了梳理。可以看到,欧盟对于人工智能的治理整体上由分散不断趋于统一。同时,也逐渐重视欧盟内各项法律法规的衔接问题,以期构建欧洲数据治理的整体格局。接下来,我们将继续分析《人工智能法案》的重点制度,并通过对比分析,为我国的人工智能治理的具体路径提供可行思路。扫码订阅“金杜律师事务所”,了解更多业务资讯https://www.brookings.edu/blog/techtank/2023/05/08/the-politics-of-ai-chatgpt-and-political-bias/

【非官方解读】全球人工智能治理大变局之欧盟人工智能治理 监管框架评述及启示

[heading4](2)人工智能法律与现有数据保护法律,特别是个人信息保护法制度的衔接性[content]人工智能的研发和部署使用离不开对数据,尤其是个人信息的处理。但我国《个人信息保护法》的规定可能会对上述活动形成一定的合规障碍。在《个信法》第13条所规定的各类个人信息处理的合法性中,仅有个人同意和基于合同履行所必须可以作为使用人工智能进行个人信息处理的合法性基础。诚然,就人工智能的部署和使用而言,上述合法性基础的获取并不存在特殊的障碍。但如果在研究开发环节也要求获取上述合法性,则会极大增加相关责任主体的合规成本。虽然欧盟《人工智能法案》明确不排除一般情况下对GDPR的适用(Art2.5a),但在合法性基础上,GDPR有更多的合法性基础供个人数据处理者主张。例如“控制者和其他第三方的正当利益”以及“为了实现公共利益、科学或历史研究或统计目的处理中的处理”。相较之下,《人工智能法案》在明确不影响GDPR的实施之下,在具体规定中对涉及个人数据的处理进行了解释和衔接。我国若计划进行统一的人工智能立法,那么个人数据处理的合法性问题将无法回避。比较好的方法当然是在人工智能立法中就合法性进行特别规定,以适用《个信法》第13条第1款第7项“法律、行政法规规定的其他情形”,为人工智能系统对个人信息处理提供额外的合法性基础。

Others are asking
你是福州市政府工作人员,中国移动拟邀请福州市委书记参加中国移动人工智能生态大会并致辞,该大会是第八届数字峰会的组成部分,需要撰写市委书记的致辞稿,需要中国移动准备哪些素材,请告诉我提示词
以下是为您整理的相关内容: 《促进创新的人工智能监管方法》:包含了关于通用人工智能价值链、相关案例研究以及对人工智能监管框架的探讨等内容。 陶力文律师关于律师写好提示词用好 AI 的方法:包括初始化的欢迎语、遵循的规则、获取案例洞察报告和目标群体、输出纲要和写作方案、根据用户反馈调整等流程。 开幕式主持稿:涉及基地代表发言的时间、主题、物料配合和人员配合等信息。 但这些素材似乎与为中国移动准备市委书记致辞稿所需的素材关联不大。一般来说,为撰写市委书记在中国移动人工智能生态大会上的致辞稿,中国移动可能需要准备以下素材: 1. 本次大会的详细介绍,包括主题、目标、议程安排等。 2. 中国移动在人工智能领域的发展成果、战略规划和未来愿景。 3. 中国移动人工智能生态的构建情况,如合作伙伴、合作项目等。 4. 本次大会在第八届数字峰会中的地位和作用。 5. 相关行业的人工智能发展现状和趋势。 6. 福州市在人工智能领域的发展情况和与中国移动合作的展望。
2025-04-18
人工智能软件现在有哪些
以下是一些常见的人工智能软件: 1. 在自然语言处理和神经科学应用方面,大型语言模型取得了进展,拥有更先进的工具用于解码大脑状态和分析复杂脑部活动。 2. 在艺术创作领域,有涉及知识产权保护的相关软件,如软件工程师在设计时应确保生成内容合法合规、注重用户知识产权保护等。创作者使用此类软件时,应了解自身权利并做好保护。 3. 在线 TTS 工具方面,如 Eleven Labs(https://elevenlabs.io/)、Speechify(https://speechify.com/)、Azure AI Speech Studio(https://speech.microsoft.com/portal)、Voicemaker(https://voicemaker.in/)等。这些工具可将文本转换为语音,具有不同的特点和适用场景。但请注意,相关内容由 AI 大模型生成,请仔细甄别。
2025-04-15
什么是通用人工智能
通用人工智能(AGI)是指具有人类水平的智能和理解能力的 AI 系统。它有能力完成任何人类可以完成的智力任务,适用于不同的领域,同时拥有某种形式的意识或自我意识。 目前 AGI 还只是一个理论概念,没有任何 AI 系统能达到这种通用智能水平。 OpenAI 在其内部会议上分享了 AGI 的五个发展等级: 1. 聊天机器人(Chatbots):具备基本对话能力的 AI,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 2. 推理者(Reasoners):具备人类推理水平的 AI,能够解决复杂问题,如 ChatGPT,能够根据上下文和文件提供详细分析和意见。 3. 智能体(Agents):不仅具备推理能力,还能执行全自动化业务的 AI。目前许多 AI Agent 产品在执行任务后仍需人类参与,尚未达到完全智能体的水平。 4. 创新者(Innovators):能够协助人类完成新发明的 AI,如谷歌 DeepMind 的 AlphaFold 模型,可以预测蛋白质结构,加速科学研究和新药发现。 5. 组织(Organizations):最高级别的 AI,能够自动执行组织的全部业务流程,如规划、执行、反馈、迭代、资源分配和管理等。 常见名词解释: AGI:通用人工智能(Artificial General Intelligence)能够像人类一样思考、学习和执行多种任务的人工智能系统。 NLP:自然语言处理(Natural Language Processing),就是说人话。 LLM:大型语言模型(Large Language Model),数据规模很大,没钱搞不出来,大烧钱模型。
2025-04-15
2025年人工智能大模型的技术提升有哪些,是参数?推理能力?还是语料
2025 年人工智能大模型的技术提升可能体现在以下几个方面: 1. 视频生成能力:如 2024 年推出的多个先进的 AI 模型能够从文本输入生成高质量视频,相比 2023 年有显著进步。 2. 模型规模与性能:更小的模型能驱动更强的性能,如 2022 年最小能在 MMLU 上得分高于 60%的模型是具有 5400 亿参数的 PaLM,到 2024 年,参数仅 38 亿的微软 Phi3mini 也能达到相同阈值。 3. 推理能力:尽管加入了如思维链推理等机制显著提升了大语言模型的性能,但在一些需要逻辑推理的问题上,如算术和规划,尤其在超出训练范围的实例上,这些系统仍存在问题。 4. AI 代理:在短时间预算设置下,顶级 AI 系统得分高于人类专家,但随着时间预算增加,人类表现会超过 AI。 5. 算法变革:如 DeepSeek 的出现标志着算力效率拐点显现,其通过优化算法架构显著提升了算力利用效率,同时 2025 年发布的大模型呈现低参数量特征,为本地化部署到 AI 终端运行提供了可能,其训练过程聚焦于强化学习,提升了模型的推理能力。
2025-04-14
用通俗易懂的动画描述人工智能工作原理
人工智能的工作原理可以通过以下动画来描述: 在一个动画场景中,首先有一个传统工作流的部分,就像精心搭建的积木城堡,每一块积木的位置和形状都被精确设计和控制,这代表着传统工作流的可控性和高成本、慢速度。 然后是 AI 工作流的部分。想象一下,有一团混乱的色彩在飞舞,这团色彩代表着随机和不可控。但在这混乱中,有一种力量在尝试引导和塑造,就像在狂风中努力抓住风筝线一样,这就是在随机性中寻找可控性。 比如在一个生成音频与视频同步的例子中,动画展示了一个系统。首先,系统将视频输入编码成压缩的表示形式,就像把一大包东西压缩成一个小包裹。然后,扩散模型从随机噪声中不断改进音频,就像在混沌中逐渐塑造出清晰的声音。这个过程受到视觉输入和自然语言提示的引导,最终生成与提示紧密配合的同步逼真音频。最后,音频输出被解码,变成音频波形,并与视频数据完美结合。 总的来说,传统工作流在可控中寻找创新的随机,而 AI 工作流更多是在随机中寻找可控,两者各有优劣,结合起来能创造出更出色的成果。
2025-04-14
人工智能简史
人工智能作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但因方法无法大规模拓展应用场景,且从专家提取知识并以计算机可读形式表现及保持知识库准确的任务复杂、成本高,导致 20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源变便宜,数据增多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能。过去十年中,“人工智能”常被视为“神经网络”的同义词,因多数成功案例基于神经网络方法。 以下是人工智能发展历程中的一些重要节点: 1969 年:经历低潮。Marvin Minsky 和 Seymour Papert 阐述因硬件限制,几层的神经网络仅能执行基本计算,AI 领域迎来第一次泡沫破灭。 1960 1970 年代:早期专家系统。此时期 AI 研究集中在符号主义,以逻辑推理为中心,主要是基于规则的系统,如早期专家系统。 1980 年代:神经网络。基于规则的系统弊端显现,人工智能研究关注机器学习,神经网络根据人脑结构和操作创建和建模。 1997 年:深蓝赢得国际象棋比赛。IBM 深蓝战胜国际象棋冠军卡斯帕罗夫,新的基于概率推论思路广泛应用于 AI 领域。 1990 2000 年代:机器学习。AI 研究在机器人技术、计算机视觉和自然语言处理等领域取得显著进展,21 世纪初深度学习出现使语音识别、图像识别和自然语言处理进步成为可能。 2012 年:深度学习兴起。Geoffrey Hinton 开创相关领域,发表开创性论文引入反向传播概念,突破感知器局限。 2012 年:AlexNet 赢得 ImageNet 挑战赛。引发深度学习热潮。 2016 年:AlphaGo 战胜围棋世界冠军。DeepMind 的 AlphaGo 战胜李世石,标志着人工智能在围棋领域超越人类,对人类理解产生深远影响。
2025-04-10
人工智能权利法案蓝图
以下是关于《人工智能权利法案蓝图》的相关内容: 一、总体概述 《人工智能权利法案蓝图》(Blueprint for an AI Bill of Rights)旨在保障公民在人工智能应用中的各项权利。 二、具体应用 1. 公民权利、公民自由和隐私 在公共和私营部门,保护公民的言论自由、投票自由,免受歧视、过度惩罚、非法监视以及侵犯隐私和其他自由。 保障机会均等,包括公平获得教育、住房、信贷、就业和其他计划的机会。 确保公民能够获得关键资源或服务,如医疗保健、金融服务、安全、社会服务、有关商品和服务的非欺骗性信息以及政府福利。 2. 数据隐私 公民应通过内置保护措施免受滥用数据行为的影响,对自身数据的使用拥有代理权。 设计应选择保护公民免受隐私侵犯,默认包含数据保护,确保数据收集符合合理期望,仅收集特定上下文严格必需的数据。 自动化系统的相关人员应寻求公民许可并尊重其关于数据收集、使用、访问、传输和删除的决定;若无法做到,应采用替代的隐私设计保护措施。 系统不应采用混淆用户选择的用户体验和设计决策,或通过侵犯隐私的默认设置给用户带来负担。 仅在适当且有意义的情况下,才以同意证明数据收集的合理性,同意请求应简短、易懂,并为用户提供数据收集和使用环境的代理权,改变当前难以理解的数据通知和选择做法。 加强对敏感领域(如健康、工作、教育、刑事司法和金融)相关数据和推论以及青少年数据的保护和限制。 禁止在敏感领域滥用数据,相关数据和推论只能用于必要功能,并受到道德审查和使用禁令的保护。 公民和社区应免受不受控制的监视,监视技术应受到加强监督,包括进行部署前评估,以保护隐私和公民自由。持续监视和监测不应在教育、工作、住房等可能限制权利、机会或访问的环境中使用。只要有可能,公民应有权访问报告,以确认数据决策得到尊重,并评估监控技术的潜在影响。
2025-01-10
欧盟人工智能法案立法理念
欧盟人工智能法案的立法理念主要包括以下几个方面: 1. 风险分级管理:对不同风险程度的人工智能应用进行分类监管。 2. 强调高风险项目的“备案”“评估”“透明”等原则。 3. 全面禁止人工智能用于某些特定领域,如生物识别监控、情绪识别、预测性警务。 4. 要求生成式人工智能系统如 ChatGPT 披露内容是人工智能生成的。 5. 认为用于在被认为高风险的选举中影响选民的人工智能系统需特别监管。 6. 旨在促进以人为本、值得信赖的人工智能的应用,并保护健康、安全、基本权利和民主免受其有害影响。 7. 确保欧洲开发和使用的人工智能完全符合欧盟的权利和价值观,包括人类监督、安全、隐私、透明度、非歧视以及社会和环境福祉。 2021 年 4 月发布的《人工智能法案(提案)》引入了风险分级监管、市场准入制度、监管沙盒等制度,以应对突出的算法黑箱问题,确保投放到欧盟市场的人工智能系统及其使用的安全性。近年来,欧盟针对数据治理发布的一系列法案,与即将正式出台的《人工智能法案》共同构成欧盟数据战略框架下的重要监管规则,从底层逻辑入手加强数据的安全保护,促进欧洲数据流动,防范算法自动化决策的潜在风险,建立相关伦理价值标准,保障个人权利,构建监管与创新发展的平衡机制。
2024-12-31
欧盟人工智能法案对我国在生成式人工智能方面立法的启示。
欧盟人工智能法案对我国在生成式人工智能方面立法具有以下启示: 1. 立法理念方面:我国与欧盟在人工智能立法上有共通之处,如风险分级管理、高风险项目的“备案”“评估”“透明”等原则,在我国相关法律法规中已有所体现,欧盟法案对我国立法工作具有重要参考意义。 2. 特殊领域监管方面: 算法推荐、深度合成、生成式人工智能是我国规制人工智能的具体领域。欧盟法案对这些领域的某些产品或服务有特殊回应,一定程度上印证了我国特别监管的必要性。 对于深度合成,欧盟法案强化了系统使用主体信息透明度的要求,与我国相关规定有一致性,但我国规定更全面,不过存在规定交叉重复适用的问题。 对于生成式人工智能,欧盟法案将其视为“基础模型”的一种类型,并规定了额外义务,我国相关规定在义务上更为全面。 3. 监管体系方面: 中国针对不同涉及算法的互联网信息服务,以落实主体责任为基本落脚点,将“服务提供者”作为相关义务的履行主体。 欧盟《人工智能法案》首先确立以风险为基准的人工智能治理框架,通过对人工智能系统进行评估划分风险层级,并匹配不同责任措施和差异化监管,进一步界定了各类主体的义务。
2024-12-31
结合欧盟《人工智能法案》和我国《生成式人工智能服务管理暂行办法》的对照,论述欧盟人工智能法案对我国在生成式人工智能方面立法的启示。
欧盟《人工智能法案》对我国在生成式人工智能方面立法的启示主要体现在以下几个方面: 1. 监管框架出发点:中国针对不同的涉及算法的互联网信息服务,以落实主体责任作为基本落脚点,将“服务提供者”作为相关义务的履行主体。而欧盟《人工智能法案》首先确立以风险为基准的人工智能治理框架,通过对人工智能系统进行评估,划分为不同风险层级,并匹配不同的责任措施和差异化监管。 2. 风险分类分级监管与算法安全评估:在我国,相关指导意见和法规已提出风险防控和算法分级分类安全管理的要求,以及对生成式人工智能服务的分类分级监管要求。欧美在这方面的路径和方法虽有争议,但总体上对我国仍具借鉴意义。
2024-12-31
结合欧盟《人工智能法案》和我国《生成式人工智能服务管理暂行办法》的对照,论述欧盟人工智能法案对我国相关立法的启示。可以举例
欧盟《人工智能法案》对我国相关立法的启示主要体现在以下方面: 1. 监管框架出发点:中国针对不同的涉及算法的互联网信息服务,以落实主体责任为基本落脚点,将“服务提供者”作为相关义务的履行主体,如《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理办法》等。而欧盟《人工智能法案》首先确立以风险为基准的人工智能治理框架,通过对人工智能系统进行评估,划分为不同风险层级,并匹配不同责任措施和差异化监管。 2. 风险分级管理:我国与欧盟在立法理念上有共通之处,如风险分级管理、高风险项目的“备案”“评估”“透明”等原则,在我国相关法律法规中已有所体现。 3. 对拓展市场的影响:如果我国的AI项目有意拓展欧洲市场,由于针对不同市场重新训练特有模型的效率不高,将因“木桶原理”而不得不根据欧盟《人工智能法案》对产品进行调整。 总之,欧盟的《人工智能法案》对我国人工智能立法工作具有重要参考意义。
2024-12-31
欧盟《人工智能法案》在中国适用过程中的积极影响与不利影响,请举例说明
欧盟《人工智能法案》在中国适用过程中的积极影响与不利影响举例如下: 积极影响: 1. 对中小企业的兼顾激励与监管:欧盟的法案顾及到了中小企业在人工智能领域的弱势地位,适当地将对中小企业的合规义务豁免规定以及合规支持规定纳入未来的人工智能立法中,有利于形成健康有序的公平竞争秩序,激发中小企业的科技创新活力,同时防止过度监管。例如,2023 年《AI 法案》折衷草案通过制约单方面强加给中小企业和初创企业的不公平合同条款、促进监管沙盒广泛而平等的参与、降低评估费用等措施降低中小企业的合规成本。 2. 纳入道德伦理和人权考量:《人工智能法案》将人工智能系统对伦理道德和基本人权的影响有机纳入规制框架和评估框架中,我国《科技伦理审查办法》也是将伦理纳入包括人工智能开发在内的科技活动的积极探索。 不利影响: 1. 以风险为基准的管理框架存在不确定性:伦理道德和人权具有高度概括性、抽象性和不确定性,如何将其融入人工智能治理考验立法技术。《人工智能法案》对“不可接受的风险”和“高风险”的人工智能系统的界定和解释存在相当大的不确定性和模糊性,可能难以统一进行风险分类,成效有待进一步观望和研讨。 2. 可能无法完全适应中国国情:中国和欧盟在人工智能发展的阶段、市场环境、企业结构等方面存在差异,欧盟的法案在具体适用时可能需要进行较大的调整和适配,否则可能无法有效发挥作用。
2024-12-29
AI目前在美国和欧盟的发展与应用情况
以下是关于 AI 目前在美国和欧盟的发展与应用情况的综合回答: 在知识产权方面: 国际知识产权保护协会(AIPPI)与美国的立法观点相似,否认将 AI 包含进“作者”的范畴,但其生成的内容能否取得版权注册取决于生成物所体现创造性的多少。 欧盟认为人工智能生成的内容必须受到知识产权法律框架的保护,且可以通过对欧洲现有法律的解释解决人工智能的版权问题。 在人工智能工具的使用和流量方面: 大多数顶级人工智能公司位于美国,少数位于亚洲。 所有欧盟国家合计产生了 39 亿流量,占总量的 16.21%。欧洲以及澳大利亚和加拿大在人工智能投资和采用方面落后。 欧盟已经制定了第一个人工智能监管法案,但最近的研究表明当前的许多人工智能模型不符合欧盟对人工智能的监管。 在行业发展方面: 英伟达(NVIDIA)仍是全球最强大的公司之一,享受着市值达到 3 万亿美元的辉煌时刻,而监管机构也正在调查生成式人工智能(GenAI)内部的权力集中问题。 虽然全球治理努力陷入僵局,但国家和地区的人工智能监管继续推进,美国和欧盟通过了几份有争议的立法法案。 在研究进展方面: 前沿实验室的性能正在趋同,但 OpenAI 在推出 o1 后保持了其领先地位,规划和推理成为主要的研究前沿。 基础模型展示了它们超越语言的能力,多模态研究推动了数学、生物学、基因组学、物理科学和神经科学的发展。 在安全问题方面: 世界各地的政府模仿英国在人工智能安全方面建立国家能力,成立研究所并研究关键国家基础设施的潜在漏洞。 每一个提出的破解「修复」方案都失败了,研究人员开始关注更复杂、长期的攻击。
2025-03-06
我国关于生成式人工智能的立法规定有哪些
我国关于生成式人工智能的立法规定主要包括以下方面: 1. 监管框架:由《网络安全法》《数据安全法》及《个人信息保护法》构成,并与《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《科技伦理审查办法(试行)》等共同监管。 2. 已发布的规定及生效时间: 《互联网信息服务算法推荐管理规定》于 2023 年 3 月 1 日生效。 《互联网信息服务深度合成管理规定》于 2023 年 1 月 10 日生效。 《生成式人工智能服务管理暂行办法》于 2023 年 7 月 13 日公布,2023 年 8 月 15 日生效。 《生成式人工智能服务安全基本要求(征求意见稿)》于 2023 年 10 月 11 日公开征求意见,意见反馈截止日期为 2023 年 10 月 25 日。 《科技伦理审查办法(试行)(征求意见稿)(伦理审查办法(草案)》于 2023 年 4 月 14 日公开征求意见,意见反馈截止时间为 2023 年 5 月 3 日。 《国家人工智能产业综合标准化体系建设指南(征求意见稿)》于 2024 年 1 月 17 日公开征集意见,意见反馈截止时间为 2024 年 1 月 31 日。 3. 适用范围: 《算法推荐规定》适用于任何使用算法推荐技术在中国境内提供互联网信息服务的行为。 《深度合成规定》适用于任何使用深度合成技术在中国境内提供互联网信息服务的行为。 《生成式 AI 办法》适用于使用生成式人工智能技术在中国境内向公众提供服务的行为,但不包括尚未用于在中国境内向公众提供服务的生成式人工智能技术的研究和开发。 《伦理审查办法(草案)》一旦实施,将适用于任何涉及人类、实验室动物或其他涉及伦理风险的科学技术活动。 4. 《生成式人工智能服务管理暂行办法》的相关规定: 第一条:为促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,根据相关法律、行政法规制定本办法。 第二条:利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务适用本办法。国家对利用生成式人工智能服务从事新闻出版、影视制作、文艺创作等活动另有规定的,从其规定。行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的,不适用本办法的规定。 第三条:国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。 第四条:提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德,遵守以下规定: 坚持社会主义核心价值观,不得生成法律、行政法规禁止的内容。 在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生歧视。 尊重知识产权、商业道德,保守商业秘密,不得实施垄断和不正当竞争行为。 尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。 基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。
2024-12-29