AIGC已悄然无声地渗透了我们工作的每一个角落。我们或许正使用着硅谷巨头的智能软件,在国内的办公桌前编织着数字时代的梦想。我们不但需要了解大洋彼岸的相关规定,还要认真严肃地遵守国内法律法规。
2022年11月25日,国家互联网信息办公室、工业和信息化部、公安部令公布《互联网信息服务深度合成管理规定》(以下简称《规定》),该规定自2023年1月10日起施行。2023年7月10日,国家互联网信息办公室等七部门公布了《生成式人工智能服务管理办法》(以下简称“《办法》”),该办法自2023年8月15日起施行。
本节将根据《规定》和《办法》中的条文为读者做简单的介绍和说明。
生成式人工智能定义:指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。
深度合成技术定义:指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。
深度合成技术包括但不限于以下几类。
· 篇章生成、文本风格转换、问答对话等生成或者编辑文本内容的技术。
· 文本转语音、语音转换、语音属性编辑等生成或者编辑语音内容的技术。
· 音乐生成、场景声编辑等生成或者编辑非语音内容的技术。
· 人脸生成、人脸替换、人物属性编辑、人脸操控、姿态操控等生成或者编辑图像、视频内容中生物特征的技术。
· 图像生成、图像增强、图像修复等生成或者编辑图像、视频内容中非生物特征的技术。
· 三维重建、数字仿真等生成或者编辑数字人物、虚拟场景的技术。
从以上定义来看,生成式人工智能和深度合成技术从字面上比较有以下区别。
《办法》第四条也提到:“提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求……(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视……”
从定义以及《办法》第四条第二项的要求上看,生成式人工智能的魅力远非单纯的算法技术所能涵盖。除了算法,还融合了模型与规则。从计算机科学的视角来看,算法、模型与规则,可以理解为如下内容。
· 算法:一组解决问题或执行任务的明确、有序的步骤和指令,在有限的时间内给出结果。
· 模型:是机器学习中,通过算法从数据中学习得到的用于预测或分类的数学表达式或结构。
· 规则:是明确的指导原则或条件,用于指导算法中的决策或行为。
换一个角度去理解:在生成式人工智能的世界,尽管它所包含的算法与深度合成技术有许多相似之处,都属于生成合成技术的范畴。但我们必须明白,《办法》所期望的监管范围,远不止于单一的技术或算法,其深度与广度都远超我们的想象。
深度合成技术这一称呼,其实是源于国外的“深度伪造”(deep fake)一词,由“深度学习”(deep learning)与“伪造”(fake)两词组合而来。所谓的生成式人工智能,则来源于西方颇受欢迎的“AI Generated Content”。
从生成合成算法的角度来看,本书认为,站在使用者视角来看,深度合成技术与生成式人工智能在本质上并无太大差异。即便是AIGC领域的“老司机”也不会细究其概念差异。实际上,它们之间的区别主要是由于应用的侧重点不同而产生的。例如,深度合成技术更多地应用于Deep Fake这样的合成类软件中,而生成式人工智能则更多地服务于ChatGPT这样的人工智能对话机器人。
首先,从更宏观的法律架构和立法宗旨出发,《规定》的初心在于加强对互联网信息服务中深度合成的管理。《办法》进一步印证了该规定的核心,即着眼于对互联网的有序治理。在《规定》发布会的答记者环节中,明确提及了规定的立法初衷,即在确保深度合成服务满足用户需求、提升用户体验的基础上,也要严防被不法分子滥用。这些滥用行为,如制作、发布违法信息、损害他人名誉、冒用他人身份进行诈骗等,都破坏了网络和社会的正常秩序,伤害了公众的合法权益,甚至对国家的安全与社会的稳定造成威胁。
另一方面,《办法》则更为广泛地关注于生成式人工智能的全面健康发展与规范应用,它不仅仅局限于互联网治理,更深入地探讨了整个人工智能行业的健康成长之路。
《规定》与《办法》的显著差异在于其更广泛的监管覆盖面。不仅仅针对技术的提供者,它还涵盖了深度合成服务的技术支持方,即为深度合成服务提供关键技术支持的机构和个人;同时,还包括深度合成服务的终端用户,即那些利用此技术制作、复制、发布、传播信息的组织和个体。
(1)关于数据监管。
《规定》对深度合成服务提供者和技术支持者在训练数据管理上的职责进行了明确,同时对训练数据与其他数据进行了明确的分类,并提出了各自的监管要求。特别是其中的“输入数据”条款,如第十条中明文指出:“深度合成服务提供者应确保深度合成内容的适当管理,并通过技术或人工手段对用户的输入数据和合成结果进行审查。”相比之下,《办法》更多地强调了数据来源的合法性,特别是对预训练和优化训练数据的来源,明确要求满足包括《中华人民共和国网络安全法》在内的多项规定。
(2)关于输出内容的监管。
尽管两个规定都强调输出内容应符合法律要求并反映社会主义核心价值观,但它们在处理不合规内容时的方法存在差异。《办法》对使用者的处置措施相对简明,仅限于暂停或终止服务;《规定》则提供了更多的应对手段,包括警告、功能限制、服务暂停和账户关闭等。值得一提的是,《生成式人工智能办法》中的第十五条特别规定了对于发现的或被用户举报的不合规内容,除了内容过滤等措施外,还要求在3个月内通过模型优化等方式避免再次生成此类内容。这一条款虽未明确提供者为主体,但从条文内容看,其目标应是指向提供者。这反映了监管机构希望看到人工智能技术能够在优化和训练中持续正向发展。
尽管这两个法规在立法目的、监管范围和具体的合规要求上都各有侧重,但它们与《算法推荐管理规定》之间存在明确的联系和相互衔接。例如,《生成式人工智能办法》的第六条和第十六条都明确指出,“在特定情境下,应参照《互联网信息服务算法推荐管理规定》和《深度合成技术规定》来进行操作。”具体来说,第六条提到:“在利用生成式人工智能产品为公众提供服务之前,应按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门提交安全评估,并依据《互联网信息服务算法推荐管理规定》完成算法备案及相关变更和注销手续。”同时,第十六条明确:“提供者应依据《互联网信息服务深度合成管理规定》为生成的图像、视频等内容加以标注。”
此外,这两个法规在与其他相关规定的衔接上也显示出了一致性。例如,在算法备案和安全评估方面,对于生成式人工智能和深度合成技术的产品,它们都设定了明确的要求。例如,《深度合成管理规定》的第十九条规定:“那些具备舆论属性或社会动员能力的深度合成服务提供者,应按照《互联网信息服务算法推荐管理规定》执行备案以及相关的变更和注销手续。”第二十条进一步指出:“当深度合成服务提供者推出具有舆论属性或社会动员能力的新产品、新应用或新功能时,应根据国家相关规定进行安全评估。”
在人工智能技术日益进步的当下,社会公众面临的信息泛滥境况使得信息真伪难辨,互联网已步入“所见未必为实”的后真实时代。本人即便作为从业者及研究者,都无法针对每条获取到的信息进行真伪验证。
随着越来越多的AIGC内容如惊涛巨浪般砸来,我们将如何应对挑战?
这使得我国监管部门需要持续建设并完善相关配套监管措施,需要根据各业务领域的独特性,逐步制定对应的监管要求,旨在弥补人工智能技术的监管空缺,最大程度地保障社会的信息安全。