一文读懂生成式AI新规六大亮点——不发展是最大的不安全

文|张凌寒  中国政法大学教授、博士生导师 编辑|朱弢  

2023年07月14日 21:54  

本文6135字,约9分钟

面对技术发展带来的机遇与挑战,《生成式人工智能服务管理暂行办法》既有制度创新,又保持一贯的监管体系,既重视信息内容安全,也多方推进技术产业发展,不仅引领国际人工智能治理实践,也为中国人工智能立法做出了有益探索,“暂行”二字更为未来统一的人工智能法留下无限的遐想空间。

社会广泛关注的《生成式人工智能服务管理暂行办法》(下称《暂行办法》)于2023年7月13日公开发布,将自8月15日起施行。

在三个月的时间里,《暂行办法》经历了向社会征求意见、组织研讨与修改、审议出台等一系列流程。最终,七部门拿出的最终版本与《征求意见稿》相比,规章体例和几乎所有条款均有形式或实质改动。

安全和发展是网络立法的永恒命题。在全球激烈竞争格局下,不发展是最大的不安全。总体来说,《暂行办法》的最终版本相较《征求意见稿》,在发展与安全的利益平衡中,更多倾斜向了发展一侧。这不仅体现在增加了有关技术产业发展的四个条款,也体现在适用范围、规制对象、法律地位、合规要求、监管工具等诸多方面。但也需要看到,仍存在一些需要在立法与实践中进一步明确之处。

本文尝试对诸多改动之处进行不尽完全的述评。

精准调整适用范围

《暂行办法》变动最大的是适用范围条款。与《征求意见稿》相比,第二条的改动从纵向的产业分层和横向的流程上,均限缩了《暂行办法》的适用范围。

第三条在适用范围上,不仅明确了“对境内公众提供服务”适用,还明确排除了不适用的场景,即“行业组织、企业、教育和科研机构、公共文化机构、有关专业机构,未向境内公众提供生成式人工智能服务”。这意味着,只有对“公众”提供的生成式人工智能服务适用《暂行办法》,对大量垂直领域,如支持科研、工业应用等场景则排除适用。

此外,将《征求意见稿》中的“研发和提供服务”改为了“提供服务”,这体现出《暂行办法》的规制重点在于服务应用层的信息内容安全,对模型及其相关技术作为基础设施的功能研发活动并不适用,意在鼓励生成式人工智能在多领域的探索应用。

第二条的显著改动回应了生成式人工智能功能的“基础模型-专业模型-服务应用”的分层业态,明确其作为数字基础设施的地位。《暂行办法》在第七条也提出了“基础模型”的概念,与“提供服务”一起,在规章层面承认了分层业态。因为生成式人工智能的功能远不止于提供信息内容服务,其可以作为“技术基座”,为金融、医疗、自动驾驶等多个领域赋能。

根据生成式人工智能的技术特点,在产业分层中,首先要通过海量数据使底层大模型“见多识广”,具有强大能力;其次通过“术业有专攻”的专业优化训练,让其适配不同行业和场景;最后再向C端用户直接提供服务应用。

按照《暂行办法》目前的适用范围,把握的节点在于“对境内公众提供服务”。如果基础模型不直接向公众(C端)提供服务,仅仅向垂直领域的B端提供服务,如生物医药研发、工业建模设计等,则并不落入其规制范围。同样,如果优化训练和二次开发的专业模型(B端)仅限于科研和工业应用等场景,并不向社会公众提供服务,也不在《暂行办法》的适用范围内。

因此,适用范围条款的改动直接回应了生成式人工智能的分层业态,仅对可能产生信息内容安全风险的服务应用层——向境内公众提供服务提出要求,实现了分层的精准治理。当然,在实践中B端与C端的界定有待进一步明确。如有企业使用专业模型生成的内容直接向用户提供服务,又或有企业进行基础模型的初步训练,形成具有仅限一定范围内生成功能的服务应用(如点菜、专业咨询),但C端用户并不与模型在线互动等。这些特殊情形是否落入适用范围,仍有待实践的进一步明确。

首次提出模型治理

模型首次成为了规制对象进入立法,这一改变可以说迅速回应了技术发展,也标志着技术治理进入到新的发展阶段。《暂行办法》围绕模型治理,建立了覆盖生成式人工智能生命周期的监管制度。

首先,在《暂行办法》的术语定义中,第二十二条的定义就落在了模型上,即“生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术”。模型既是生成式人工智能应用前的技术工程,又直接影响到最终生成的内容,它在技术层面将技术支持者、服务提供者与内容生产者融为了一体,因此有必要专门将其作为治理对象。这也体现出《暂行办法》与《互联网信息服务深度合成管理规定》的区别:针对的底层技术逻辑不同。《暂行办法》基于海量数据训练大模型的技术逻辑来设计监管制度,与深度合成服务以生成合成类算法作为规制对象有所差别,体现近年来中国“算法—深度合成—生成式人工智能”的制度体系迭代路径。

其次,模型是生成式人工智能服务监管的抓手。模型通过训练成为融合了数据、算法、算力的新型治理对象。《暂行办法》第四条将“算法设计、训练数据选择、模型生成和优化、提供服务”作为生成式人工智能服务的流程,而无论哪个流程环节,模型均可成为治理抓手。在第十四条也在违法内容的处置方式中新增了“模型优化训练”等措施。可以说,这充分抓住了技术产业发展的最新变化。

再次,《暂行办法》首次提出了“基础模型”的概念。第七条提出要求“适用具有合法来源的数据和基础模型”。然而,在基础模型的层面如何定义“合法来源”有待明确。目前LLaMA等开源基础模型已为业界所用,尽管这些模型公布了训练数据集,但对数据合法合规情况并不明晰,这有待后续《暂行办法》适用中的进一步明确。

目前,中国与欧盟均对生成式人工智能做出了相应立法。欧盟的《人工智能法案》将“人工智能系统或基础模型”作为调整对象,第28b条专门规定了基础模型提供者的义务。不同的是,欧盟在2023年初紧急调整了整部法案,中国则采用了小切口立法、急用现行的方案。

但是,如何实现模型的分类分级监管仍有待进一步明确。《暂行办法》的第三条与第十六条均提出,进行审慎包容与分级分类监管,制定相应的规则与指引。目前中国的分类分级体系中包括数据、算法、主体、场景四类标准。而模型已经将这四类标准有机融合,建议未来应考虑将模型生成能力作为分类分级的考量,同时包含了数据处理量级和应用场景等因素。

优化调整责任机制

《暂行办法》将《征求意见稿》第五条的“内容生产者责任”改为了“网络信息内容生产者责任”,要求生成式人工智能服务提供者履行网络信息安全义务。这不仅从法律地位上发生了较大改变,同时在第四条减轻了服务提供者的合规义务。

将“内容生产者责任”改为“网络信息内容生产者责任”,实际上限缩了服务提供者可能的法律责任。生成式人工智能如果被界定为内容生产者,则意味着服务提供者成为了AIGC内容生产者。目前国外实践中,相关方一般通过协议等方式对AIGC生成内容的归属作出明确规定,主要的路径即约定权益归属于最终用户,AIGC技术提供方获得相应的使用授权。如果规章明确将服务提供者界定为内容生产者,则其可能需要基于“内容生产者”的法律地位,承担起AIGC的知识产权侵权、人格权侵权、个人信息侵权等一系列责任。

而“网络信息内容生产者责任”则将服务提供者的责任范围限缩到了“网络信息安全责任”上。《网络信息内容生态治理规定》规范了网络信息内容生产者的相应义务,包括鼓励积极信息、不得制作复制发布违法信息、防范和抵制不良信息。这一修改明确将生成内容的监管目标设置在了网络信息内容安全上。

除此之外,服务提供者的信息内容合规义务也有所减轻。第四条将《征求意见稿》第四条的表述从“……不得含有暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容”,改为“不得生成暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容”。从“虚假信息”更改为了“虚假有害信息”的改变,增加了对于虚假信息危害后果的要求。同时也解除了业界关于生成“虚构(fiction)信息”是否属于“虚假信息”的困惑。同时,第四条第五款也将《征求意见稿》对生成内容“真实准确”的要求,改为“基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性”,这种柔性要求,进一步减轻了企业的内容合规义务。

完善训练数据要求

《暂行办法》第七条有关训练数据要求的修改,大大减轻了企业在研发和训练过程中的负担,第八条则明确了对于数据标注这一重要环节的规则要求。

由于模型的训练数据直接关系到生成结果,因此成为规制对象,并被提出合规要求。中国首次对训练数据提出合规要求是在《互联网信息服务深度合成管理规定》第十四条,“深度合成服务提供者和技术支持者应当加强训练数据管理,采取必要措施保障训练数据安全;训练数据包含个人信息的,应当遵守个人信息保护的有关规定。”

深度合成的技术形态与生成式人工智能并不相同,所以此前并未对深度合成的训练数据做除了数据安全和个人信息保护之外的其他要求。但是生成式人工智能模型的训练数据与生成结果之间的关系并不相同,其超越了“算法黑箱”的复杂性,数据规模产生“涌现”现象,更类似于食物被消化后长成了骨骼肌肉。因此,《暂行办法》第七条既提出了来源合法、形式合法和数据质量要求三个训练数据的合规向度,又相较《征求意见稿》降低了对企业的合规要求。

首先,将《征求意见稿》中“服务提供者对来源合法性负责”改为“使用具有合法来源”的训练数据。这一改变明确了训练数据只要“具有合法来源”即可,即符合《数据安全法》第三十二条规定:“任何组织、个人收集数据,应当采取合法、正当的方式,不得窃取或者以其他非法方式获取数据。”

其次,对于涉及知识产权、个人信息的训练数据,要求符合相关法律的规定。这为未来知识产权相关制度做出“合理使用”的制度安排或创新预留了空间,也强调了有关个人信息的训练数据获取需符合《个人信息保护法》规定,以满足处理个人信息的合法性基础。

最后,也是最重要的,《暂行办法》将对训练数据“真实性、准确性、客观性、多样性”的强制性要求改为了鼓励性要求,即“采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性”。这体现了“让产业向高质量方向发展”的政策导向,但现阶段限于产业实践并不做出强制性要求。

第八条则针对数据标注做出明确规定,提出制定“清晰、具体、可操作的标注规则;开展数据标注质量评估,抽样核验标注内容的准确性”。这些具体制度充分考量了生成式人工智能的技术特点,相比《征求意见稿》第十七条有关数据标注的规定,也做出了细化的制度安排。

充分重视要素供给

《暂行办法》增加了系列条款,从基础技术与制度层面,鼓励数据、算法、算力要素的发展与供给。有关人工智能三要素的各项具体制度开启了通用人工智能立法的序幕。

中国既有的人工智能治理制度,主要是分领域分场景出台的相关规范。如对算法基于功能领域分类的监管,对自动驾驶、未成年人保护等基于场景和主体的分类治理等。《暂行办法》则创造性地将数据、算力、模型等人工智能要素作为抓手。在算力方面,提出“促进算力资源协同共享、提升算力资源利用效能”;在数据方面,提出“推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源、对公共训练数据资源平台建设”。

与此同时,考虑到基础模型可接入千行百业,从而具有通用性,可能成为人工智能时代的新型基础设施,《暂行办法》提出“推进生成式人工智能基础设施建设”,鼓励算法、框架、芯片及配套软件平台等基础技术的自主创新,并鼓励采用安全可信的芯片、软件、工具、算力和数据资源。

在生成式人工智能要素的制度供给之外,《暂行办法》致力营造多方协同促进中国生成式人工智能发展的制度环境。具体体现在第五条,“支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作。” 并在第十六条作出了网信、发改等多部门协同的生成式人工智能服务的管理安排。

《暂行办法》协调多个监管部门对人工智能的多要素治理,提出完善与创新发展相适应的科学监管方式,迈向了通用人工智能时代的基础性治理,拉开了中国通用人工智能治理的序幕。

积极增进制度协调

第一,有关个人信息保护的制度更加协调。作为可能的个人信息处理者,大模型的技术业态与个人信息处理的“最小必要”原则的不协调、更正删除权履行困难等问题,一直是学界和业界关注的焦点。

《暂行办法》延续了《征求意见稿》对于服务提供者可能成为“个人信息处理者”的法律责任,要求其履行个人信息保护义务。但在具体规则上,《办法》第十一条增加了 “提供者应当依法及时受理和处理个人关于查阅、复制、更正、补充、删除其个人信息等的请求”,回应了社会的担忧。同时,保留了“不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录”,给用户提供了更为周延的个人信息保护。

第二,《暂行办法》第三章“服务规范”沿用了中国以往的监管制度,以保障信息内容安全,体现了监管的体系性和稳定性。如第十七条要求,提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当开展安全评估并履行算法备案、变更、注销备案手续。第十二条则要求服务提供者按照《互联网信息服务深度合成管理规定》的要求,对图片、视频等生成内容进行标识,延续了对于生成内容的标识要求。由此可见,《暂行办法》与中国既有的信息内容监管制度保持一致。

生成式人工智能的发展,标志着人工智能正在从专用智能迈向通用智能,进入了全新的发展阶段。中央政治局4月28日召开会议指出,要重视通用人工智能发展,营造创新生态,重视防范风险。面对技术发展带来的机遇与挑战,《暂行办法》既有制度创新,又保持一贯的监管体系,既重视信息内容安全,也多方推进技术产业发展,不仅引领国际人工智能治理实践,也为中国人工智能立法做出了有益探索,“暂行”二字更为未来统一的人工智能法留下无限的遐想空间。