首页 > 治理要闻 > 正文

生成式人工智能呼唤精准分层治理

为促进生成式人工智能技术健康发展和规范应用,国家网信办近日发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《办法》),向社会公开征求意见,引起广泛关注。

与以往分析已有数据的决策式人工智能不同,生成式人工智能可以创造新信息与内容。生成式人工智能走入公众视野的标志性事件是美国人工智能研究实验室OpenAI于2022年11月30日推出ChatGPT,其不仅具备非常惊艳的语言理解、生成、知识推理能力,而且能够实现快速迭代。一时之间,谷歌、阿里、百度等互联网公司纷纷推出自己的生成式人工智能产品,生成式人工智能也以前所未有的态势闯入了社会生活的方方面面。

生成式人工智能虽然表现令人称叹,但带来的风险与法律挑战同样令人担忧。其可能存在知识产权侵权、生成虚假信息等问题,也存在数据安全和隐私保护风险。由于生成式人工智能的发展超出各国监管预期,因此尚未与各国法律中对个人信息处理者、数据处理者与算法服务提供者的相关义务协调衔接。

正是考虑到生成式人工智能给社会治理等方面带来的挑战,近段时间以来,各国政府不约而同做出了相应的立法与监管动作。意大利宣布从3月31日起禁止使用ChatGPT,德国、法国、爱尔兰等国也准备效仿意大利的做法,加强对生成式人工智能的监管。4月11日,美国商务部下属机构也发布“人工智能问责政策”征求意见稿,就是否需要对ChatGPT等人工智能工具监管征求意见。正是在这样的背景下,国家网信办发布《办法》,拟对生成式人工智能进行规范。

此次《办法》对利用生成式人工智能提供服务提出了一系列要求,包括生成式人工智能服务提供者应当进行安全评估,并对生成的内容进行标识;采取技术措施,防止虚假信息生成,防止算法歧视,以及防止侵害他人合法权益。这些要求体现了网信部门对内容安全责任分配的高度关注以及“装好刹车再上路”的监管思路。在当前各类生成式人工智能服务广受关注、千帆竞发之际,这有助于起到凝聚共识和规范指引作用。

需要关注的是,生成式人工智能的功能远不止于提供信息内容服务,其可以作为“技术基座”给金融、医疗、自动驾驶等多个领域赋能。在产业分层中,首先通过海量数据使生成式人工智能底层大模型“见多识广”,具有强大能力;其次通过“术业有专攻”的专业优化训练,让其适配不同行业和场景;最后再向C端用户直接提供服务应用。由此可见,生成式人工智能未来将成为社会的“技术基础设施”。

基础设施是经济社会发展的重要支撑,前期建设需要国家布局规划适度超前发展,后期使用需要强调公共服务的公平性分配,并在此过程中统筹安全与发展。生成式人工智能监管不宜为了服务应用层的信息内容安全,影响其作为基础设施的功能研发,对训练数据、模型开发等施加过多义务。

生成式人工智能应精准治理,依照技术—行业—应用的上下游分为“模型基座—专业模型—服务应用”三层,区分治理理念与监管重点。技术层的模型基座治理应以发展为导向,关注科技伦理、推动公共训练数据池建设、合理分配算力;专业模型层治理应以审慎包容为理念,关注关键领域与场景,注重遵循行业规范,在此领域可引入分级分类治理;服务应用层应关注信息内容安全、市场竞争秩序与用户权益保护,沿用原有评估备案审计等监管工具,并适时引入新型监管工具,细化合规免责制度,给新兴技术发展留下试错空间。

管制和创新,也即安全和发展,是网络立法的永恒命题。从某种意义上讲,不发展是最大的不安全。掌握人工智能治理的话语权、规则制定权,抢先形成新的国家竞争优势,已成为世界各国的努力目标。我国在个人信息保护和数据立法领域与欧盟、美国并行,在算法治理和深度合成治理领域则成为领跑者。在此基础上,应以促进生成式人工智能健康发展为契机,积极构建符合我国实际且能够促进我国人工智能技术产业长远健康发展的治理制度,这样也有助于形成我国的制度竞争优势。