输入提示词后,画面中出现一位在旧金山市区飞驰的赛车手,他以极快的速度穿过金门大桥,并追赶上前方的赛车,宛如动作类电影的节选片段。2月中旬,OpenAI发布AI文字生成视频模型Sora,由Sora生成的视频随即在各大社交平台疯传,AI领域的迅速发展再一次让人们惊讶了。
全国政协委员、陕西省高级人民法院副院长、一级高级法官巩富文同样捕捉到了AI领域的新进展。今年全国两会,巩富文的一个提案聚焦从法治轨道推动人工智能快速健康发展。
在巩富文看来,人工智能相关立法既要考虑到推动技术的进步、推动产业的发展,也要考虑到对国家利益的维护、避免侵害他人合法权益,“必须统筹考虑”。
《中国新闻周刊》:你在今年全国两会的提案中提出,为推动人工智能健康发展,要审慎修改《著作权法》,为什么?
巩富文:无论是一年多以前OpenAI公司发布的ChatGPT还是今年发布的Sora,以它们为代表的生成式人工智能都有应用于文学、艺术创作领域,打破了人类对于创作的“垄断”。
但主流观点认为,《著作权法》的逻辑起点建立在自然人创作的作品上,若不是自然人作为创作者,而是有人输入提示词、由机器通过海量数据分析后进行整合,再产出的内容,缺乏人类智力贡献,没办法得到著作权保护。
另外,目前来看,生成式人工智能能够高质量且快速地生成内容,是因为有天量数据的“预训练”,而对于先前作品的利用行为,《著作权法》尚未作出规定,那么对于先前作品的利用,怎么利用才算合理?侵权责任怎么认定?这些都需要予以创新型回应。
巩富文:一是赋予AI生成物新型财产权。鉴于AI生成物缺乏自然人作者,难以被赋予著作权,建议将AI生成物纳入邻接权框架,与录音录像、电视广播、版式设计、数据库等没有办法获得“作品”地位的客体并列,同时设立新型财产权——“AI生成物者权”,认定其权利主体为人工智能生成程序的投资人和使用人,不但可以明确生成物法律地位和归属,推动其进入相关产业链、价值链,激励AI生成物的创作传播和产业投资,还可以为侵权责任认定打下良好基础,降低AI生成物对现有创作市场的冲击,以达到激励AI生成物的生产传播与公共领域保留相平衡的目的。
二是关于人工智能合理使用的问题。我国在2020年新修订的《著作权法》中列举了13种合理使用的情形。进入AI时代,人工智能技术高质量高效率的生成,有赖于天量数据的预训练。从产业高质量发展看,倘若“拒绝”其合理使用,或将提升大模型的训练成本。但合理使用不单纯是一个法律问题,需要在实践中进一步深入调研,平衡各方利益关切,凝聚社会共识。
三是设立AI生成物法定许可制度。AI生成物的应用,目前已从文本生成向图画、视频、语音等多模态、全领域发展,所涉主体除了众多个人用户之外,To B是其主要商业模式。如果在AI生成物市场交易中,过于强调财产排他性,将不得已与权利人逐个逐项协商谈判,成本将远超授权许可收益。
我认为可仿照录音制品设置生成物法定许可制度,如我国《著作权法》第40条第3款规定:“录音制作者使用他人已经合法录制为录音制品的音乐作品制作录音制品,可以不必征得权利人许可,但应当依规定向其支付报酬;著作权人声明不许使用的不得使用。”以此代替事前授权谈判,能够大大降低协商成本,提高许可效率,推动市场交易,满足市场大规模、高频率使用海量生成物的商业需求。
《中国新闻周刊》:事实上,你也提到,对AI的立法需要统筹考虑。据你所知,我国在人工智能立法领域有哪些进展?
巩富文:早在2017年7月,国务院就印发了《新一代AI发展规划》,当时提出分三步走的战略目标:到2020年,部分领域的人工智能伦理规范和政策法规初步建立;到2025年,初步建立人工智能法律和法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;到2030年,建成更完善的人工智能法律和法规、伦理规范和政策体系。
2023年6月,国务院发布2023年度立法工作规划,人工智能法草案就被列入其中。2023年7月,国家网信办联合国家发展改革委、教育部、科技部、工业与信息化部、公安部、广电总局发布了《生成式人工智能服务管理暂行办法》,在人工智能监管上布局了先手棋。另外,2022年,深圳出台了我国第一部人工智能地方性法规《深圳经济特区AI产业促进条例》。这是目前我国在AI领域立法的情况。
巩富文:我认为,应站在打造现代化产业体系、推动新质生产力发展的高度,强化法治顶层设计,制定出台《人工智能促进法》,把激励创新创造放在首要位置。鼓励创新,就是对于新技术新应用,要把增强原创能力作为一个重点,而且还要采取包容审慎的原则来规制。这里的创新指的是技术创新,之后逐渐发展到产业创新上来。
另外,也要保证安全,因AI既是技术发展的利器,也可能是风险的源头,可能还会带来一些颠覆性的破坏作用,技术的进步、产业的发展不能损害国家利益和社会利益。
《中国新闻周刊》:在人工智能立法还不成熟的时候,如何更好地对AI进行治理?
巩富文:人工智能作为一项新技术,一经诞生,就暗含着巨大的道德隐忧、伦理缺失、安全风险。总体来说,全球AI治理远远滞后于人工智能技术的发展。
一些企业或者个人,如果为了追逐高额利润,利用人工智能实施违法的行为,侵犯他人的合法权益,损害了国家利益和社会公共利益,该怎么查处?判定他违法和合法的界限在哪里?现在还缺少这样的依据。
去年10月,中国发布了《全球AI治理倡议》(以下简称为《倡议》),《倡议》提出,发展人工智能应坚持“以人为本”理念,应坚持“智能向善”的宗旨,应坚持伦理先行等等。我建议,以《倡议》为指引,在国家层面设立人工智能伦理委员会。
人工智能伦理委员会类似于社会团体,可以加强行业管理,应该多部门参与,具有权威性,能快速有效响应,实现敏捷治理。我们的祖国已经有了《网络安全法》《数据安全法》《个人隐私信息保护法》等法律,去年又发布了《科技伦理审查办法(试行)》,应该把这些法律和法规的作用发挥出来,建立科技伦理审查、负面清单准入、分级分类管理、协同监管等制度,这些制度有些可以管技术,有些可以管人,有些可以管产业。
在治理过程中,人工智能伦理委员会不间断地积累经验,等到了某些特定的程度,经验成熟了,就可以上升到法律的高度来进一步予以规范。治理中,粗细要结合起来,这个度一定要把握好。