从导航软件中的“数字人”指路,到直播电商中的“虚拟主播”,再到最近爆火的ChatGPT,随着深度学习技术的快速演进和数据规模的快速增长,人工智能的应用已经渗入了我们日常生活的方方面面,尤其是不断被运用于写作、绘画、编曲和视频制作等创造性生产领域。这些人工智能“创作”物,极大地提高了行业生产效率,但也隐藏着法律与伦理的挑战。
人工智能生成的画面、文字等内容有版权吗?这是我们需要首先思考和回答的问题。能否享有版权,取决于“创作”物是否构成著作权法意义上的“作品”,即是否具有独创性。如果人工智能“创作”物符合著作权法的规定而享有版权,那么权利主体是谁?根据法律规定,一般作品的著作权归属于作者,但人工智能本身、人工智能的设计者、研发者、投资者、管理者、实际操控者等在作品的创作过程中均发挥着重要作用,权利的归属如何确定或分配,目前也尚无明确规定。
分析人工智能“创作”的过程可知,部分人工智能“创作”物的确涉及人类思想表达,如果具有独创性和可复制性,就可以满足成为“作品”的要求,应当享有版权。目前已有许多国家将人工智能创作的内容纳入版权法的保护范围,而版权的归属应当属于自然人。这是因为,人工智能“创作”物看似机器生成而非人类直接完成,但其实质却是应用算法、规则和模板的结果,当前人工智能创作主要包括训练数据输入、算法模型构建和最终结果生成阶段,无论是训练数据外部调整还是算法模型人工纠偏,人工智能创作依旧处于自然人的控制之下,人工智能创作无法脱离自然人的智慧支持,可以被视为自然人先前智力成果的延伸,体现的是开发者的思想与脑力劳动。而权利主体的确定可以考虑合同约定优先,以使用主体为中心和以投资主体为补充。
人工智能“创作”过程产生权利侵犯问题怎么办?人工智能的创作行为严重依赖于数据源,智能机器人要通过一定的程序进行“深度学习”“深度思维”,在这个过程中有可能收集、储存大量的他人已享有著作权的信息或个人隐私信息,这就有可能构成对他人著作权或隐私权的侵害。那么,谁需要为人工智能创作的权利侵犯问题承担责任?是为人工智能创作算法编程的技术人员,还是为人工智能创作注入资金的投资主体,抑或实际使用人工智能创作的用户群体?这是相关领域立法需要充分考量的问题。另一方面,技术的误用或滥用也可能滋生违法犯罪行为。如今,有的人工智能学习生成的内容在形式和逻辑上足以“以假乱真”,倘若技术被误用、滥用,比如被用于抄袭、诈骗等,甚至可能被用于危害个人生命财产安全、国家安全和社会公共利益。因此,有必要构建人工智能“创作”的规范标准,对相关技术使用者的行为形成有效约束,有效规制减少、防范智能内容科技应用可能带来的负面影响。
具体来说,一是明确人工智能创作的合理使用范畴,打破人工智能创作的算法黑箱,并实行差异化归责原则。著作权法规定的合理使用是指在特定情况下使用作品,可以不经著作权人许可,不向其支付报酬,但应当指明作者姓名或者名称、作品名称,并且不得影响该作品的正常使用,也不得不合理地损害著作权人的合法权益。人工智能“创作”必然需要学习海量的关联性知识,方能组织、推理和生成最终的输入结果。为促进人工智能创作的良性发展,可以将人工智能的创作过程纳入著作权法的合理使用范畴,但要将人工智能创作故意复制、恶意使用等情形排除在外。二是数据隐私、平等权的保护需要坚持算法透明原则。目前,我国个人信息保护法明确了依法使用个人信息的情形,个人有权要求个人信息处理者对其个人信息处理规则进行解释说明。在这些规定的基础上,人工智能创作主体应当公开个人数据处理规则,明示处理的目的、方式和范围。三是人工智能创作如果发生侵权行为,需要相关的自然人主体承担责任。人工智能创作各个阶段对应着不同的责任主体,基于技术责任承担与内部追责视角的分立,需要实行差异化归责原则,技术主体偏重于算法设计和数据处理责任,使用主体和投资主体偏重于核验检查和终端更正责任。
人工智能进行“创作”,会影响自然人的法律主体地位吗?面对人工智能日益频繁和广泛的“创作”活动,有人担忧这是否会压制甚至取代自然人的法律主体地位。针对这一问题,我们需要回归“法律主体”的内涵和价值来分析。法律主体地位是法律意义上人的抽象和虚拟,是指法律赋予自然人和社会组织依法承担责任、享有权利的资格,因此,法律的建构始终要以人为中心。在关于人工智能“创作”物的法律规制问题上,需要围绕保障个人权利进行,注重维护自然人的主体地位。2022年,深圳制定实施了我国第一部人工智能产业专项立法——《深圳经济特区人工智能产业促进条例》,其他地方的有关条例也正在制定过程中,这些地方立法均强调了“以人为本”的原则,通过法律规则尽可能削弱人工智能可能带来的风险。随着人工智能技术的不断快速发展和更新迭代,新问题也会随之而来,这需要法律与时俱进,并与技术、伦理等专业层面协同互补,在拥抱人工智能变革、大力发展产业的同时,着力平衡产业发展与社会安全,确保其安全、可靠、可控。
0 留言