Image 2 Image 3 Image 3 Image 3

从GPT-4看AI风险和治理:如何破解“可解释性”困局?

频道:行业资讯 日期: 浏览:906

继ChatGPT之后,GPT-4、百度文心一言接连推出,又为生成类AI添了一把火,再次让人们对这一领域投来关注。当技术不断发展,效果愈发惊人的同时,关于如何监管、治理的讨论也从未停歇。

3月18日,中国法学会网络与信息法学研究会主办的“中国式现代化与数字法治建设”大会在北京举办。会上,有学者认为,当前人工智能治理领域正处在“可解释性”困局当中,且治理者和被治理者双方“共同无知”,而“敏捷治理”或许可以作为解决方案。

从GPT-4看AI风险和治理:如何破解“可解释性”困局?

分论坛六:人工智能法治

01

生成类AI具有三大风险

距离ChatGPT发布三个半月,OpenAI带来了进阶版的底层模型——GPT-4。实验室负责人Sam Altman称,GPT-4比任何模型都“更具有创造性和协作性”,在各种专业和学术基准上“和人类相当”。在相关演示视频中,可以看到GPT-4不仅能进行文字交流,还能接收图像输入,并输出相应的文字或代码。

这类模型对数据和算力有着相当大的需求,也因此被戏称为“大力出奇迹”,而它生成的内容极大程度上受到训练数据的影响,用户输入的数据又进一步成为了它的训练数据来源。在辽宁大学法学院副院长李岩看来,这使得生成类AI具有与其他AI技术所不同的三大风险。

首先是数据获取风险。李岩以ChatGPT为例表示,这一模型并没有开源,也没有公开其学习语料,其中是否牵涉对他人数据的非法访问、存储、截取和运算不得而知。

同时,任意获取其他平台的优质数据资源,也有可能落入反不正当竞争法的判断范畴中。即使技术开发方付费订阅相关内容,也只能进行缓存阅读、文档检索等行为,并不拥有文本数据挖掘的权利。

其次是生成数据的内容风险。“当前算法歧视在某种程度上无法避免,算法甚至训练数据本身也可能存在缺陷,因此也就不可避免地导致生成类AI在生成数据时产生虚假、不合规的内容。”李岩说。

第三是运行时的风险,即数据泄露的风险。比如,生成类AI接收的信息可能会被收集并迭代使用。李岩举例表示,假如一个公司法务想测试ChatGPT能否进行合同文本的审查,从而将一份现实中的合同的部分信息上传,这时,这些敏感、隐私信息真的能被匿名处理吗?

对上述问题,李岩基于“分阶段管控”的思路提出了部分应对措施。

他提出,不要在模型自主学习或者说技术研发阶段做过多限制,而是采取较为包容的态度,同时要把控数据来源的正确性,避免来源污染,做好过滤和筛选。在相关技术产品进入应用市场后,应该厘清算法责任,以过错为中心来建立生成类AI侵权的问责机制。

“一方面应该为服务的提供者分配合理的举证责任,一旦因数据出现错误而导致使用人出现损失,服务提供者应该承担合规自证的专用责任;另一方面,如果平台提供的内容存在虚假成分,就要承担不利的后果。”李岩表示。

02

当前AI治理处于“可解释性”困局

事实上,生成类AI只是AI技术的一种,但已经具有多重风险。基于当前高速发展的AI技术,一个更加宏观的问题浮出水面:AI治理应如何进行?

与传统互联网治理相比,阿里研究院数据经济研究中心副主任傅宏宇认为,AI治理呈现出全新的特点。

他解释,传统的互联网治理有两种方向:一是由避风港原则展开的“包容性自规制”,其中避风港原则是指网络服务提供者只有在知道侵权行为或侵权内容的存在后才有义务采取删除、屏蔽或是断开链接等措施;二是“规制性监管”,比如当前的医药行业,在没有评估药物安全风险的前提下管控非常严格。

而AI治理中,治理者与被治理者之间信息不对称,且“共同无知”。“即使我们今天已经进行了两个小时的关于ChatGPT的方法原理、使用模型、训练数据的讨论,我们仍处于一种‘无知’的状态。现在就算请技术专家过来解释,他也无法先验性地判断一项科技可能产生的风险。”傅宏宇表示。

因此,在他看来,当前AI治理正处在一个“可解释性”的困局当中,如何解决这种“共同无知”是一个严峻的问题。

此外,他还指出当前AI的“治理目标”模糊。作为一个最普遍应用的新兴技术,AI对于当前社会关系和社会价值产生了广泛影响,因此呈现出了多元的治理要求,而并非只针对某几个垂直领域。

“传统治理预设治理者与被治理者是对立关系,但当前的AI治理可能要求一种‘合作状态’。”傅宏宇举例说,技术开发者自身就具有治理能力,他们可以在技术应用中不断实践、自我迭代,也能够开放相应模型、代码,接受专业同行的评议,形成自我规制的生态。同时,治理方除了审查之外,也要将AI发展中面临的伦理问题公开给公众和专家,再接受他们的监督和反馈,最后形成一种开放性的治理模式。

因此,傅宏宇提出将“敏捷治理”作为解决方案,即相对于传统的重量级软件开发方法,更强调其在互动合作中响应快速变化而非遵循提前制定好的分工计划,具有“在模糊目标下,利益相关方的互动迭代与共同学习”的特点。

“我们要通过共同学习来解决共同无知的问题,避免采取强监管的方式,也要发挥同行评议的优势,解决治理目标模糊问题,避免经验主义。还要让各类利益相关方参与到治理中,充分发挥治理主体的积极性,最终形成一个敏捷的人工智能治理共同体。”他说。

采写:实习生路欣冉 南都记者杨博雯

0 留言

评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。
验证码