Image 2 Image 3 Image 3 Image 3

OpenAI、TikTok等公司联合签署AI指导方针,力争更负责地构建AIGC内容

频道:行业资讯 日期: 浏览:1034

近日,包括 OpenAI、TikTok、Adobe、BBC 和 Bumble(约会 App)在内的 10 家公司已经签署了一套新的指导方针,关于如何负责任地构建、创造和分享人工智能生成的内容。

该指导方针呼吁技术的建设者如 OpenAI,和合成内容的创造者和分销商如 BBC 和 TikTok,以更透明的态度指出技术能做什么和不能做什么,并且当人们可能在与合成内容互动的时候提醒他们。

这些自愿性质的建议是由非营利性人工智能研究机构 Partnership on AI(PAI)与 50 多个组织协商后提出的。PAI 的合作伙伴包括大型科技公司、学术机构、民间社会组织和媒体机构。最初承诺接受指导方针的 10 家公司是 Adobe、BBC、CBC(加拿大广播公司)、Bumble、OpenAI、TikTok、Witness 和合成媒体初创公司 Synthesia、D-ID 和 Respeecher。

PAI 的人工智能和媒体诚信部门的负责人克莱尔·莱博维茨(Claire Leibowicz)说:“我们希望确保合成媒体不会被用来伤害他人或剥夺他人的正当权力,而是用来支持创造力、知识分享和评论。”

OpenAI、TikTok等公司联合签署AI指导方针,力争更负责地构建AIGC内容
打开凤凰新闻,查看更多高清图片

该指南最重要的一点是,这些公司达成了一项协议,他们将着手研究如何告诉用户他们正在与人工智能生成的东西互动。这可能包括添加水印、标注免责声明、或在人工智能模型的训练数据或元数据中的加入可追踪元素。

面对生成式人工智能可能带来的潜在危害,相关的管控和监管措施仍然滞后。欧盟正试图将生成式人工智能纳入其即将出台的人工智能法案(AI Act),其中可能包括对深度伪造等技术的披露,以及要求公司满足某些透明度要求。

生成式人工智能目前仍处于野蛮生长的时期,参与制定了指导方针的生成式人工智能专家亨利·阿杰德(Henry Ajder)表示,他希望公司将该技术纳入业务时,可以从指导方针中找到他们需要关注的要点。

加州大学伯克利分校研究合成媒体和深度造假技术的教授哈尼·法里德(Hany Farid)说,提高人们的认知并开始讨论以负责任的方式来思考合成媒体是很重要的。

但他补充说,“自愿性的指导方针和原则很少起作用。”

虽然像OpenAI 这样的公司可以尝试为他们创造的技术,比如给 ChatGPT 和 DALL-E 设置保护措施,但其他尚未加入协议的参与者,比如 Stability AI(它创建了知名的开源图像生成人工智能模型 Stable Diffusion),仍可以让人们生成不恰当的图像和深度伪造内容。

法里德说:“如果我们真的想解决这些问题,我们就必须认真对待他们。”他希望云服务提供商和应用商店,如亚马逊、微软、谷歌和苹果运营的应用商店,都参与到 PAI 中,禁止人们使用深度伪造技术去创建未经授权的图片。他认为,在所有人工智能生成的内容上使用水印应该是强制性的,而不是自愿的。

英特尔的高级研究科学家伊尔克·德米尔(Ilke Demir)认为,现在缺失的重要一点是,人工智能系统本身将如何变得更负责。他领导着生成式人工智能的负责任开发工作。这可能包括更多关于人工智能模型如何训练的细节,其中包括使用哪些数据,以及生成人工智能模型是否有任何偏见。

该指导方针并未提到确保生成式人工智能模型的数据集中是否存在有毒内容。数字权利组织 Access Now 的高级政策分析师丹尼尔·卢弗(Daniel Leufer)说:“有毒内容是让这些系统造成最严重伤害的方式之一。”

这些指导方针包括了一系列这些公司想要阻止的危害,如欺诈、骚扰和虚假信息。但德米尔补充说,一个总是在创造白人的生成式人工智能模型也会造成伤害,而且目前还没有被明确提及。

法里德提出了一个更基本的问题。既然这些公司都承认这项技术可能会导致一些严重的危害,并提供了减轻这些危害的方法,“为什么他们不想一想,或许我们一开始就不应该这样做呢?”

支持:Ren

0 留言

评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。
验证码