是时候给ChatGPT和Dall-E等AI生成内容添加水印了

频道:行业资讯 日期: 浏览:664

站长之家 4月3日 消息:在前总统唐纳德特朗普即将被起诉的谣言泄露后不久,网上出现了声称他被捕的图片。这些图像看起来像真实的新闻照片,它们却是假的。这些虚假照片都是由生成式人工智能系统生成的。

最近,生成式 AI,包括DALL-E、Midjourney和Stable Diffusion等图像生成器以及Bard、ChatGPT、Chinchilla和LLaMA等文本生成器风靡全网。通过机器学习算法与数十亿条人类生成的内容相结合,这些系统似乎可以做任何事情,从根据根据创建一个怪异逼真的图像,合成乔·拜登总统的语音演讲,将视频中的一个人的肖像替换另一个人,或根据标题提示写一篇连贯的800字专栏文章等等。

是时候给ChatGPT和Dall-E等AI生成内容添加水印了

即使在早期,生成式 AI 也能够创建高度逼真的内容,很多普通人无法可靠地区分真人和 AI 生成的人的图像。一旦AI生成的内容成熟的应用在音频和视频领域,那么可能带来灾难性的后果。

比如,用AI制作一段某公司CEO透露公司利润下降了20%的视频,这可能导致数十亿美元的市场份额损失;制作一段世界领导人威胁采取军事行动的视频,这可能引发一场地缘政治危机;或者在一段色情视频中插入任何人的肖像,可能给任何人带来困扰。制造真人的假视频的技术正变得越来越容易。

生成式人工智能的进步将意味着,虚假但在视觉上令人信服的内容将在网上泛滥,导致一个更加混乱的信息生态系统。

随着生成式人工智能的进步,几乎可以肯定这只是一个开始。这无疑需要有一些合理的、技术上可行的干预措施来帮助减轻这些滥用。一名专门研究图像取证的计算机科学家、伯克利计算机科学教授主张Hany Farid给出的建议是,关键的方法是给AI生成的内容添加水印。以下是他的一些观点:

水印

在文件和其他物品上做标记以证明其真实性、表明所有权和打击伪造的做法由来已久。比如摄影巨头Getty Images,为目录中的所有数字图像添加了可见水印。这样客户就可以在保护Getty资产的同时自由浏览图像。

不易察觉的数字水印也用于数字版权管理。水印可以添加到数字图像中,例如,每10个图像像素调整一次,使其颜色(通常是0到255范围内的数字)为偶数。因为这个像素调整很小,水印是难以察觉的。而且,由于这种周期性模式不太可能自然出现,而且很容易验证,因此可以用于验证图像的出处。

即使中等分辨率的图像也包含数百万像素,这意味着可以在水印中嵌入附加信息,包括编码生成软件的唯一标识符和唯一用户ID。这种相同类型的不可察觉水印可以应用于音频和视频。

理想的水印是不易察觉的,而且还能适应简单的操作,如裁剪、调整大小、颜色调整和转换数字格式。尽管像素颜色水印示例由于颜色值可以改变而不具有弹性,已经提出了许多试图消除水印的策略。

水印和的AI图像生成器

通过对所有训练数据加水印,这些水印可以被植入到生成式AI系统中,之后生成的内容将包含相同的水印。这种嵌入水印很有吸引力,因为它意味着生成式AI工具可以开源——就像图像生成器Stable Diffusion一样——而不用担心水印过程可能会从图像生成器的软件中删除。Stable Diffusion也有一个水印功能,但因为它是开源的,任何人都可以简单地删除那部分代码。

OpenAI正在试验一种系统,为ChatGPT的作品添加水印。当然,段落中的字符不能像像素值那样进行调整,因此文本水印采用了另一种形式。

基于文本的生成式AI是基于生成句子中产生下一个最合理的单词。例如,从“一个AI系统可以……”这个句子片段开始,ChatGPT将预测下一个单词应该是“学习”、“预测”或“理解”。与这些单词相关对应出现在下一个句子中出现的单词的可能性是有一定概率的。ChatGPT从它所训练的大量文本中学习这些概率。

生成的文本可以通过秘密地标记单词子集,然后将一个单词的选择偏向于同义词标记单词来标记水印。例如,可以使用带标签的单词“领悟”来代替“理解”。通过以这种方式定期选择偏置的单词,基于标记单词的特定分布为文本体加水印。这种方法不适用于简短的推文,但通常对800字或更长的文本有效,具体取决于水印细节。

所有内容加上水印,以便更容易地进行下游识别,并在必要时进行干预。如果该行业不自愿这样做,立法者可以通过法规来执行这一规定。毫无道德的人当然不会遵守这些标准。不过,如果苹果、谷歌应用商店、亚马逊、谷歌、微软云服务和GitHub等主要网络门户通过禁止违规软件来执行这些规定,危害将会大大减少。

签署真实内容

从另一个角度解决这一问题的话,可以采用类似的方法在捕获点验证原始视听记录。一款专门的摄像应用可以在录制内容时对其进行加密签名。如果不留下证据,就没有办法篡改这个签名。然后将签名存储在受信任签名的集中列表中。

虽然这个方法不适用于文本,但可以验证视听内容是否为人类生成。为认证媒体创建标准的合作组织内容来源和认证联盟(C2PA),最近发布了一个开放规范来支持这种方法。随着Adobe、微软、英特尔、BBC和许多其他机构加入这,C2PA已经做好准备,可以提供有效且广泛部署的身份认证技术。

对人类生成的内容和人工智能生成的内容进行联合签名和水印处理,虽然不能防止一切形式的滥用,但可以提供一定程度的保护。任何安全措施都必须不断调整和完善,因为对手会找到将最新技术武器化的新方法。

就像几十年来一直在与垃圾邮件、恶意软件和网络钓鱼等其他网络威胁进行斗争一样,我们应该为一场同样旷日持久的战斗做好准备,以抵制生成式人工智能各种形式的滥用行为。

0 留言

评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。
验证码