谷歌近日修改了平台政策,禁止开发者使用其Colaboratory平台的服务进行Deepfake项目的研究,结束了以此为目的大规模使用该平台资源的情况。
Colaboratory简称Colab,是谷歌研究团队开发的一款产品。在Colab中,任何人都可以通过浏览器编写和执行任意Python代码。它尤其适合机器学习,数据分析和教育目的。从技术上来说,Colab是一种托管式Jupyter笔记本服务。用户无需设置,就可以直接使用,同时还能获得GPU等计算资源的免费使用权限,加速项目研究。
Colab支持大多数主流浏览器,并且在Chrome, Firefox和Safari的最新版本上进行了全面的测试。
Deepfake可以被训练成在视频片段上交换人脸,添加逼真的面部表情,使最终的视频效果看起来很真实,达到以假乱真的目的。这项技术本身基于机器学习,也是目前行业的热门研究领域,但却有不少人利用这项技术传播假新闻,伪造虚假的政治或色情视频。由于这项技术在道德上具有一定的争议,不少民众和企业对此都十分担忧。
根据archive.org的网页历史数据,谷歌在本月初修改了Colab的禁止项目列表,将Deepfake加入到黑名单中(如下图红框)。
如果开发者不顾黑名单列表,试图在Colab平台上继续训练Deepfake项目的话,开发者就会收到如下这样的错误提示:
你可能正在执行不被允许的代码,这可能会限制你在未来使用Colab的能力。请留意我们在FAQ中规定的禁止行为。
这项新限制的影响预计将在Deepfake领域产生深远影响,因为许多用户都会利用Colab的预训练模型来启动他们的项目,而且Colab本身使用起来十分简单,即使那些没有编程背景的人也能快速上手,这也是为什么有非常多的Deepfake教程都推荐使用Colab的原因。
目前还不知道谷歌执行这一政策是出于道德方面的考虑,还是对这些项目利用的计算资源负载过大而做出的限制。
0 留言