ChatGPT会盗取机密?随着三星半导体泄密事件的发生,原本就受到声讨的ChatGPT再次成为众矢之的。
01
ChatGPT被疑泄露芯片机密
ChatGPT 这样的生成式 AI 对提高工作效率很有帮助,现在各大企业都在考虑接入 ChatGPT,三星自然也没错过,然而 ChatGPT 用于工作还有很多问题没解决,三星刚用了不到 20 天,就发生了芯片机密泄密的事件。
三星引入 ChatGPT 不到 20 天,就发生 3 起数据外泄事件?!其中 2 次和半导体设备有关,1 次和内部会议有关。消息一经释出马上引发各界热议,尤其是韩国方面。
据报道,三星半导体暨装置解决方案(Device Solutions; DS)部门的A职员(匿名),日前执行半导体设备测量数据库(DB)下载软件时,因原始码出现错误,A职员便复制出有问题的原始码到ChatGPT,并向ChatGPT请教解决方法,但这一操作反而让三星设备测量相关的原始码成为ChatGPT学习数据。
其余2件案例也是相似情形,如三星DS部门的B职员(匿名)为了解设备良率等信息,将制作的程序码输入进ChatGPT中,并要求ChatGPT优化其程序码; 另外三星DS部门的C职员(匿名)则是要求ChatGPT制作会议纪录。
为杜绝类似事故再发生,三星正在制定相关保护措施,若之后又发生类似事故,三星内部也可能会切断ChatGPT服务。同时,DigiTimes还指出, 据传,三星正考虑透过DS部门中的创新中心研发三星专属AI服务。
韩版《经济学人》的文章中直接写道:这导致半导体设备测量资料、产品良率原封不动传输给了美国公司。韩媒方面甚至表示,因为三星员工直接将企业机密信息以提问的方式输入到 ChatGPT 中,会导致相关内容进入学习数据库,从而可能泄漏给更多人。
AI泄密原本就是人们担心和害怕的问题,而在三星半导体机密泄露事件发生之前,反对ChatGPT滥用的声音越来越大。
02
反ChatGPT联盟渐成
在微软全方位植入ChatGPT的同时,科技圈另一大巨头马斯克却对ChatGPT抱反对态度。
当地时间3月29日,美国非营利组织未来生命研究所(Future of Life Institute)发布了一封名为“暂停巨型AI实验”的公开信。上千名人工智能专家和行业高管在信中呼吁,所有人工智能实验室应当暂停对更强大的人工智能系统的开发和训练。至少,暂停半年。他们建议,如果不能迅速实施这种暂停,“政府应介入并实行暂停”。
人工智能对社会和人类的潜在风险,已经成为不少科技人士的共识,其中包括“人工智能教父”杰弗里·辛顿、特斯拉和推特CEO埃隆·马斯克、图灵奖得主约书亚·本希奥。为此,他们在这封公开信上签下了自己的名字。
“只有当我们能够确信,AI体系的有利因素都是积极的,且风险都可控,一个强大的AI体系才能成熟。”公开信中这样写道。
实际上,这不是未来生命研究所第一次公开呼吁对人工智能发展的警惕。2014年,这个组织在美国成立,成立的初衷一方面是促进对“未来乐观图景”的研究,一方面则是“降低人类面临的现存风险”。而后者一直是其关注的重点。
同一时间段,意大利个人数据保护局(DPA)以“非法收集个人资料;未成年人年龄核实系统缺失”之名宣布禁用ChatGPT.DPA声称,对ChatGPT可能侵犯隐私以及未能按要求验证用户年龄为13岁或以上表示担忧,并将开始立案调查。
在这一禁令要求下,OpenAI当天便在意大利下线了ChatGPT.OpenAI上周五表示,该公司正在积极努力减少在训练ChatGPT等人工智能系统时使用个人数据的情况。
该公司表示:“我们期待与(意大利数据机构)密切合作,并告知他们我们如何构建和使用我们的系统。”
OpenAI创始人Sam Altman也在社交媒体上回应称,将会遵从意大利政府的要求,并已停止在意大利提供ChatGPT——尽管其认为自身遵守所有的隐私法,“意大利是我最喜欢的国家之一,期待很快再次访问。”
不过上周日,意大利副总理、执政联盟中的联盟党(League party)领导人马泰奥·萨尔维尼(Matteo Salvini)在Instagram上写道:“我认为隐私监管机构迫使ChatGPT阻止来自意大利的访问的决定不恰当。”
萨尔维尼表示,监管机构的举动是“虚伪的”并且缺乏常识,因为“隐私问题涉及几乎所有的在线服务”。
在这场由ChatGPT引发的全球AI风暴中,人们对新技术的狂热追逐还未有退潮迹象。另一方面,对AI可能引发的各种风险的担忧也甚嚣尘上。一个由科学家、企业老板、第三方机构乃至管理部门构成的反ChatGPT联盟逐渐成形并快速赢得认可。
03
当下AI的威胁究竟在哪里
数据,AI应用风险的原罪。
3月20日,多名ChatGPT用户表示在自己的历史对话中看到了他人的对话记录。还有不少 ChatGPT Plus用户在Reddit和Twitter等平台发出截图,表示在他们的订阅页面上看到了其他人的电子邮件地址。
3月25日,OpenAI发布声明承认,由于开源代码库中存在一个漏洞,部分用户能够看到另一个用户的聊天标题记录,此前已将ChatGPT短暂下线并紧急修补此漏洞。
同时,OpenAI表示,在特定的9小时窗口期内,1.2%的付费版用户的个人支付信息可能被泄露。部分用户可能会看到另一名活跃用户的姓名、电邮、支付地址、信用卡后4码、信用卡到期时间等信息。
微软的工程师和亚马逊的律师都曾警告员工,不要与ChatGPT分享“任何亚马逊的机密信息,包括你正在编写的代码,因为他们可能会将其用于训练未来的模型。”
然而,警告或许并未达到实际效果。数据安全公司Cyberhaven调查了不同行业客户的160万员工的ChatGPT使用情况。该公司发布报告表示,2.3%的员工将公司机密数据贴入ChatGPT,企业员工平均每周向ChatGPT泄露敏感数据达数百次,目前敏感数据占员工粘贴到ChatGPT的内容的11%。
有观点认为,输入ChatGPT的数据可能被用于未来模型的迭代训练。如果用户输入敏感数据,这些数据便极有可能成为其输出的内容,造成敏感数据泄露。
出于这种忧虑,美国银行、花旗集团、德意志银行、高盛集团、富国银行、摩根大通和Verizon等机构已经禁止员工使用ChatGPT聊天机器人处理工作任务。许多日本大公司,如软银、富士通、瑞穗金融集团、三菱日联银行、三井住友银行等,也限制了ChatGPT和类似聊天机器人的商业用途。
除了商业上的泄密问题外,欧洲刑警组织3月27日也发出警告,ChatGPT等人工智能聊天机器人很可能被犯罪分子滥用:“大型语言模型检测和重现语言模式的能力,不仅有助于网络钓鱼和在线欺诈,还可以用来冒充特定个人或群体的讲话风格。”他们的创新实验室已经组织了多次研讨会,探讨犯罪分子可能会怎么做,列出了潜在的有害使用方式。
04
让技术制约技术
ChatGPT出现后,AI的成长速度真的太快了。
继ChatGPT-4后,OpenAI在3月24日宣布,部分解除了ChatGPT无法联网的限制。
其CEO山姆·奥尔特曼(Sam Altman)表示,“我们正在开始推出ChatGPT插件,您可以安装插件来帮助完成各种各样的任务。”
有了插件加持,意味着ChatGPT可以借助别的网站/数据库看到更广阔的外部世界,还可以代用户执行安全、受限的操作,从而提高整个系统的实用性。
而当AI智力“与儿童相当”,人类应该如何控制?斯坦福大学教授、心理学家和数据科学家米哈尔·科辛斯基一篇名为《心智理论可能在大语言模型中自发出现》的论文中,展示了他给包括GPT3.5在内的9个GPT模型做的两个经典测试。他认为,人工智能在其中表现出的智力水准“相当于9岁儿童”。
GPT-4的安全文档也写道:GPT-4表现出一些特别令人担忧的能力,例如制定和实施长期计划的能力,积累权力和资源,以及表现出越来越“代理”的行为。
这种“代理”暂时并不意味着自我意识的产生,但它所引发的风险已经足够令人警惕。就像OpenAI联合创始人、计算机专家伊尔亚·苏茨克维在对GPT-4的性能进行解释时说的那样:“能够预料到,之后几年之内每个人都会完全明白,开源人工智能是不明智的。因为这个模型非常强大,如果有人愿意,可以很容易地用它造成巨大破坏。”
同时,他也提到“我认为我们必须开发新的技术来解决这个问题…我所知道的解决这类问题的唯一方法就是不断迭代,尽早学习。”
总体而言,随着ChatGPT中文版的开放及国内类似产品的应用,一系列因生成式人工智能引发的社会问题将爆发式增长,从大数据到算法都将面临一系列新问题、新挑战,迫切需要立法进行规制。
编辑|张毅
审核|吴新
0 留言