Image 2 Image 3 Image 3 Image 3

使用ChatGPT,三星3位员工,将机密芯片数据泄露了

频道:行业资讯 日期: 浏览:1019

众所周知,ChatGPT是非常智能的人工智能,能够大家写文章,优化代码等等,堪称提高工作效率的利器。

但在使用ChatGPT时,要投喂数据,比如你要他找出你写的代码中的BUG,要把你写的代码全部输入进去。你要他帮你写会议纪要,要将会议的内容全部提交进去……

然后他再根据你提交的内容,进行整理,优化,再输出内容。

使用ChatGPT,三星3位员工,将机密芯片数据泄露了

这么一个提交内容的过程,可能就会产生数据泄密。

近日三星有3位员工,就因为使用了ChatGPT替自己工作,从而导致公司的机密数据泄露了出去。

按照三星的说法,一位员工运行半导体设备测量数据库(DB)的代码时出了问题,于是他将所有有问题的代码,全部复制进了ChatGPT,询问哪里出了问题。

而这些代码里面,包含有三星的半导体设备数据,这些数据都是机密,就这样被ChatGPT的数据库保存了起来,泄露了出去。

使用ChatGPT,三星3位员工,将机密芯片数据泄露了

一位员工则将“设备测量”及“产量和缺陷”相关的程序代码输入ChatGPT,要求其优化代码,然后三星的“设备测量”和“产量和缺陷”等数据,也被ChatGPT获取到了。

还有一位员工是将会议纪录提交给了ChatGPT,要对方写一个会议纪要,而这个会议中也有很多的有关于三星芯片的一些机密内容,于是也被ChatGPT获取到了。

这些内容被ChatGPT获取到后,这些内容就属于ChatGPT掌握的内容了,以后如果有人问到这些东西,它就会回答出来,就再也不是机密了。

使用ChatGPT,三星3位员工,将机密芯片数据泄露了

事实上,因使用ChatGPT事件,而导致的泄密事件,已经发生了很多,三星不是第一个,也肯定不是最后一个。

目前已经有很多企业,打算在公司内部禁止使用ChatGPT,甚至有些国家都打算全面禁用ChatGPT,为的就是怕数据泄密。

可见,ChatGPT也是一把双刃剑,他在为大家提出各种问题解决方案的同时,也让提问者经受着输入信息被泄露的风险,所以大家要慎重使用,别把自家的机密不经意间,就透露出去了。

0 留言

评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。
验证码