众所周知,ChatGPT是非常智能的人工智能,能够大家写文章,优化代码等等,堪称提高工作效率的利器。
但在使用ChatGPT时,要投喂数据,比如你要他找出你写的代码中的BUG,要把你写的代码全部输入进去。你要他帮你写会议纪要,要将会议的内容全部提交进去……
然后他再根据你提交的内容,进行整理,优化,再输出内容。
这么一个提交内容的过程,可能就会产生数据泄密。
近日三星有3位员工,就因为使用了ChatGPT替自己工作,从而导致公司的机密数据泄露了出去。
按照三星的说法,一位员工运行半导体设备测量数据库(DB)的代码时出了问题,于是他将所有有问题的代码,全部复制进了ChatGPT,询问哪里出了问题。
而这些代码里面,包含有三星的半导体设备数据,这些数据都是机密,就这样被ChatGPT的数据库保存了起来,泄露了出去。
一位员工则将“设备测量”及“产量和缺陷”相关的程序代码输入ChatGPT,要求其优化代码,然后三星的“设备测量”和“产量和缺陷”等数据,也被ChatGPT获取到了。
还有一位员工是将会议纪录提交给了ChatGPT,要对方写一个会议纪要,而这个会议中也有很多的有关于三星芯片的一些机密内容,于是也被ChatGPT获取到了。
这些内容被ChatGPT获取到后,这些内容就属于ChatGPT掌握的内容了,以后如果有人问到这些东西,它就会回答出来,就再也不是机密了。
事实上,因使用ChatGPT事件,而导致的泄密事件,已经发生了很多,三星不是第一个,也肯定不是最后一个。
目前已经有很多企业,打算在公司内部禁止使用ChatGPT,甚至有些国家都打算全面禁用ChatGPT,为的就是怕数据泄密。
可见,ChatGPT也是一把双刃剑,他在为大家提出各种问题解决方案的同时,也让提问者经受着输入信息被泄露的风险,所以大家要慎重使用,别把自家的机密不经意间,就透露出去了。
0 留言