三星引入ChatGPT不到20天就出事

频道:行业资讯 日期: 浏览:869

三星电子近日被曝出在引入人工智能聊天机器人ChatGPT后,不到20天就发生了三起内部机密资料泄露的意外事故,涉及半导体设备测量资料、产品良率等内容,传已经被存入ChatGPT的数据库中,引发了外界对于三星的安全管理和ChatGPT的隐私保护的质疑。

据悉,这三起事故的主要原因是三星员工在使用ChatGPT时的误用或滥用,例如将有问题的代码、优化程序或会议内容输入到ChatGPT中寻求帮助或记录,却没有注意到这些信息可能会被ChatGPT当作学习资料而保存在外部服务器上,从而造成机密泄露的风险。

三星引入ChatGPT不到20天就出事

三星电子在今年3月11日开始放行其半导体和装置解决方案部门(DS)使用ChatGPT,以提高工作效率和创新能力,但装置体验部门(DX)仍禁用该服务。然而,在政策放宽不到20天就出现了内部机密资料外泄的疑虑,证实了先前部分观点的担忧,也让三星警觉起来。

为了防止类似事件再发生,三星正在制定相关保护措施,如限制每个ChatGPT提问容量在1,024字节以下,加强员工的培训和监督,以及对违规者进行惩处。此外,三星也在考虑通过DS部门中的创新中心研发三星专属AI服务,以避免依赖外部平台。

ChatGPT是由OpenAI开发的一种基于深度学习的自然语言生成模型,可以根据用户输入的文本生成连贯和有逻辑的回复。ChatGPT在去年推出后受到了广泛关注和使用,但也引发了一些争议和问题,如生成虚假或有害的内容、侵犯用户隐私、泄露敏感信息等。

对于三星电子内部机密资料泄露事件,OpenAI表示尚未收到任何正式通知或投诉,但会积极配合调查和处理。OpenAI也强调,ChatGPT本身的使用指南已经要求用户不要输入敏感内容,并且提供了删除数据的选项。OpenAI表示,他们一直致力于保护用户隐私和数据安全,并且会持续改进ChatGPT的功能和规范
举报/反馈

0 留言

评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。
验证码