Image 2 Image 3 Image 3 Image 3

对“ChatGPT”的冷思考

频道:行业资讯 日期: 浏览:1130

作者:贾理理、岳凡

来源:中国军网

对“ChatGPT”的冷思考

近期,一股ChatGPT热席卷全球。人们兴致盎然地与机器人从社会热点谈论到天文地理,而ChatGPT也可以较准确理解自然语言提问,甚至延伸回答问题的关联内容。

相比于以往的问答机器人,ChatGPT智能水平有飞跃性提升,不仅能以更为拟人化的方式与人类沟通,还可进行文章撰写、代码编写等初等创作,甚至能够通过美国执业医师执照考试。此外,ChatGPT针对通识方面问题的回答具有相当的逻辑性、体系性、科学性,准确性也较高。如果加入专业领域语料库进行针对性训练,或与其他智能算法合并,可衍生出适应多个领域的新型能力。

美国人工智能公司OpenAI标识和智能聊天机器人ChatGPT网站页面。新华社图片

以ChatGPT为代表的各种人工智能辅助工具不断涌现,帮助人类提升了生产效率。然而,正如“科林格里奇困境”所言:“每一次技术变革都会带来相应的进步,但往往也会带来风险和威胁。”

首先,由于ChatGPT采用了“人在回路”式的模型训练机制,这意味着操控人员将在一定程度上影响它的输出结果。若将该模型叠加认知对抗相关语料库进行针对性再训练,则有可能引导用户产生推理谬误。并且,通过分析用户长期使用中所积累的数据,ChatGPT将有能力对用户进行个性画像,并自主筛选定位用户中的关键岗位人员,对其进行长期的信源控制、认知培塑、信息欺骗或信息轰炸。此外,ChatGPT还存在泄密风险。前不久,三星引入ChatGPT不到20天,便爆出机密资料外泄的意外事件,更是引起了人们的警惕。

其次,ChatGPT模型采用了基于大数据量和巨型模型的深度学习的技术路线,训练模型所需的数据量和计算资源量极高,导致其语料库更新缓慢。目前版本ChatGPT仍基于2021年之前的互联网语料训练,回答部分问题会出现严重错误,尤其在理科和时效性较强的领域,此问题更为突出。另外,其模型训练和使用所需的高算力成本,也大大限制了它的部署范围。

随着人工智能技术的不断演进,人们的弗兰肯斯坦情结越来越严重。不少专家认为,随着技术的持续发展,AI有可能产生自我意识,甚至目前已具有了初级的自我意识和情感。在未来,这是否会成为人工智能与人类伦理道德产生冲突的隐患还不得而知。

OpenAI公司宣布开放API后,已有不少公司将ChatGPT集成到产品当中。这将加速ChatGPT的普及,但由此带来的风险也将成倍增加。面对AI技术浪潮带来的风险与挑战,我们需要积极应对。一方面,应制定国家级人工智能发展战略,从人工智能应用生态和专用智能芯片方面布局,打造自主可控的人工智能产品;另一方面,需联合国际社会共同制定研发、训练和使用人工智能的相关法律、标准和伦理规范,提升人工智能伪造信息、传播虚假消息的法律成本,引导人工智能向服务全人类的方向发展。

0 留言

评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。
验证码