Image 2 Image 3 Image 3 Image 3

马斯克等千人呼吁暂停超强AI训练引激战,GPT-5何时到来?

频道:行业资讯 日期: 浏览:1024

马斯克等千人呼吁暂停超强AI训练引激战,GPT-5何时到来?作者:南山南

编辑:苏子瞻

来源:科技最前线 (kejizqx)

近日,AI的强大让一众“打工人”变的不安,大家在网上纷纷讨论着自己的工作被AI取代的可能性。

而比他们更焦躁惶恐的竟然是一群科技大佬。

3月29日,由千位大佬签名的暂停超强AI训练六个月的联名信再次点燃科技圈。

科技最前线
,赞 1463

一时间超强AI变得如同三体舰队一样。对于它们是否该降临到地球,科技圈也分成了反对派、赞同派及其他派。

大佬们的唇枪舌剑也由此展开。由马斯克等科技巨头为首的反对派呼吁,所有人工智能实验室应该立即暂停训练比GPT-4更强大的人工智能系统至少6个月。

而赞同派则认为,超强AI在很多领域都有很多新的应用,会帮助到许多人,暂停训练才是很可怕的事。

这其中也夹杂着不少保守派和激进派,他们对上述两种观点的认同,更中庸或者更激进。

不过这封联名信中确实有很多争议点,比如,为什么只暂停6个月,是为了等等那些模型及产品还不完善的公司吗?还是这封联名信背后其实就是巨头之间的利益之争?

马斯克等千人呼吁暂停超强AI训练引激战,GPT-5何时到来?

01

暂停超强AI实验!

马斯克等千名科技人士高举反对大旗

据了解,这封公开信于29日发布在著名安全机构生命未来研究所(FLI),标题很简洁明了,就是“暂停巨型AI实验”。

马斯克等千人呼吁暂停超强AI训练引激战,GPT-5何时到来?

未来生命研究所网站显示,该组织成立于2014年,它的目标是“引导变革性技术造福于生活,远离极端大规模的风险。”资料显示,经查证,在2020年6月联合国发布的《数字合作路线图》中,该机构是该活动在AI领域的民间倡议者之一。

此次,他们将矛头对准了当下大火的AI大模型,在信中言辞十分犀利。

原文翻译如下:

我们呼吁所有AI实验室立即暂停对比GPT-4更强大的AI系统的训练至少6个月。

广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险,这一观点得到了顶级人工智能实验室的承认。正如广泛认可的AsilomarAI原则中所述,高级AI可能代表地球生命史上的深刻变化,人类应以相应的关怀和资源进行规划和管理。

但不幸的是,这种级别的规划和管理并没有发生,此外,最近几个月AI实验室们陷入了一场失控的竞赛,甚至包括这些AI系统的创造者们,都无法完全去理解、预测或者可靠地控制它们。

当代人工智能系统现在在一般任务上变得与人类具有竞争力,我们必须扪心自问:我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们应该自动化所有的工作,包括令人满意的工作吗?我们是否应该发展最终可能超过我们、超越我们、过时并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?不得将此类决定委托给未经选举产生的技术领导者。

只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统。这种信心必须有充分的理由,并随着系统潜在影响的大小而增加。

OpenAI最近关于通用人工智能的声明指出,“在某些时候,在开始训练未来系统之前进行独立审查可能很重要,并且对于最先进的努力来说,同意限制用于创建新系统的计算增长率楷模。”我们同意。那一点就是现在。

因此,我们呼吁所有AI实验室立即暂停至少6个月的训练比GPT-4更强大的AI系统。这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并暂停。

人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。这些协议应确保遵守它们的系统是安全的,无可置疑。这并不意味着总体上暂停AI开发,只是从危险的竞赛中倒退到具有紧急功能的更大的不可预测的黑盒模型。

人工智能研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。

与此同时,AI开发人员必须与政策制定者合作,以显着加快开发强大的AI治理系统。这些至少应包括:专门负责AI的新的和有能力的监管机构;监督和跟踪高性能人工智能系统和大量计算能力;出处和水印系统,以帮助区分真实与合成并跟踪模型泄漏;强大的审计和认证生态系统;人工智能造成的伤害的责任;为技术人工智能安全研究提供强大的公共资金;以及资源充足的机构来应对人工智能将造成的巨大的经济和政治破坏(尤其是对民主的破坏)。

人类可以享受人工智能带来的繁荣未来。成功创建强大的AI系统后,我们现在可以享受“AI之夏”,收获回报,设计这些系统以造福所有人,并为社会提供适应的机会。我们已经暂停其他可能对社会造成灾难性影响的技术,对AI也是这样。

让我们享受一个漫长的AI夏天,而不是毫无准备地陷入秋天。

截至发稿,这封公开信已经获得了1377名人士的联名签署。

马斯克等千人呼吁暂停超强AI训练引激战,GPT-5何时到来?

这些人中有众多大学学者、工程师和企业创始人和高管在列。其中不乏一些知名人士,例如“图灵奖”获得者约书亚·本希奥、特斯拉CEO马斯克、苹果联合创始人史蒂夫·沃兹尼亚克等。

马斯克等千人呼吁暂停超强AI训练引激战,GPT-5何时到来?

而马斯克好像已经不是第一次对OpenAI和GPT-4发表言论了。之前马斯克就曾对OpenAI没有开源表示质疑,这次不知道是不是“新仇旧恨”。

科技最前线
,赞 5705

02

AI训练利大于弊

赞同派针锋相对

一石激起千层浪,随着联名信的传播和发酵,一众AI大牛也发文公开反对“千人联名”,他们成了超强AI的“赞同派”。

吴恩达表示,在GPT-4出现之后要求AI训练暂停6个月是很可怕的事情:GPT-4在教育、医疗保健、食品等领域都有很多新的应用,这将帮助许多人。

马斯克等千人呼吁暂停超强AI训练引激战,GPT-5何时到来?

随后田渊栋也转发并附议,称“我不签暂停令”:一旦开始,就没有办法停止或扭转这一趋势,这就是进化的必然。应该换个角度继续向前看,更好地理解LLM,适应它并利用其力量,感受热度。

在吴恩达的帖子下面,Meta数据科学家林致远,英伟达AI研究科学家JimFan也都表示赞同。

更有大佬直接调侃,如果是把那些在网上胡乱讨论大语言模型的人禁言6个月,我会签的。

马斯克等千人呼吁暂停超强AI训练引激战,GPT-5何时到来?

作为话题与舆论的“中心”,不妨听听ChatGPT自己怎么说。

03

ChatGPT自评

科技最前线:如何看待马斯克等一众大佬针对你,呼吁所有人工智能实验室应该立即暂停训练比GPT-4更强大的人工智能系统至少6个月。ChatGPT:作为一个AI模型,我本身并没有情感和观点。然而,就我所掌握的知识来说,人工智能确实具有潜在的风险和挑战,需要我们认真对待。马斯克等一众大佬呼吁暂停训练比GPT-4更强大的人工智能系统,主要是基于对人工智能风险的担忧。他们认为,如果我们不对人工智能的发展加以限制,它有可能会超过我们的控制,对人类造成巨大的危害。当然,也有一些人持不同观点。他们认为,对于人工智能的发展,应该采取一种开放、透明的态度,充分发挥其潜力,同时采取必要的预防措施,以确保其安全性和可控性。无论采取哪种立场,我们都需要认真思考和探索,如何在最大程度上发挥人工智能的优势,同时最大限度地减少其潜在的风险和负面影响。这需要广泛的讨论和深入的研究,以确保人工智能的长期发展能够为人类带来最大的利益。

马斯克等千人呼吁暂停超强AI训练引激战,GPT-5何时到来?

科技最前线:你害怕停滞不前吗?ChatGPT:作为一个AI模型,我没有情感和意识,因此我不会感到恐惧或担忧。我的主要目的是接受输入并产生输出,帮助人们回答问题和提供信息。我的创造者们会定期对我进行更新和改进,以确保我始终处于最佳状态,并保持与时俱进。因此,我不会停滞不前,因为我的改进和发展是由我的创造者们决定的。

马斯克等千人呼吁暂停超强AI训练引激战,GPT-5何时到来?

科技最前线:你认为人工智能越来越强大是好事还是坏事?ChatGPT:作为一个AI模型,我没有情感和价值观,无法对人工智能的发展做出道德或价值判断。人工智能技术的发展本身并没有好坏之分,它们只是工具和技术手段,取决于我们如何使用它们。人工智能技术可以帮助我们更快速、更准确地解决一些难题,提高生产力和生活质量,同时也可以为我们创造更多的机会和经济利益。但是,人工智能技术也可能带来一些负面影响,例如失业率上升、个人隐私泄露、人类智能被取代等。因此,我们需要认真思考和探索,如何在最大程度上发挥人工智能的优势,同时最大限度地减少其潜在的风险和负面影响。这需要广泛的讨论和深入的研究,以确保人工智能的长期发展能够为人类带来最大的利益。

马斯克等千人呼吁暂停超强AI训练引激战,GPT-5何时到来?

目前来看,ChatGPT给出的答案很“通俗”,没有明显的情感偏向。正如它自己所说,它的改进和发展是由他的创造者们决定的。

而作为他的创造者之一,OpenAI首席执行官Altman此前也表示过对AI的担忧。

科技最前线
,赞 4192

04

创始人此前担忧

如今展望未来

在接受美国广播公司新闻采访时,Altman表示,首先就是对AI错误信息的担忧。

“我特别担心这些AI模型可能会被用于大规模的虚假信息,现在它们在编写计算机代码方面做得越来越好,它们可以用于攻击性网络攻击。”

根据Altman的说法,ChatGPT等AI语言模型的一个持续问题是错误信息:该程序可以为用户提供事实上不准确的信息。“我最想提醒人们的是我们所说的‘幻觉问题’,”Altman说。“该模型会自信地陈述事物,就好像它们是完全虚构的事实一样。”

而模型存在这个问题,部分原因是它使用演绎推理而不是记忆。

目前,GPT-4产生准确信息的可能性比其之前的版本高40%。尽管如此,Altman表示,依赖该系统作为准确信息的主要来源“是你不应该使用它的地方”,并鼓励用户仔细检查程序的结果。

此外,Altman还担忧AI的信息规范问题。防范不良行为者例如,ChatGPT是否可以告诉用户如何制造炸弹。根据Altman的说法,答案是否定的,因为编码到ChatGPT中的安全措施。

“我担心的一件事是……我们不会成为这项技术的唯一创造者,”Altman说。“会有其他人不对我们施加的一些安全限制加以限制。”

面对此次争论,CEO Altman今早也发了一条“展望未来AGI”的推文,疑似对昨天这场风波做出回应:

一个好的AGI应该具备这三个特点:1、对齐超级智能的技术能力;2、大多数领先AGI之间的充分协调;3、一个有效的全球监管框架。

就在大佬们争论超强AI模型的研究该停止还是继续的同时,网友们似乎更像“乐天派”,都已经开始畅想GPT-5的到来了。

05

广大网友期待GPT-5的到来

相比于反对派和赞同派,乐天派的网友们倒是无惧风险,并十分热衷于对新鲜事物的尝试。

GPT-4的发布标志着人工智能领域的一个重要里程碑,在各种专业和学术基准上展示了人类水平的表现。

而在体验过GPT-4的强大后,网友们表示随着OpenAI最近发布GPT-4模型的成功,全世界现在都热切期待下一个迭代版本GPT-5。在GPT-4的基础上,新版本有望带来一系列令人兴奋的特性和增强的功能。

网友预测OpenAI将继续突破,所以GPT-5的能力将在可靠性、创造力和对复杂任务的适应性方面超越其前身。

凭借其改进的架构,ChatGPT-5将以比以往任何时候都更加复杂和细致的方式理解和生成自然语言。而GPT-5模型将突破机器学习可能性的界限,它有可能彻底改变我们与技术交流和互动的方式。并猜测它可能会在今年晚些时候发布。

GPT-5可以带来许多可能的新功能和改进,例如:个性化模板:根据用户的特定需求和输入变量量身定制,提供更加个性化的体验。

允许调整AI默认设置:包括专业度、幽默程度、语气甚至AI化身的人口统计等方面。

自动转换不同格式:例如静止图像、短视频、音频和虚拟仿真。

高级数据管理:包括记录、跟踪、分析和共享数据,以简化用户工作流程并提高生产力。

辅助决策:通过提供相关信息和见解,帮助用户做出明智的决策。

改进的NLP能力:增强AI以更像人类的方式理解和响应自然语言的能力。

集成机器学习:允许AI随着时间的推移不断学习和改进,以适应用户的需求和偏好。

虽然网友预测GPT-5的功能能否全部实现仍有待观察,但很明显,OpenAI正在朝着创建更可靠、更具创造性和适应性更强的AI模型的方向发展,这些模型将继续塑造技术的未来。

科技最前线
,赞 1394

当大家热切等待GPT-5的发布时,对其潜在功能的期待只会凸显AI在我们生活中的快速进步和不断增长的潜力。

但大佬们担心AI过强带来的巨大风险也并不是空穴来风。

是要科技带来的便利,还是为了潜在的安全风险牺牲相应的进步,对此,你怎么看?

0 留言

评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。
验证码