谷歌云首席执行官托马斯·库里安宣布了一系列针对Google Workspace和谷歌云用户提供的新生成式人工智能功能。不过,谷歌太急于抢在微软发布竞争性公告之前发布消息,连定价尚未确定就宣布开放访问其人工智能模型。图片来源:MICHAEL SHORT—BLOOMBERG VIA GETTY IMAGES
本周又是人工智能新闻重磅频出的一周。这还没算上硅谷银行倒闭可能对一些人工智能初创企业及其背后风投造成的深远影响。
OpenAI刚刚发布了期待已久的GPT-4模型。这是一款大型多模态模型,支持图像和文本输入,不过只支持文本输出。根据OpenAI发布的数据,在一系列的基准测试中,包括一系列专为人类设计的测试中,GPT-4表现远远好于上一代GPT-3.5模型,以及支持ChatGPT的模型。举例来说,GPT-4在模拟律师资格考试中分数很高,排名排进前10%。OpenAI还表示,GPT-4比GPT-3.5更安全,具体表现在能提供更多基于事实的答案,而且与GPT-3.5相比,想从GPT-4问出越界的回答要难得多。
不过,该公司也表示模型仍存在缺陷。新版人工智能模型仍会产生幻觉,也就是编造信息。OpenAI指出,从某些方面来说幻觉问题可能更严重,因为GPT-4极少给出不准确的答案,所以人们更容易轻信。因此,该模型也可能做出包含偏见和有害的表述。从参数层面,OpenAI几乎没提到GPT-4到底多大,需要多少专门的图形处理单元训练,或者确切地说利用哪些数据训练。该公司表示,出于竞争和安全的考虑,希望对相关细节保密。目前看来,GPT-4相比上一代有了很大的进步,但与过去两个月里OpenAI和其他公司竞相研发的产品相比,算不上颠覆性的进步。这只会加剧关于OpenAI等科技公司是否不负责任的争论,因为如此强大的技术持续存在缺陷和弊端,就已提供给消费者和客户使用。
与此同时,预计本周四微软将公布一系列基于人工智能的Office软件增强功能。中国搜索引擎巨头百度也刚刚发布了“文心一言”。随着ChatGPT以及OpenAI与微软的联盟迅速走红,谷歌被打了个措手不及,急于证明人工智能竞赛中自己并未边缘化。所以,谷歌发布了一系列重要的人工智能进展以击退微软。
对大多数人来说最重要的消息是,谷歌表示,流行的办公效率工具(如谷歌文档、工作表和幻灯片)中将添加生成性人工智能功能。新功能之一就是人们能通过文本框唤起谷歌人工智能,自动起草几乎任何类型的文档,或者为表格数据创建不同类型的图表。用户可以高亮显示文本,要求谷歌人工智能编辑或改写成不同的语气和风格。还可以在Gmail里自动起草邮件或总结邮件会话内容。在Google Meet里可以生成新的虚拟背景并自动创建谈话笔记,同步生成摘要。
谷歌宣布的另一则消息同样重要:企业客户可以通过谷歌云上的应用编程界面,使用其最先进的大型语言模型系列PaLM。
除了PaLM,谷歌还为人工智能开发者和数据科学家推出了更新的Vertex AI平台。人们可通过该平台访问大型基础模型,不仅来自谷歌,还来自其不断壮大的人工智能实验室联盟生态系统,如Anthropic和Cohere,以及AI21实验室和Midjourney,等等。谷歌还推出了名为Generative AI App Builder的软件,技术实力稍弱的团队也能利用生成性人工智能模型快速构建并推出定制应用。
谷歌表示,用户可以使用Vertex AI和Generative AI App Builder两大新功能:一是企业搜索工具,可以用谷歌搜索挖掘自己的数据,包括CRM或ERP软件生成的数据,以及内部网站和其他文档,最后仅返回知识库中搜到的结果。然后相关结果可用于自然语言任务,如摘要、情感分析或问答,降低了语言模型虚构信息或从其预训练数据而不是客户自己数据中提取信息的风险。另一项新功能是类似聊天机器人的“对话式人工智能”功能,客户可为相关搜索、自然语言处理和生成人工智能功能配置用户界面。
谷歌宣布了首批“可信测试者”,相关企业可以立即访问新的人工智能服务,包括丰田(Toyota)、德意志银行(Deutsche Bank)、HCA Healthcare、Equifax、Starz电视网和梅奥诊所(Mayo Clinic)等。该公司表示,未来几周内将大规模推出新产品和新功能。此举充分体现人工智能技术竞赛多么激烈,新闻发布会上谷歌云业务首席执行官托马斯·库里安被迫承认,尽管谷歌不断发布新产品,但尚未确定如何定价。库里安说,之前谷歌总是以免费开源方式提供人工智能服务,或者相关技术只是“嵌入到既有产品中”。“这是谷歌第一次采用新的通用人工智能模型,而且开发人员可通过API均可访问,”他说。
谷歌关于新产品的新闻稿宣扬对“负责任的人工智能”的承诺,发布的新功能也不断强调该主题,称Vertex AI和Generative AI App Builder包括“检查、理解和修改模型行为”的工具,新系统的信息检索使用了传统搜索算法,减少了答案不准确的风险。但库里安并未明确说明谷歌如何向客户保证,其大型语言模型唤起后不会出现不恰当的反应——或者更糟的是,聊天机器人可能从友好的助手变成脾气暴躁、满口辱骂和威胁的“魔鬼”,正如测试人员在微软新必应上发现的情况一样。谷歌也没提到是否计划采取措施,阻止用户在其广受欢迎的办公效率工具中利用生成性人工智能功能,故意制造错误信息或在论文中作弊。
对此的担忧与日俱增。原因之一可能是,大多研究人员都在科技巨头工作,如果他们有越界举动就会丢了工作。科技新闻网站The Verge和Casey Newton旗下的The Platformer刚刚透露,微软最近解散了人工智能道德和社会团队——该核心小组一直努力提醒人们担心微软正建设的诸多先进人工智能系统,并敦促公司放缓推出生成性人工智能的速度。一些伦理专家被分配到其他团队。一些人则遭到解雇。微软经理向团队宣布团队重组的一段录音泄露给了Casey Newton,录音中清楚表明,首席执行官萨提亚·纳德拉和首席技术官凯文·斯科特施加压力,要求尽快在全公司推广OpenAI的先进人工智能技术,不管是质疑该决定还是质疑推进速度都不受欢迎。
现在,微软仍有另一个与“负责任的人工智能”相关的部门,但该部门角色更多是从高层设定原则、框架和流程,而不是实际的安全和道德检查。人工智能伦理小组的解散进一步证明了为何在人工智能伦理或安全方面,不应该相信科技行业能做到自我监管,以及为什么迫切需要政府监管。(财富中文网)译者:夏林
0 留言