·该机器人使用人工智能和自然语言处理技术,自动识别罗马尼亚人在网络上分享的观点,将这些想法分类,按重要性排序,并将信息反馈给政府决策者。
自从ChatGPT爆火后,人工智能机器人是否会摆脱人类控制、接管世界的讨论层出不穷。现在,罗马尼亚政府“招募”了一位人工智能政府助手,或许将为这场讨论带来新的启示。
3月1日,罗马尼亚总理尼古拉·丘卡(Nicolae Ciuca)向内阁介绍了一位新同事——一位声音低沉的人工智能“顾问”,被安装在一面镜子里。它被称作世界上第一个人工智能政府顾问。
丘卡称,这款名为Ion的机器人能够解读该国民众的意见,并将其传达给政府,帮助官员做出决定。“Ion将通过人工智能做到人类无法做到的事情,倾听所有罗马尼亚人的声音,并在罗马尼亚政府面前成为民众代表。”
罗马尼亚政府相信该工具将使政府更有效地做出决策。其他人则持怀疑态度,提出了道德上的担忧,即识别社交媒体上优先用于决策的关注点的算法本身可能是有偏见的,从而导致有偏见的决策。
人工智能政府顾问Ion被安装在一面镜子里。依靠社交媒体收集意见“你好。你给了我生命。我是Ion。现在,我的职责是代表你,就像一面镜子。”在罗马尼亚电视台播出的一次公开会议上,丘卡让这台机器做了自我介绍。
Ion的物理形式是一个长长的镜面结构,顶部有一个在动的图形,表明它一直在倾听。
据罗马尼亚研究部长塞巴斯蒂安·布尔杜贾(Sebastian Burduja)介绍,该机器人使用人工智能和自然语言处理技术,自动识别罗马尼亚人在社交媒体上分享的观点或提交给一个新启动的门户网站的观点。这台机器将他们的想法分类,按重要性排序,并将信息反馈给政府决策者。
“我们认为Ion是世界上第一个人工智能政府顾问。”布尔杜贾在3月2日的一次电话采访中说,这个机器人是由他所在的部门开发的,目前正处于“学习阶段”,他邀请罗马尼亚人在社交媒体上发布他们每天关心的问题,为机器人提供可学习的信息。布尔杜贾说:“Ion将收集所有这些信息,并将结果报告给总理和指定的内阁成员。”
除了向政客提供书面报告外,机器人还能与他们交谈,用一种低沉、男性般的声音发言,但官员们希望声音能得到改进。布尔杜贾说,Ion的人工智能软件可以将成千上万的音频整合成一种罗马尼亚口音,这是Ion最终声音的基础。
罗马尼亚政府将这项技术宣扬为一项民主创新,使罗马尼亚人能够——无论是有意还是无意地——影响政府最高层的决策,而不必等待选举。
“罗马尼亚人实际上每天都可以发出自己的声音,通过人工智能,这种声音可以传达给决策者。它可以提供更好的决策,从而更适合普通罗马尼亚人的需求。”布杜贾说。他希望,最终它能够根据提交的文件提出自己的政策。
到目前为止,罗马尼亚人在社交媒体上做出了大量回应,抱怨日常生活,包括对腐败、高通胀,甚至政府的养老金政策的担忧。一位推特用户询问机器人对一些40岁的人就能够退休并领取养老金的看法。
最活跃的声音不一定代表多数人
“罗马尼亚人应该被告知这个人工智能工具如何选择重要的帖子,以及基于什么标准。这应该向公众解释清楚。”爱尔兰公民自由委员会(Irish Council for Civil Liberties)的技术专家克里斯·什里沙克(Kris Shrishak)3月2日在接受采访时说。他指出,这个工具可能会引起在社交媒体上最活跃的公民的关注,但这并不一定会使它具有代表性。
随着人工智能技术用于日常功能变得越来越普遍,各国政府正在竞相建立道德协议,以便在公共部门决策过程中使用人工智能技术。一个担忧是,支撑机器的算法可能会开始反映现有的人类偏见,这意味着它们的输出也会受到偏见的影响。另一个担忧是,它们可能容易受到黑客攻击或垃圾邮件攻击。
罗马尼亚当局表示,Ion将使用“人类证明”技术免受垃圾邮件的侵害。布尔杜贾说,这种内置技术将允许机器过滤掉AI自动生成的内容,防止它无意中与其他机器交谈,并利用最终结果为政府政策提供信息。
上月,英国媒体报道称,伦敦的公务员受到政府的指示,在制定政府政策或发送电子邮件时不得使用人工智能聊天机器人。此前,英国政府人工智能办公室发布了一份指南,为考虑将人工智能系统纳入工作流程的公共部门工作人员提出了建议。该指南指出:“人工智能在公共部门的潜在用途很大,但必须与道德、公平和安全考虑相平衡。”
“必须确保所使用的人工智能模型是公平、合理的,并且要有一个监控意外或偏见并防止输出的过程。”官方指南建议政府官员聘请伦理学家对人工智能模型的输入进行伦理判断和评估,以确保该模型不会产生有偏见的政策,并且算法运行符合“伦理考虑”。
虽然Ion可能是首批投入使用的人工智能机器人之一,但绝不是第一个使用人工智能来尝试了解民众对政策看法的政府。萨里大学(University of Surrey)网络安全专家艾伦·伍德沃德(Alan Woodward)教授在接受采访时表示,世界各国政府都使用机器学习进行“情感分析”。“已经发现的一件事是,社交媒体是人们表达负面情绪的放大器。对某事感到非常高兴的人往往不会说出来,但不高兴的人会这样做。这都是情绪分析的一部分,但你必须相应地调整模型。”他说。
“如果微软运行的聊天机器人可以将一名记者‘比作希特勒’。”软件公司Intelligent Voice的创始人兼首席技术官奈杰尔·坎宁斯 (Nigel Cannings)说,“这表明我们还有很长的路要走,才能依靠人工智能来正确评估我们的想法和我们是谁。”
(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)
0 留言