在前些年,知乎的slogan常被人拿来调侃,说“知乎,分享你刚编的故事”。
这虽然是调侃,不过知乎上也确实有过大量,在被识破后有些人选择了硬扛,有些人选择了退网。
而这些人编的故事是如何被识破的呢?他们被识破通常是是这种情况。比如,某人说自己虽然出身不好,高考只考了个二本,但在校期间无比努力,毕业时进入了一家大公司,仅用三年时间就从基层员工干到了某部门的高管。而有网友则会说,自己就在这家公司工作,过去几年里三年内从基层升到高管的就一个人,而且这个人是985毕业的,是通过社招进来的。他甚至还给出了这个人的姓名和大致履历。这样,那个编故事的人的故事自然也就被识破了。
那这个和ChatGPT有什么关系呢?已经有一些人提到了ChatGPT编故事的能力。实际上,早在十几年前我自己写的科幻小说里,我也设想过一个由AI生成全人类所需的基础文娱产品的时代,也就是说我认为AI迟早有一天能够完成“讲故事”这个功能,而且足让人类分辨不出这个故事到底是AI编的还是人写的。但AI有这个能力,并不表示AI能取代一切。就像在开头的这个例子里,我们就可以发现,在我们的生活中,其实存在着两种不同类型的知识。
这两类知识里,一类是可以通过公开渠道获取的知识,如各种公开的数据、搜索引擎能查询到的信息、学术论文、教材等等,我们姑且将这部分知识称为“公共知识”;另一类就是依赖于个人成长的特殊环境与经历,在某个特定行业工作,以及个人对世界的理解而形成的知识体系,我们暂且将之称之为“个人知识”。那么,很显然,在我们辨别一个事情到底是真的还是编的时候,“个人知识”的重要性要远大于“公共知识”。
无论某些人如何强调ChatGPT具有何种强大的功能,但作为一种AI,ChatGPT进行所有回答的基础必然都是公共知识。这类知识的特点是内容与规则明确,通用性强,且可以通过公开渠道获取——也就是说,ChatGPT进行的任何回答,必然有一个“数据源”。但在我们的生活中,有大量的工作和知识,实际上是不依赖于“数据源”,甚至这些工作本身就是“数据源”。
现在很多人对于ChatGPT的乐观,其实来自于ChatGPT在“技能”方面的强大,以及它可能取代某些行业,让某些人失业。这说的虽然是事实,却也没什么过于稀奇的。因为稍微学习一点科学技术哲学方面的知识,就会发现,早在科技哲学诞生的早期,“工具是人体器官的延伸”的这个观点就早已经被提出来(麦克卢汉那句著名的“媒介是人的延伸”实际上也是在这个基础上的阐发)。那么,既然工具是人体的眼神,任何一种新的工具的发明,就必然会影响甚至取代过去以这种器官或技能谋生的人。
比如,汽车、火车、轮船的发明取代了过去的脚夫、纤夫、车夫,照相机的发明取代了一部分过去以给人画肖像画谋生的人,印刷术、打印机的出现取代了一部分以抄写文书谋生的人……这样的例子很多,就不一一列举了。那么无论是ChatGPT也好还是人工智能也好,它能取代一部分人的工作,自然也毫不奇怪。
但回到最开始的问题上,其实技术的进步解决的从来只是“公共知识”部分的问题,这也是为什么技术人才具有全球范围内的通用性的原因——不管你去了什么地方,技术的东西是不会变的。在这个角度上,无论如何评价ChatGPT乃至于人工智能的意义,其核心依然是通过某种技术手段达到某种目标。而从更深层次的角度来说,技术本身是具有中立性和客观性的,无论ChatGPT如何能够基于某种模型来对语言、图形等进行深入理解,并且输出观点,它能够做到的也只是基于你输入的和它能检索到的公共内容(当然,不同的机构可以基于自己的需求再添加一部分本专业内的专有内容)进行回答。
与“公共知识”不同的是,“个人知识”兼有中立性和非中立性的特点。“个人知识”的中立性体现为它可以在公共知识之外提供一些小众的、没有被数据化的知识,而其非中立性则体现为每个人在叙述知识的时候都是基于各自的立场、偏好等等而说出的,这其中存在着很大的主观故意。
之所以要在ChatGPT的话题下花这么多的篇幅说“公共知识”与“个人知识”的问题,我想讲的是其实在未来ChatGPT为代表的人工智能不断发展乃至于能取代一部分中低端工作岗位的时代,对于个人而言,学习成本其实是在不断上升的。有些人认为,ChatGPT来了,很多学习方面的事情都可以有AI代劳了,人就不必做了。但现实绝非如此。
技术行业的从业者在看待技术的时候,往往对技术抱有更乐观的情绪,这其实很正常。然而,ChatGPT说是个新东西,他的确新,以前没有过这玩意儿,但你要说他不新,他也的确不新。假如说我是个特别有钱的人,雇了100万个不同行业的资深专家,组成了一个分布式碳基阵列ChatGPT,无论我问什么问题他们都可以给出快速有效的回答。那么在这种情况下,其实对我来说最大的挑战其实已经变成了如何辨别他们说法的真假,应该在何种程度上参考他们的意见。
在开头的例子中,我说到了很多编的故事必须要依靠“个人知识”才能够进行辨析。这个事例意味着两点:第一,对于ChatGPT来说,由于只能针对那些被数据化的知识进行分析整理,对于那些不结合未被数据化的部分就难以进行判断的知识来说,他们输出的结果本身很可能就是错的——比如高赞答案举到的豌豆射手的那个例子;第二,对于个人来说,ChatGPT输出的结果并不意味着一定为真——这就如同搜索引擎搜索再优化也只能保证提高搜索的精确度,而判断真假的工作还需要交由你自己完成一样——而判断信息的能力,其实才是对个人能力的最大考验。整体上说,在ChatGPT等人工智能在“公共知识”这一块继续攻城略地的情况下,“个人知识”的多寡反而将成为影响个人未来的关键因素。
这就好比某个专业的学生,如果要问“XX设计需要采用什么样的方案更为合适”,我相信ChatGPT可以立刻给出一个相对准确的解答——这也是当下ChatGPT的鼓吹者最乐于证明ChatGPT水平如何先进的主要证据。但是,如果你要问“我大学也毕业后是否应该进入XX行业工作”或者“我去XX单位发展前景如何”这类问题,ChatGPT则永远不可能替你回答——或者说她就算回答了你也不敢信。这种知识你只可能通过咨询已经工作的行业内部人士获得答案——哪怕你到知乎花上几十块钱找个人做个简单的咨询,也都要比最高水平的ChatGPT靠谱。
很显然,前者影响的是你学习知识的效率,后者影响的则是你的生活和人生。
而从另一方面来说,ChatGPT这个产品本身也存在一个悖论。那就是如果你向ChatGPT提出一个问题,“如2023年日本的经济是否会正增长”,那么面对不同的提问者,ChatGPT给出的问题是否是一样的?
如果是一样的,那意味着ChatGPT并不能实现真正意义上的“思维”,他永远只能作为一个参考。
如果是不一样的,那意味着ChatGPT所谓的“提升学习效率”的价值已经不存在了——因为假如ChatGPT可以根据不同的人输出不同的答案的话,那普通人想要通过ChatGPT获知“正确”的答案的难度就会变得空前之高。
如果人工智能能够快速精准的做到这一步,那么ChatGPT所面临的最大危机其实已经不来自于他能否取代一些人工作了,而是它本身就已经脱离了技术中立的设定,而成为意识形态斗争的主战场。
事实上,这种情况很快就会出现的。
我们假设你用英语和中文分别向ChatGPT提问,让他写一篇有关爱国主义的文章,它写出来的东西会一样么?如果一样,没意义。如果不一样,各国都会对ChatGPT如临大敌。
在最后的部分,我自己做一下总结,其实从我个人的角度来说,我对于强人工智能本身一直都抱有乐观的期待。十几年前,我比较迷科幻小说的时候,写的一些作品就是以强人工智能时代作为背景的,所以在我看来,就当下ChatGPT这种智能水平而言,反而依旧只是小儿科,至少远未达到我对于强人工智能时代的想象。所以,我倒是建议ChatGPT的支持者可以对ChatGPT和整个人工智能吹得再狠一些。
但在我们为一个人工智能可以最大效率帮助人的时代而欢呼的同时,也不要忘了一个机器可以随意骗人的时代也将到来。
那个时候,分辨知识的能力和价值甚至要比学习知识还重要。
0 留言