原标题:人工智能不应成为读心工具
5月10日,日本东京,第7届日本人工智能大会上,参会者在交谈。 图片来源 视觉中国
中青报·中青网见习记者 赵婷婷
平躺在功能性核磁共振机(fMRI)内,美国有线电视新闻网(CNN)记者多尼·奥沙利文几乎听不到机械的嘈杂声。他戴着专用耳机,收听《绿野仙踪》有声书中的片段。与此同时,一个人工智能模型正在根据他的大脑活动和他收听的内容,预测他的所见所思。
美国得克萨斯大学奥斯汀分校的科学家最近使用fMRI记录了3名受试者听故事时的大脑活动。他们使用的是OpenAI公司的第一语言模型GPT-1,该模型以大量书籍和网站数据库为基础。通过分析这些数据,人工智能可以学习人类说话和思考的方式。
得克萨斯大学奥斯汀分校的神经科学和计算机科学助理教授亚历山大·胡特参与了这项研究。奥沙利文在体验过程中发现,人工智能在解读人类思想的过程中还有一些局限,比如,他脑海中出现的《绿野仙踪》主人公多萝西沿着黄砖路前行的情景,没有被解读出来。
CNN解释称,人工智能模型先要分析参与者在听到特定单词时的大脑活动,在学到足够多的知识后,才有可能通过监测人类的大脑活动作出预测。这让很多人松了一口气:“人工智能还不能轻易读懂我们的思想。”
“我们不希望将它称为‘读心术’,这会让人联想到很多不好的事,而且也不太现实。”胡特表示,这项研究的初衷在于“帮助那些无法沟通的人”,比如自闭症、中风患者或因其他原因无法正常说话的群体。或许未来,他们不必进行神经外科手术,也能找到说话的途径。
人工智能的参与可以让更多的年轻人获得交流、学习的机会,这引起了有关伦理和法律问题的讨论:它会用于审讯吗?是否会揭露人们内心深处的秘密?
“每个人的大脑数据都应该受到保护。”得克萨斯大学奥斯汀分校计算机科学博士、此项研究参与者杰瑞·汤认为,“大脑是我们隐私的最后一道防线。”
胡特相信,大脑数据泄露在短期内不会发生。“我们得到的只是人们思考的方向和轮廓,不会看清小心思和细节。”他说。
美国麻省理工学院心理学教授雪莉特克尔告诉美国《纽约时报》,“父母应该告诉孩子,人工智能没有感情和经验,它只是帮助阅读和思考的工具,不要轻易用它代替思考,或是向它泄露自己的想法。”
据CNN报道,针对该技术可能造成的“风险隐患”,OpenAI首席执行官山姆·阿尔特曼针公开回应称,没有“护栏”的人工智能发展可能对世界造成重大伤害,他提议立法者尽快解决此类担忧。
汤告诉CNN,立法者应谨慎对待“精神隐私”,保护“大脑数据”,防止该技术被滥用。“该技术的适用范围仍非常有限,但不要认为事情会永远停留在当前的状态。重要的是,(人类)不要有虚假的安全感。技术在不断进步,这可能改变我们解码的能力。”返回搜狐,查看更多
责任编辑:
0 留言