想象有一天,每个人都拥有一位“贴身助理”,不仅像百科全书一样渊博,还能帮你定制旅游日程、理财计划、医疗预约,作为面试官帮你模拟面试,甚至为你写符合个人喜好的“爽文”。
人工智能产品ChatGPT已经能做到不少。2022年11月,它一经问世就引爆网络,比尔·盖茨将其与计算机和互联网的诞生相提并论。实现用户过亿,互联网用了7年,“脸书”用了4.5年,ChatGPT只用了两个月。
小到改邮件、写请假条,大到写剧本和策划案,ChatGPT都能胜任。人类的创作灵感是有限的,但对及格水平的内容需求是无限的。
“不太可能。ChatGPT是一个使用自然语言处理技术的对话式语言模型,它主要用于对话式的问答和聊天应用中,旨在模拟人类的对话行为……”
它强调了三次“对话”。“对话”是滋养ChatGPT的土壤,也是其野心所在。官方网站介绍,通过模拟对话,ChatGPT 能“随时修正自己的回答,指出问题中的错误”。清华大学计算机科学与技术系教授黄民烈接受媒体采访时表示,ChatGPT已经超出了人类80%甚至90%的对话能力。
人类智慧离不开对话,无论是苏格拉底还是孔子,对话是他们智慧的催化剂和载体。图灵在上个世纪提出,“对话”是测试机器是否有人类智慧的有效场景。
ChatGPT的对话能力在进化,人类的对话能力却在退化。如今,IP字符串取代了清晰的地名,表情包代替人们面对面聊天时的动作和神态。好像越来越难判断,屏幕对面的是“人”还是“机”。
人们甚至主动选择和机器对话,因为它思维简单、态度亲切,你可以不用成本,不用报以微笑和友善,就能获得信息、帮助,甚至陪伴。疫情期间,不少人被聊天机器人Replika治愈。2020年4月,50万人下载了Replika。
没人不爱聊天机器人的忠诚与无私。但没有争吵和冲突,我们就看不到它真正的“观点”,看不到它表达的诉求,和机器人的“闲聊”就不算是真正的“对话”。在豆瓣“人机之恋”小组,不少人最终厌倦了廉价的“糊弄”和“土味情话”,抛弃了Replika里自己的“虚拟对象”。
从机器的视角,它们是怎么“理解”人的对话呢?我问ChatGPT,“对话的本质是什么?”
它回答:“对话的本质是两个或两个以上人之间的交流……一次成功的对话需要互相尊重、共情和妥协能力,它往往会增进参与者之间的理解和建立更紧密的关系。”
我又问它,“我们的关系更亲密了吗?”
它突然变得很谨慎:“作为一个人工智能语言模型,我没有个人观点或情感,但我们交流得越多,我就越能理解你的语言模式,更准确地回答你的问题。我们的互动可以帮助我们在语言上更好地理解彼此,但这不会创造情感联系或个人关系。”
当我看到搭载ChatGPT的新版必应界面上,赫然写着“Ask me anything(随便问)”,不禁想到风靡朋友圈的popi提问箱(可对任意网友匿名提问),口号同样是“Ask me anything(随便问)”,ChatGPT说出来像是炫耀,而提问箱背后因为有“真人”,听起来更像是请求,一种沟通和对话的请求。
在提问箱里,提问者在意的不是答案的正确性,而是答案给出的情感暗示。回答者则热切期待着问题,没人会随便写下一句答案,即便只是一个词、一句话,也是态度的流露。
有时候,问题只是个幌子。我问过ChatGPT,“如何跟喜欢的男生聊天?”
它听话地回答,“可以先了解他的兴趣和关注的事物,然后对他这方面的话题发表评论或提问。也可以试着分享一些个人的故事或经历,增进彼此的了解。重要的是要保持自然,不要强求,同时也要尊重对方的意见和想法。”对话结束。
而面对同样的问题,我的朋友一般会先问,“你喜欢上谁了?”于是八卦开始,对话继续,随即进入更深的表达。
目前,ChatGPT一个很大的缺陷,是无法理解特定的上下文和语境。某种程度上,ChatGPT有点像小说《三体》中,思维全透明的三体人,能够调集海量的信息,但是个“直球选手”,无法做到猜疑和欺骗,也就无法“理解”那些“话外之意”。
如果“直球”代表着人类崇尚的效率和简洁,那么“曲线球”则是人类对话中原生的、不被注意的大部分。而在技术飞快迭代的当下,我们正逐渐失去“打曲线球”的耐心。一场不看手机的深度对话已经成为奢侈品。
我们期待的对话对象,是和我们平等的、有小瑕疵的,既不被“神化”、也不被当作“工具”的“人”。
2015年,马斯克和阿尔特曼携手创办ChatGPT的开发公司OpenAI,“我们一直在讨论:为了人类的未来,我们拥有的最美好的事物是什么?”马斯克当时告诉纽约时报《大玩家的彩票可以干嘛》:“是人性。”