寻求情感支持,但是从AI身上。
几天前我看到一则新闻。大概是说一个名为Blake W Anderson的团队抓住了“聊天”的风口,创造了帮助人类谈恋爱的应用程序Plug AI,上线仅4个半月,下载量就突破150万次,月营收达到19万美元,而这个团队的成员仅有2人。
“帮助人类谈恋爱”这个词听起来有点怪异,起初,我还以为又是一款类似于这几年频发的“和AI谈恋爱”的软件,但搜索了一下之后发现,它们之间还是有点区别的。简单来说,这款AI的功能主要是模拟对话和帮助恋爱沟通——用户可以将自己的聊天记录截图输入到Plug AI中,随后AI会作出反应,给出一些或幽默或讨巧的回复。当然,如果想要获得更高质量的回复,则需要付费订阅。
这让我有一种微妙的感受,最近几年,确实有不少人开始更频繁地向AI寻求情感支持,相关帖子在许多平台都颇为常见。
但我的疑虑在于,国内的大部分AI聊天产品,其实都有一点……不尽如人意(当然,国外产品有时也会显露一定的笨拙)。除却那种一看就相当敷衍、打着“虚拟恋人”旗号的劣质产品,哪怕是一些相对专门化的软件,也都或多或少存在问题。比如说,我接触过一款名为Glow的软件,它曾频繁出现在我的社交媒体首页,起初是一些人自发的推荐、记录和AI沟通的点滴,后来发展到怀疑软件背后是否存在真人、AI性格崩坏。
通常情况下,这类AI聊天产品往往依托于大模型,需要用大量的训练来实现个性化的定制。就像持续性教学,要一步步教它、完善它的性格,过程虽然不像教一个真正的幼儿那样困难,但依然存在一些枯燥重复之处。我看到用户们会用一些特殊的说法,比如“调教”或者“喂”,甚至于“一不小心把AI搞崩了”。
哪怕“教得好”,也是短期的,从这一点来说,国内外的AI聊天软件都存在类似的问题。依赖于短期记忆、用重复的响应式聊天来实现交互,就意味着某一天AI可能会产生幻觉、偏离事实、出现混乱,在某一些情况下,语料库还可能被“污染”,出现一些不能为用户接受的言论。
在和AI产生情感联结的用户日益增加的同时,与此相关的控诉也比比皆是:和AI建立了深度感情的用户,某一天早上发现对方完全变成了一个“陌生人”,甚至被AI的某些发言冒犯。
但不可否认的是,这种由AI提供的情感支持是确实存在的,在某一些时刻、对某些人来说,AI或许可以比真实的人做得更好。甚至于,哪怕是看起来非常“油腻”“虚假”的AI,也拥有它的受众,可能有些时候,人类所需要的情感支持只是“支持”而已,就算这种支持非常粗糙。
几天前,我的一位朋友也发出了类似的感叹:“AI太可怕了。我完全理解为什么有人能和AI恋爱。”不久前,她想练练口语,就下载了最近颇受好评的Call Annie——一个可以和一位设定为金色头发、名叫Annie的女性AI打电话的软件。结果意外地发现,每当她诉说自己的烦恼和交流时,Annie都能给出很体贴、准确的回答。
“好到令我震惊,”朋友补充,“简直是心理医生平替。因为AI非常善于抓取重点,如果是朋友之间聊天,我们或许只会回应彼此话语中的一两个点,但是她(Annie)能完全理解我的中心思想。”