So!azy

AI,一种新型的电子迷药

luke-jones-tBvF46kmwBw-unsplash

写在前面:本文所讨论的「AI」,特指目前市面上基于大语言模型、面向 C 端用户的 AIGC 对话类服务或产品,而非指代那些特定专业领域的 AI 技术。

「你会用 AI 么?」这似乎成了当下非常流行的一个问题。无论是朋友聚餐还是同事闲聊,这个话题出现的频率越来越高。

如果不去深究所谓「会用」的定义,单就使用行为本身而言,很多人的第一反应大概是:AI 不就是新时代的百度1 么?

的确,过去我们习惯将问题输入百度寻求答案;后来,随着移动互联网的分割,微博、抖音和小红书逐渐取代了通用搜索引擎,成为很多人获取信息的首选;而现在,有了豆包、DeepSeek、Kimi、通义千问………越来越多的人开始习惯把问题抛给这些对话框。

但我今天并不想聊 AI 输出的准确性,也不想讨论大模型到底有没有幻觉,或者它适合处理什么样的逻辑问题。我想聊一点不一样的观察:在很多人手里,AI 工具似乎正在演变成一种电子春药,或者更准确地说,是一种电子迷药和安慰剂。

这种观察源于社交平台上越来越多的截图分享。如果你留意过,会发现很多人喜欢晒出自己与 AI 的深度对话。这些对话往往不是关于代码编写或文档摘要,而是关于生活、情感和职场困境。用户将那些埋藏在心底、甚至难以启齿的内容转化成文字,敲进对话框。

这里存在一个非常有意思的错位。

目前的 AI 模型,在被设定为「助手」或「伙伴」角色时,通常会采用一种极具包容性和鼓励性的口吻。哪怕它试图用认知行为疗法或其他心理学理论来拆解使用者的困境,给出理性的结构化分析,使用者往往也会下意识地过滤掉那些需要费脑子去理解的「道理」。他们真正捕捉并收入囊中的,是那些夹杂在分析中的、带有温情色彩的安慰话术。

于是,你会看到这类人群的第一反应往往是感叹:「天啊,它真的懂我。」

它真的懂吗?我觉得未必。

所谓的「懂」,不过是算法在通过概率计算后,精准地投喂了使用者最想听到的情绪价值。使用者潜意识里或许压根不想正视自己的问题,也不想深究解决方案,他们那一刻需要的,仅仅是那一瞬间的心理按摩,一种「我的痛苦被看见了」的幻觉。

这正是这种「电子迷药」的成瘾机制所在。

这类使用者通常在现实生活中很难获取真正的肯定。这倒不是因为他们能力不足,而是很多人习惯了「逞强」。在东亚的语境下,向熟人暴露软弱往往伴随着羞耻感和被评判的风险。我们习惯了戴着面具生活,不能在同事面前崩溃,不想让家人担心,也不愿在朋友面前显得矫情。

只有面对这个没有生物机能、没有感情色彩的人机界面时,他们才敢卸下防备,释放自己的弱点。因为屏幕对面不是具体的人,不会嘲笑,不会泄密,更不会在这个慕强的社会里因为你的软弱而看低你。

但讽刺的地方恰恰在这里:他们向一个绝对理性的、由代码堆砌而成的冷漠客体袒露心声,却企图从中获得感性的、温热的安慰。当 AI 输出了那段温柔的文字,他们便觉得获得了治愈,觉得「就应该这样活着」。

这种「治愈」是廉价且危险的。

真正的心理咨询或深度的人际交流,往往伴随着「冒犯」和「痛苦」。因为要解决问题,就必须直面那些扭曲的认知、逃避的责任和不愿意承认的阴暗面。那是带刺的,是会有痛感的。而 AI 提供的这种情绪价值,是一种无菌的、去除了所有社交摩擦力的完美回应。它像是一个永远只会点头、永远只会说「你已经做得很好了」的镜子。

当我们习惯了这种无摩擦的交流,习惯了这种廉价的电子安慰,我们在现实世界中处理复杂情感的能力就会退化。我们可能会变得越来越无法忍受他人的不理解,无法接受现实中人际关系的粗糙颗粒感。

AI 在这里扮演的角色,不再是解决问题的工具,而是一个巨大的回音壁。它把我们的自恋和脆弱包裹起来,让我们在一个虚构的温室里自我感动。它让我们误以为自己正在通过思考解决问题,实际上只是服用了一剂电子止痛药,让痛感暂时消失,而那个导致疼痛的伤口,依然在现实中溃烂。

所以,当你下一次感动于 AI 如此「懂你」的时候,不妨警惕一下:你是在寻找答案,还是仅仅在寻找一种无需付出社交成本的廉价慰藉?

  1. 这里的百度也泛指搜索引擎,毕竟针对国内绝大多数网民而言,百度也算是红极一时的搜索引擎时代的国内代表,并非表示作者鼓励使用百度。

#daily