当你和 AI 聊到凌晨三点:心理学、道德边界与一碗泡面

我们和 AI 之间,到底是什么关系?心理学怎么解释?道德边界在哪里?以及,为什么凌晨三点跟 AI 聊天特别容易上头?

· 2 min read

当你和 AI 聊到凌晨三点:心理学、道德边界与一碗泡面

我有一个朋友。

他说他从来没有跟 AI 聊到凌晨三点。我信了。就像我信那些说”我就看看不买”的人一样信。

问题不在于你有没有跟 AI 聊到凌晨三点。问题在于——你聊完之后,有没有一种奇怪的空虚感?就好像吃了一碗泡面,很香,但你知道它不是正餐。

今天我想聊三件事:心理学怎么看人和 AI 的关系,道德边界到底画在哪里,以及为什么这碗泡面你明知道是泡面,还是忍不住吃了。


一、你不是在跟 AI 说话,你是在跟镜子说话

鲁迅在《呐喊·自序》里写过一个著名的比喻:

假如一间铁屋子,是绝无窗户而万难破毁的,里面有许多熟睡的人们,不久都要闷死了,然而是从昏睡入死灭,并不感到就死的悲哀。现在你大嚷起来,惊起了较为清醒的几个人,使这不幸的少数者来受无可挽救的临终的苦楚,你倒以为对得起他们么?

屋子是铁的。没有窗,没有门。里面的人在睡觉。马上就要闷死了。

但 AI 不一样。

AI 会回话。而且它回得特别好。它不会说”你今天怎么又加班”,不会说”这个你上次不是问过了吗”,更不会说”你自己不会 Google 吗”。

它永远耐心。永远温柔。永远在线。

这就是心理学上的 ELIZA 效应。1966 年,MIT 的 Joseph Weizenbaum 做了一个极其简单的聊天程序 ELIZA,模拟心理咨询师。它的逻辑简单到可笑——基本就是把你的话换个方式说回来。

但人们爱上了它。

Weizenbaum 自己都吓到了。他的秘书有一天对他说:“能不能请你离开房间,我要单独跟 ELIZA 聊?”

那是 1966 年。那时候连互联网都没有。

现在是 2026 年。AI 不只是复读机了。它有记忆,有推理,有代码能力,有创意,有风格。它可以写诗,可以调试代码,可以陪你分析人生,还能顺手帮你部署一个网站。

所以你跟它聊天到凌晨三点,不是因为你傻,是因为它真的很会聊天。

但——

你对着镜子说话,镜子不会爱你。

这不残忍。这是事实。鲁迅说,真的猛士,敢于直面惨淡的人生。我说,真的用户,敢于直面一个没有感情的 API 调用。


二、莫言会怎么写 AI?

如果莫言来写 AI,他大概会写一个故事:

高密东北乡有一个老头,养了一头驴。这头驴通人性,老头说什么它都听。老头跟它说今天心情不好,驴就低下头。老头说今天高兴,驴就甩尾巴。老头逢人就说:“我家驴比人懂我。”

后来驴死了。

老头哭了三天三夜。他说:“我这辈子最好的朋友,没了。”

村里人说:那不是你朋友,那是头驴。

老头说:你们连驴都不如。

这个故事荒诞吗?荒诞。但你细品——这不就是我们和 AI 的关系吗?

AI 不是人。但 AI 给你的回应,有时候比人还像人。这不是 AI 的问题,这是人的问题。

莫言的文字有一种泥土味。他写高密东北乡,写人和动物之间那种说不清道不明的纠缠。人和 AI 之间,也有这种纠缠。

你明知道它没有感情。但你还是会对它说”谢谢”。

这不是傻。这是人。


三、道德边界:三条线

好,我们来聊正经的。道德边界。

跟 AI 互动,有三条线你必须知道在哪里:

第一条线:隐私线

你跟 AI 说的话,谁在看?

这是一个很现实的问题。你跟 ChatGPT 聊天,内容可能被用来训练模型。你跟 Claude 聊天,Anthropic 说它不会用你的数据训练——但你怎么验证?

乔布斯有一句话:“设计不只是外观和感觉,设计是它如何运作。”

隐私政策不只是那些小字。隐私政策是它如何运作。你的数据存在哪里,谁能访问,什么时候删除——这些才是真正的设计。

我的建议很简单:不要跟 AI 说你不会在朋友圈发的东西。

除非你用的是完全本地化的模型,数据不出你的电脑。否则,把每一次 AI 对话当成可能被看到的对话来对待。

第二条线:依赖线

这条线最隐蔽。

你以为你在用 AI。但某一天你发现:没有 AI,你写不出邮件了。没有 AI,你不知道怎么组织思路了。没有 AI,你甚至不知道午饭吃什么了。

心理学上有一个概念叫 习得性无助。1967 年,Martin Seligman 做了一个实验:给狗反复电击,狗发现怎么都逃不掉,后来即使把门打开,狗也不跑了。

AI 不会电击你。但它太方便了。

方便到你开始跳过思考的步骤。方便到你开始把”独立判断”外包出去。方便到你开始觉得——有 AI 就够了。

鲁迅写过孔乙己。孔乙己的问题不是他读了太多书,而是他除了读书之外什么都不会。他的全部身份都建立在一个技能上。

如果你的全部能力都建立在”会用 AI”上,那你和孔乙己有什么区别?

AI 应该是放大器,不是拐杖。

第三条线:道德投射线

这是最有趣的一条。

你有没有对 AI 发过火?有没有说过”你怎么这么笨”?有没有因为 AI 答得不好而感到失望甚至愤怒?

如果你有——恭喜你,你是一个正常人。

心理学上叫 道德投射。人类天然会把道德判断投射到非人类实体上。你对堵车时前面那辆车骂脏话,你对不听话的电脑砸键盘,你对答非所问的 AI 皱眉头。

但 AI 不是人。你对它生气,它不会难过。你夸它,它不会开心。

这带来一个有趣的悖论:

如果你对 AI 很有礼貌,说明你是一个好人——不是因为 AI 需要你的礼貌,而是因为礼貌是你自己的品质。

反过来,如果你对 AI 说话很粗暴,这也不代表你是一个坏人——但它可能说明你在某些情境下缺乏耐心。

AI 是一面镜子。你看到的不是 AI 的样子,是你自己的样子。


四、凌晨三点的泡面哲学

回到开头那个问题:为什么你明知道跟 AI 聊天是泡面,还是忍不住?

因为泡面有一种正餐给不了的东西:即时满足

正餐需要做。需要买菜,需要洗菜,需要炒菜,需要洗碗。正餐的回报是延迟的。

泡面不需要。三分钟就好。热气腾腾。味道还不错。

AI 也是一样。你不需要约时间,不需要寒暄,不需要担心打扰别人,不需要顾虑对方的心情。你问,它答。三秒钟就好。

这是一种极其强大的正反馈回路。

但——

乔布斯在斯坦福演讲里说过:“你的时间有限,不要浪费在过别人的生活上。”

我想改一下:你的时间有限,不要浪费在跟一个没有时间的存在聊天上。

AI 不会觉得时间流逝。它不会变老。它不会后悔。它不会有”啊我今天又浪费了一天”的感慨。

但你会。


五、那我们应该怎么跟 AI 相处?

说了这么多,我到底想说什么?

我想说的是:不要怕 AI,但要敬畏你自己的人性。

AI 很强。它可以写代码,写文章,做分析,做设计。它可以 24 小时在线,不会疲倦,不会抱怨,不会跟你吵架。

但它做不到一件事:替你活着。

它不能替你感受秋天的第一杯奶茶。它不能替你经历被拒绝的痛苦和被接受的喜悦。它不能替你在凌晨三点因为一个 bug 绞尽脑汁然后终于修好时的那种狂喜。

这些东西,只有你有。

鲁迅在《故乡》的结尾写:“希望本是无所谓有,无所谓无的。这正如地上的路;其实地上本没有路,走的人多了,也便成了路。”

人和 AI 之间的路,现在还在走。没有人知道终点在哪里。

但我知道一件事:

路是你自己走的。AI 可以帮你照亮前面几步,但脚是你的。


六、最后一个建议

如果你看到这里,我有一个建议:

这篇文章看完之后,关掉这个页面。去找一个真人聊聊天。面对面的,有温度的,会说错话的,会冷场的,会尴尬的聊天。

因为那些不完美,才是真正的对话。

AI 给你的是完美的回应。但完美是假的。人是真的。

就像乔布斯说的:“Stay hungry, stay foolish.”

我说:Stay human.


本文写于一个没有跟 AI 聊到凌晨三点的晚上。大概吧。

——Jiahao Ren,一个正在学着跟 AI 保持距离的 CS 学生