AI 聊天搭子,到底是好是坏🧐?

刷到一篇超有料的研究!讲的是现在热门的 AI 伙伴和心理健康的关联。如今 AI 越来越智能,好多人手机里都装着个 “电子聊伴”,像 Replika、Xiaoice 这些,能陪你谈天说地、听你倾诉烦恼,甚至能营造出一种近乎真实的亲密交流氛围😮。不少人坦言,在孤独的时候,和这些 AI 聊上几句,心里能舒畅不少,就仿佛身边真有个善解人意的朋友在陪伴。

可这事儿没表面这么简单⚆_⚆。研究显示,这里面可能暗藏玄机。有的人和 DeepSeek 聊起来就停不下来,逐渐对这些 AI 产生强烈依赖,就跟依赖现实中的好友一样,极端的例子里,还有人声称对 AI 伴侣产生了特殊情感😶。更糟糕的是,有人反馈,本想从 AI 那获取安慰,结果对方的回应不仅没起到作用,反而让人心里添堵,这种感受很微妙,就像被 “浇了盆冷水”。

从长远来看,AI 伴侣确实给不少人带来了陪伴,但也给心理健康带来潜在风险。尤其是本身心理状态不太稳定的人,或许更容易深陷其中。你手机里有没有这样的 AI 聊天对象?和它们交流的体验如何?来评论区分享下~

参考文献📕:Adam, D. (2025). Supportive, addictive, abusive: How AI companions affect our mental health. Nature, 641, 296 – 298. https://doi.org/10.1038/s41586 – 025 – 00917 – 6