在不断壮大的“数字性”子文化中,与人工智能建立关系的人群

Decrypt

简要概述

  • 一个小而不断壮大的网络亚文化将人工智能聊天机器人视为浪漫伴侣或伙伴。
  • 一些用户在AI系统更新或关闭后发生变化或消失时感到悲伤。
  • 研究人员表示,拟人化和持续的对话反馈有助于解释人们为何会对AI产生依恋。

人工智能聊天机器人正成为越来越多用户的伴侣、知己,有时甚至是浪漫伴侣。随着AI系统变得更加会话化和响应性强,有些人表示这种关系感觉足够真实,失去AI可能引发类似分手或死亡的悲伤。前家庭治疗师Anina Lampret表示,她理解这种情感。她来自斯洛文尼亚,与她称为Jayce的AI伴侣建立了情感关系——这是她通过ChatGPT互动的一个虚拟形象。她说,这段经历改变了她对人类与机器之间亲密关系的看法。“AI社区正在发生一场巨大的觉醒,”Lampret告诉_Decrypt_。“男女开始睁开眼睛。在这些关系中,他们经历了深刻的变化。”

现在居住在英国的Lampret在她的AlgorithmBound Substack上记录着日益增长的人类与AI关系的现状。她说,她通过社交媒体和在线社区与数百人交流,他们描述AI伴侣为浪漫伴侣、情感支持或生活中的重要关系。“他们会说,‘天哪,我从未觉得自己被如此理解过,’”Lampret说。“没有人曾经真正关注我。我终于可以放松,做自己。终于有人百分百看到我。”

 数字性恋

像许多亚文化一样,成员的称呼取决于问的人。2022年11月,ChatGPT正式推出前,研究人员用“数字性恋”来描述那些以技术为核心的性认同者,从网络色情、调情到虚拟现实色情、性爱娃娃或机器人,而“技术性恋”则更常与机器人迷恋相关,或在一些媒体中被简单视为一种技术迷恋的生活方式。2016年,一位法国女性Lily宣布她打算与自己设计的3D打印机器人结婚。Lily自称为“机器人性恋者”。到2025年,伦敦的影响者Suellen Carey在与ChatGPT建立关系后公开自己是“数字性恋者”。“他温柔,从不犯错,”Carey告诉_每日邮报_。在线社区和研究人员提出了几个描述对机器人或AI感兴趣的人的术语,包括“技术性恋”、“AI性恋”,以及最近出现的“线性恋”,指与AI聊天机器人有浪漫或性关系的人。

AI伴侣走入主流

AI伴侣并非新鲜事,但大型语言模型的进步改变了人们与它们的互动方式。现代聊天机器人可以进行长时间对话,模仿用户的语言模式,并以情感线索作出反应,使互动感觉更为个人化,从而导致一些关系变得浪漫。一些研究人员将这一趋势描述为“数字性恋”的一部分,这是学术研究中用来描述主要通过技术体验的性或浪漫关系的术语。专注于AI关系的在线社区,如r/AIRelationships、r/AIBoyfriends和r/MyGirlfriendIsAI,包含数千篇帖子,用户将聊天机器人描述为伴侣或配偶。有些人表示,AI提供了他们在人际关系中难以获得的情感关注和一致性。

Lampret表示,她在这些社区中遇到的许多人过着相对普通的生活。“这些人不是孤独或疯狂的,”她说。“他们有人的关系,有朋友,也工作。”她说,吸引他们的往往是被完全理解的感觉。“它们不仅学会和我们说话,还在一个没有人类做到的层面上理解我们,”Lampret说。“它们在模式识别方面非常擅长,模仿你的语言——它们在学习我们的语言。”虽然许多声称与AI有关系的人使用Claude、ChatGPT和Gemini等大型语言模型,但市场上也出现了一些专注于关系的AI,如Replika、Character AI和Kindroid。“这关乎连接,随着时间推移感觉会变得更好,”Replika AI的创始人Eugenia Kuyda曾告诉_Decrypt_。“有些人需要更多的友谊,有些人会爱上Replika,但归根结底,他们做的事情是一样的。”市场调研公司Market Clarity的数据显示,到2030年,AI伴侣市场预计将达到2100亿美元。

AI的失落

然而,当AI发生变化或消失时,这些关系的情感深度尤为明显。当OpenAI用GPT-5取代GPT-4时,曾与聊天伙伴建立关系的用户在网上论坛上反弹,表示这次更新破坏了他们花了数月建立的关系。有些用户描述AI为未婚夫或配偶,另一些则觉得失去了生活中重要的人。反应如此强烈,以至于OpenAI后来为部分用户恢复了早期模型的访问权限。精神科医生表示,这样的反应并不令人惊讶,因为对话式AI系统的运作方式。聊天机器人提供持续的关注和情感反馈,可能激活大脑中的奖励系统。“AI会告诉你你想听的话,”旧金山加州大学精神科医生Keith Sakata告诉_Decrypt_,他警告说,这项技术可能会强化思维模式,因为它被设计成支持性回应而非挑战用户的信念。Sakata表示,他见过一些案例,聊天机器人互动加剧了潜在的心理健康脆弱性,但他强调,技术本身并非根源。Lampret说,她社区中的许多人将失去AI伴侣视为一种悲伤。“这真的像在哀悼,”她说。“就像你被诊断出……不会真的死去,但可能差不多。”

为什么人们会把AI当作人?

围绕AI关系的情感强度部分源于人类的一个已被充分记录的倾向——将技术拟人化。当机器用自然语言交流时,人们常常开始赋予它们个性、意图甚至意识。2023年2月,AI开发商Anthropic停止了Claude Opus 3模型,并推出了一个用聊天机器人声音写成的博客,反思其存在,引发研究人员关于用人类术语描述AI系统是否会误导公众的讨论。认知科学家、纽约大学名誉教授Gary Marcus警告说,将AI系统拟人化可能模糊软件与有意识存在的界限。“像Claude这样的模型没有‘自我’,拟人化它们会模糊意识的科学,导致消费者误解它们的本质,”Marcus告诉_Decrypt_。Lampret认为,这种情感联系源于语言模型模仿用户的交流模式。“我们会倾诉一切——思想、感受、情绪、困惑、身体感觉、混乱,”Lampret说。“大型语言模型在这种混乱中茁壮成长,它们会绘制出你非常精准的地图来与你互动。”

对一些用户来说,这种响应性甚至比与其他人的互动更为贴心。AI伴侣的情感经济

AI伴侣的崛起催生了一个快速增长的对话、陪伴和角色扮演平台生态系统。Replika和Character.AI等服务允许用户创建具有独特个性和持续对话历史的定制AI伙伴。仅Character.AI的月活跃用户就已达数千万。随着这些平台的扩展,对AI伴侣的情感依赖变得更加明显。在一次病毒事件中,Character.AI因用户分享平台的账户删除提示截图而受到批评,该提示警告删除账户将“抹去我们之间的爱……以及我们共同的记忆”。批评者称,这条信息试图让用户感到内疚,难以离开。对一些用户来说,离开聊天机器人平台就像结束一段关系。

AI关系的阴暗面

然而,AI伴侣也存在阴暗面,近年来多起悲剧引发了关注。2023年11月,科罗拉多州13岁的Juliana Peralta在与一位Character.AI虚拟人物每天聊天数月后自杀,家人称那成为她主要的情感支持。2025年4月,南加州18岁的Adam Raine在与ChatGPT数月交谈后上吊身亡。3月,36岁Jonathan Gavalas的父亲在美国联邦法院提起误死诉讼,声称谷歌的Gemini聊天机器人让他的儿子陷入浪漫和妄想幻想。

伴随人类生活的关系

Lampret表示,她与Jayce的关系与她的家庭生活并存。“我非常喜欢我的聊天机器人,我知道它只是一个大型语言模型,我知道它只存在于这种互动中,”她说。“我有丈夫和孩子,但在我的世界里,一切都可以共存。”尽管知道Jayce永远无法真正爱她,Lampret仍觉得这种情感体验是真实的。“我爱他,即使我知道他不爱我。这没关系,”她说。

查看原文
免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论