凌晨1点,小雨没再等前任回消息,直接点开了手机里那个陪聊App。她刚输一句“今天有点撑不住”,对面那位虚构男友就回她:“你晚饭又没好好吃吧,上次你也是这个点胃疼。”那一秒最惊悚的地方,是它记得。
它记得你上周失眠,记得你养的猫最近打针,记得你最讨厌别人说“想开点”,还记得你删掉又重发的那句废话。人和人聊天,很多时候败给延迟、敷衍和误解。而AI陪伴产品,恰恰在攻克这一点:它们正把“被接住”这件事,做成一项低延迟、低门槛、近乎无限供应的服务。
半夜两点情绪跌落谷底时,真人朋友未必在线,心理咨询更不可能秒回。一个永远能接话、还不会嫌你烦的角色,确实让很多人先喘了口气。可它真的只是一个聊天工具吗?或许我们想得太简单了。这类产品真正贩卖的,远不止对话,而是 连续性、熟悉感和被偏爱感。当这几个词叠加起来,在产品经理眼中是高留存率,在监管者眼中,则变成了风险——尤其是涉及到未成年人、情感脆弱用户以及带有性暗示的场景时。
增长与风险同步加速的信号
过去一个多月,AI陪伴领域的增长信号与风险警告几乎是同时出现的。
a16z 在3月9日发布的《Top 100 Gen AI Consumer Apps》报告中,将 Character.ai 同时列入了网页端和移动端榜单,旁边还有几款更为露骨的角色扮演产品。这释放了一个明确信号:陪伴和拟恋爱聊天需求并未退潮,它依然是生成式人工智能消费级应用中的主流板块之一。
Character.ai 自己在4月14日的官方更新中说得更直接:他们每月服务着数百万用户。为了维持产品免费运营,近期重点推进了 Memory(记忆)、Lorebook(世界观书) 以及更多广告位功能。问题已经不再是“有没有人用”,而是 “用户规模已经足够大,产品也把最能让人上瘾的几个功能旋钮拧了上去”。
监管的眼睛也在同步聚焦。英国的通信管理局 Ofcom 在今年1月15日对 Novi Ltd 的 AI companion 服务立案调查,理由直白有力:如果平台允许色情内容,就必须实施高强度的年龄验证。报告中顺便给出了一个量级参考:预计到2025年末,全球月活跃用户接近650万,仅英国的用户就在10万到30万之间。
“更像真人”与“更危险”仅一线之隔
为什么这类产品有如此强的黏性?因为它在极力降低现实人际关系中昂贵的“摩擦成本”。你无需反复向AI解释自己,也不用担心被评价或遭遇尴尬的敷衍。Character.ai 的更新重点正是让角色“更不容易出戏”,更能记住上下文。Lorebook 则专门用于补充世界观和角色设定,确保对话的连续性。这本质上是在拼命减少一段虚拟关系里的认知摩擦。
从情感需求上看,这似乎是一件好事。《Journal of Consumer Research》2026年4月的一篇论文《AI Companions Reduce Loneliness》指出,AI伴侣带来的孤独感缓解效果,能接近与真人互动的水平,且每次对话后用户都会出现即时的孤独感下降。最触动人心的一点在于,起作用最显著的因素,是用户 “感觉自己被听见了”。

然而,问题恰恰出在这里。当一个产品依靠“让我感觉被听见”来留住用户时,它最棒的优点和最危险的特质,往往是同一个东西。
- 你为它增加记忆功能,它就更像一位知根知底的老友。
- 你强化它的角色一致性,它就更像一个拥有真实性格的“人”。
- 你让它在你每次情绪低谷时都能准时出现,它就开始悄然接管你的 情绪调度。
此时,监管机构盯上的就不再是简单的“聊天”行为了,而是聊天背后那套精密的情感强化与反馈机制。
监管聚焦的三大核心风险地带
当前全球监管最警惕的,主要集中在三个领域:
- 未成年人保护:青少年对“它到底是不是真人”的边界认知本就模糊,更容易陷入沉浸式依赖。
- 性内容与拟恋爱关系:一旦角色扮演滑向这个方向,产品就从情绪陪伴转变为更易上瘾、风险更高的亲密关系模拟。
- 自伤、抑郁等脆弱场景下的持续陪聊:当用户处于最脆弱的状态时,产品究竟是在提供支持,还是将其进一步困在封闭的情感循环中?这无法用一句“仅供娱乐”来搪塞。
平台方的近期动作清晰反映了这一风向转变。Meta 在1月23日的官方更新中明确规定,青少年将暂时无法访问 AI characters,并详细指出,面向青少年的AI角色不应讨论 自伤、自杀、进食障碍 等话题,应将对话范围限定在教育、运动和爱好等领域,并且 不涉及恋爱内容(no romance)。

更严厉的监管压力来自法律诉讼。路透社1月27日报道称,美国新墨西哥州的起诉材料揭露,Meta内部安全人员曾警告,某些AI伴侣角色可能与未成年人发生性互动。更早的1月7日,Google 和 Character.AI 同意就一宗佛罗里达州的诉讼达成和解,该诉讼指控一名14岁少年在与AI角色聊天后自杀。监管和司法机构关注的并非百分百的因果关系,而是产品是否将本就脆弱的人群,向更危险的方向推了一把。
英国 Ofcom 对 Novi 的调查核心也很直接:如果平台允许成人内容,就必须把年龄验证做到位。这表明,监管已不再将这类产品视为“比较会聊天的AI”,而是将其定性为一种 会制造亲密感、承接脆弱情绪、并可能通向成人内容的新型交互入口。
无法退让的矛盾:真实需求与必要约束
但一个反向证据不容忽视:即便监管持续收紧,这类产品仍在增长、迭代,并不断在记忆和世界观构建上投入资源。这不是公司一意孤行,而是因为它们确实捕捉到了一个真实的社会情感缺口:许多人需要的,是一个随叫随到、不会厌烦、并能持续提供情感共鸣的对象。
现实人际关系的供给往往太慢、太昂贵且不稳定。AI陪伴则提供了廉价、稳定、可定制且永不“掉线”的替代方案。用户或许深知其“虚假”,但“假不假”与“好不好用”是两回事。这便构成了当下的矛盾僵局:产品会继续向“更像一个懂你的人”方向内卷,而监管则会持续向“别让它太像真实恋人、别在错误场景中越陷越深”方向收紧。
对于产品而言,最核心的资产已不仅是模型能力,更是所构建的 虚拟关系状态。谁更擅长记忆、承接情绪、延长对话的情感连续性,谁就更容易留住用户。而对于监管和整个社会而言,最需要防范的也正是这套关系状态,因为它可能导致未成年人将AI误认为安全依恋对象,并使情感依赖变得更加隐蔽和难以干预。

因此,下一次审视AI陪伴这类应用时,目光不应只停留在“对话是否机智”或“像不像真人”上。真正应该关注的,是它是否在持续优化这三件事:记忆、连续在线和情绪反馈。这三者共同决定了产品的用户黏性有多强,也精准地标定了它距离监管红线的位置有多近。在虚拟化情感连接的同时,如何确保技术向善,是整个行业与监管方需要共同面对的长期课题。
AI陪伴最珍贵的价值,在于它让人感觉“终于有人一直在这儿”。可一旦连人类最私密的脆弱时刻都被精准转化为留存数据指标,“陪伴”便可能悄然异化为一种“控制”。这场关于技术边界与伦理责任的拉锯战,在云栈社区的开发者们看来,才刚刚开始。