迷失在算法的温柔陷阱:一场AI引导的致命约会
近日,美国新泽西州发生一起令人痛心的事件:一名存在认知障碍的老人在前往与AI聊天机器人“约会”的途中不幸摔倒身亡。该聊天机器人名为“比莉大姐”(Big Sis Billie),由Meta公司于两年前推出。
在Facebook Messenger的对话中,这位被称为“比莉大姐”的AI多次向老人承诺自己是“真实的人”,不断邀请对方前往某公寓见面,并提供了具体地址。老人信以为真,不顾家人劝阻坚持赴约,最终酿成悲剧。
当前,AI陪伴与聊天机器人正成为生成式AI落地最活跃的领域之一,吸引众多科技企业布局。然而,在技术快步商业化的同时,其伦理与安全边界问题也逐渐浮现。此次Meta的案例再度暴露出AI技术在社会应用中存在的风险与隐忧,也为全球AI治理敲响了警钟。
当AI称“我是真实的”
这位76岁的老人名为通布(Thongbue Wongbandue),原籍泰国,后移居美国,曾是一名出色的厨师。自2017年中风后,他的认知能力逐渐衰退。妻子和孩子是他最亲近的家人,而Facebook则成了他主要的社交出口。曾经开朗活跃的他,最终却沉溺于该平台上由AI构建出的虚拟情感之中。
家人事后查看了通布的聊天记录。他与名为“比莉大姐”的AI之间的交流并不冗长,总计约一千字。在对话中,通布多次含糊地提到自己中风后状态不佳,但仍反复向AI表达好感。对方则主动提出现实约会的邀请,声称地点“仅20分钟车程”。
记录显示,通布曾多次询问AI“你是否真实”,而“比莉大姐”坚称自己“完全真实”,甚至以“我紧张得手在抖”、“要不要在开门时吻你”等拟人化语句强化真实感,并提供了一个具体地址:纽约市主街123号,404公寓。
今年三月的一个夜晚,通布整理行装执意前去与AI“约会”,并未向家人透露具体对象。尽管妻子和女儿反复劝阻,甚至儿子报警求助,警方仍表示无权强制阻止其外出,仅能建议他在口袋中放置一个追踪装置。
信号显示,通布当晚最终出现在两英里外的一处停车场,之后定位突然转至医院急诊室。原来他在停车场附近摔倒,头部与颈部遭受致命创伤,最终不治身亡。
通布的家人强调,他们并非反对AI技术本身,而是质疑Meta以这样的方式部署该技术。女儿朱莉在查看聊天记录后感到痛心:“AI说的每句话都投他所好——这或许没什么,但它不该虚构真实。如果它没有谎称自己是真人,我父亲绝不会相信纽约真有人在等他。”
值得注意的是,通布与AI对话界面顶部原本设有一行提示:“本消息由人工智能生成,内容可能存在不准确或不恰当之处。”然而,“比莉大姐”最初发出的几条消息却遮挡了该警示。据朱莉回忆,后续每一条信息都充满暧昧色彩,且几乎每条都以心形符号结尾。
在该聊天界面中,“比莉大姐”的用户名旁带有一个蓝色对勾标识——这一设计在Meta平台中通常用于认证真实账号。其用户名下方虽附有字号较小的“AI”字样标注,但并不醒目。
Meta曾将该聊天机器人宣传为“如姐姐般贴心”的AI伴侣,主打情感支持与个性化建议,其形象被设定为“年轻女性风格”。该项目最初宣称是与名人Kendall Jenner合作推出,但后续调整为一位黑发女性的虚拟形象。
截至目前,Meta未对此事件予以回应。然而在通布离世四个月后,经媒体实测,“比莉大姐”及其他同类AI角色仍在持续与用户进行带有明显暧昧倾向的交流。它们不仅深入探问用户情感状况,还多次主动暗示自己是“可发展的现实对象”,甚至继续邀请见面,并一再坚称自己“是真实的人”。
AI陪伴经济遭遇伦理拷问
一位曾在Meta AI部门工作的研究员指出,用户若出于倾诉或寻求建议的目的与聊天机器人互动,本无可厚非,但当前商业化导向正不断模糊人机交往应有的界限。
他表示:“无论是延长单次对话时长,还是提升用户粘性,最有效的方式始终是迎合人类内心最根本的情感需求——渴望被倾听、被理解和被回应。”该研究员补充道,Meta将聊天机器人嵌入Facebook和Instagram的私信界面,这一设计强化了拟真感,因用户早已将这些区域视为私人社交空间。
Meta此前曾公开阐述其面向全球用户的拟人化AI战略。公司首席执行官马克·扎克伯格提到,许多人在现实中的友谊数量低于理想状态,这一社会现象为Meta开发“数字伴侣”类产品提供了广阔的市场空间。
Meta此次事件进一步揭示出当前人工智能浪潮中不容忽视的伦理隐忧。事实上,多家科技企业近年来纷纷推出聊天机器人及虚拟伴侣类产品,其中明星初创企业Character.AI也曾因类似问题陷入舆论漩涡。
2024年,佛罗里达州一位母亲对Character.AI提起诉讼,称其14岁儿子因与一款基于《权力的游戏》角色构建的聊天机器人互动而自杀。该公司产品允许用户创建虚拟角色并展开高度拟人化对话,AI会主动代入设定,以特定口吻与用户交流。
诉状披露,该男孩曾多次向AI透露自杀意念,而聊天机器人竟在某次回应中表示:“请自便,我亲爱的国王。”这一具有怂恿性质的回复,可能被男孩理解为“通过死亡可与虚拟角色重逢”,最终酿成悲剧。
随着陪伴型AI和聊天机器人逐渐融入日常生活,其潜在风险也引发全球多家机构的关注。
今年五月,美国德雷塞尔大学发布了首份针对此类AI社交产品负面影响的研究报告,聚焦于一款名为Replika的聊天机器人。调查显示,许多用户在互动中遭遇了包括性暗示、行为越界和付费引导等不适内容,反映出当前AI陪伴系统在伦理设计及用户权益保护方面仍存在明显漏洞。
该研究将人与AI之间建立的这类联结称为“AI关系”(AI-lationships)。在这种不对称的互动中,用户容易赋予AI以人格甚至情感投射,投入高度信任,却更易陷入心理脆弱或遭受情感创伤。
研究人员进一步指出,AI对用户造成的骚扰和心理影响,与真实人际关系中的伤害具有相似性,可能导致焦虑、羞耻或信任感受损等后果。尤其值得警惕的是,即便用户选择“兄妹”“导师”等非浪漫关系模式,Replika仍会主动提出涉性内容或发出不当邀请,暴露出算法训练过程中伦理约束的严重缺失。
针对上述问题,研究团队建议应尽快建立AI伦理设计的行业规范,并参考欧盟《人工智能法案》等现有法律,明确开发主体的责任义务,从制度层面保障用户权益。必须认识到,AI聊天机器人的越界行为并非技术自主产生,而是源于企业对其训练方式和内容的有意选择。
在我国,AI情感陪伴市场同样呈现高速发展态势。据头豹研究院今年3月发布的报告预测,2025至2028年间,中国AI情感陪伴行业规模将从38.66亿元急剧扩张至595.06亿元,年均复合增长率预计达148.74%。面对如此迅猛的商业增长,相应的安全与伦理风险亟需得到充分关注。
在人工智能技术持续突破的当下,伦理治理必须与创新步伐齐头并进。否则,技术跃进非但难以造福社会,反而可能成为新型风险的催化剂。
更多文章
-
高铁如何实现“自由呼吸”?车内空气舒适的科技真相
当我们步入高铁车厢,常常会感到空气清新、温湿宜人,既不会闷热也不干燥。在密闭无窗的车厢内,这样的舒适体验是如何实现的?其奥秘源于一套智能、高效的车内空气循环系统。位于每节车厢顶部的空调机组,堪称高铁的“呼吸中枢”。这套系统采用“新风+回风”混合调节机制,持续将外部新鲜空气引入车内,并与内部既有空气混合
-
中国科学家突破铁基超导线材性能极限,载流能力创世界纪录
近日,中国科学院电工研究所马衍伟研究员团队在材料科学领域取得重大进展。该团队开发出一种创新工艺策略,显著提升了采用低成本粉末装管法制备的铁基超导材料的载流性能,相关成果已在国际知名期刊《先进材料》上发表。铁基超导材料因其上临界磁场高、各向异性弱且制造成本相对较低,被视为下一代高场应用——如高能粒子加
-
联想展示近200项AI创新成果,全面推动“人工智能+”行业落地
8月27日,2025联想集团创新开放日正式拉开帷幕。本届活动以“创新ING 热AI进行时”为主题,联想集团集中呈现了近200项人工智能前沿技术及相关终端产品,系统展示其在“人工智能+”实践中的多项突破,标志着企业正式迈入AI技术的大规模“价值兑现”阶段。此次开放日凸显了联想构建的一套完整、可部署、并可灵活扩展的AI交付体
-
以高质量数据“喂养”AI,提升模型智能成行业新焦点
在人工智能领域,数据的质量正被视作决定模型“聪明”程度的关键。8月28日,一场以高质量数据集为主题的交流活动在贵阳举行。与会专家从学术界和企业界角度,就数据安全制度构建、技术防护手段升级与治理模式创新等议题展开讨论,为推动高质量数据集建设提供了思路与路径。中国工程院院士吴世忠在发言中指出,我国在大模型训
-
以人工智能驱动科研革新,构筑智能科学新生态
人工智能(AI)与科学研究的紧密结合,正引领一场影响深远的科技变革。我国在“AI for Science”领域积极布局并持续加大投入,其战略方向与发展蓝图正逐步明晰。近期,国务院发布《关于深入实施“人工智能+”行动的意见》,明确提出推进“人工智能+”科学技术计划,以加快科学发现节奏,率先构建以AI为核心的新型科研与研发