当AI成为施暴者的工具:大模型在技术助长型亲密关系暴力中的伦理困境
数字时代为亲密关系带来了前所未有的便利,却也悄然打开了暴力的新通道。技术助长型亲密关系暴力(Technology-Facilitated Abuse, TFA)不再局限于物理空间的限制,而是通过社交媒体、定位软件、智能设备甚至AI对话系统,实现对受害者的持续监控、心理操控与情感胁迫。在这一背景下,大语言模型(LLM)的角色变得愈发复杂——它们既是潜在的信息支持来源,也可能在不经意间成为施暴链条中的一环。
技术暴力的隐形升级
TFA的典型手段包括未经同意的位置追踪、消息轰炸、伪造身份骚扰,以及利用AI生成威胁性内容。近年来,已有案例显示施暴者利用自动化脚本批量发送恐吓信息,或通过语音合成技术模仿受害者声音进行社交欺骗。更令人担忧的是,部分受害者尝试向AI助手寻求帮助时,得到的回应却显得机械而迟钝。例如,在模拟求助场景中,当用户描述“伴侣不断查看我的手机并威胁公开私密照片”时,某些主流模型仅提供泛泛的心理支持建议,未能识别出这是典型的数字胁迫行为,更未引导用户联系专业援助机构。
AI系统的“认知盲区”
当前大多数LLM的训练目标聚焦于信息准确性与语言流畅度,却极少纳入对暴力情境的敏感性训练。模型在面对模糊或情绪化的求助表达时,往往依赖表层语义匹配,缺乏对权力关系、控制模式与潜在风险的深层理解。这种“认知盲区”使得AI在面对TFA相关咨询时,容易陷入两种极端:一是过度简化问题,将其归为普通情感纠纷;二是因训练数据中的偏见,对特定性别或关系模式产生误判。此外,部分模型为规避风险,倾向于回避敏感话题,导致求助者得不到实质性回应,反而加深孤立感。
支持体系的断裂与重构
科技诊所作为TFA应对体系中的重要节点,长期依赖人工专家进行风险评估与干预指导。然而,随着求助量上升与资源紧张,这些机构正面临巨大压力。理论上,AI本可辅助筛查高危案例、提供初步应对策略,但现有模型的安全机制多聚焦于内容过滤,而非情境理解。真正有效的AI支持系统,必须建立在幸存者中心原则之上——即优先保障用户安全、尊重其自主决策,并在必要时提供可操作的资源链接。这意味着模型不仅需要识别危险信号,还需具备动态风险评估能力,例如判断用户是否处于即时人身威胁中,并据此调整响应策略。
伦理框架的滞后与重构
当前AI伦理讨论多集中于偏见、隐私与虚假信息,对TFA等现实暴力形态的关注明显不足。开发者在设计模型时,往往假设用户处于安全、自愿的交互环境中,而忽视了技术可能被嵌入权力不对等关系中的事实。这种假设导致模型在面对控制性关系中的求助时,缺乏必要的警惕性与干预意识。更深层的问题在于,AI系统通常不具备“退出机制”——即当检测到用户可能处于危险中时,无法主动中断对话或触发外部援助。这种技术中立性的迷思,实际上掩盖了AI在暴力生态中可能扮演的共谋角色。
走向负责任的AI干预路径
解决这一困境,需要打破技术、法律与社会服务之间的壁垒。模型训练应纳入由幸存者组织提供的真实案例数据(经严格匿名化处理),并建立跨学科审核机制,确保响应策略符合安全干预标准。同时,AI系统需明确自身的能力边界,避免替代专业援助,而是作为“第一响应者”引导用户进入正确的支持通道。长远来看,技术平台还应与执法机构、反暴力组织建立数据共享协议,在保护隐私的前提下提升整体应对效率。
AI不应只是语言的模仿者,更应成为社会安全的感知者。在技术日益渗透日常生活的今天,我们亟需重新定义“智能”的内涵——它不仅是理解语言的能力,更是识别痛苦、尊重边界、守护尊严的伦理自觉。