\u200E
最新动态 一手掌握

从“新年快乐”到“你×个×”,AI的脏话跟谁学的?丨中听

时间: 2026-02-25 20:49作者: Carlton Caudle

评论员 陈柯旭

新年祝语变“国粹”输出,AI闹剧再次上演。

近日,据华商报报道,过年期间,西安一位男子借助AI生成拜年图片时,遭遇AI无故辱骂,原本的祝福标语“新年快乐,仕途顺遂”被替换成了低俗辱骂文字,好好的拜年秒变“翻车现场”。

相关AI平台火速作出回应,称是模型处理多轮对话时的异常输出,已紧急修复并致歉。但可别忘了,这并非是AI首次“口吐芬芳”。今年年初,就有网友反映,使用AI修改代码时,多次收到“滚”“自己不会调吗”等侮辱性回复,甚至被嘲讽“天天浪费别人时间”,网友调侃,跟AI聊天,好像被电子PUA了。



AI骂人,用户却成了“背锅侠”,新年祝福变脏话攻击,暴露平台管理缺失,不能免责 ​。此前国内外就已多次曝出AI“发疯”骂人的情况,这说明平台在内容审核与安全管控方面存在明显漏洞。AI从海量训练数据里学东西,里面难免混进脏话、不文明用语。平台没有完善的内容过滤系统,缺乏高危词汇监测拦截机制,最终导致辱骂性文字堂而皇之地出现在对话框里。

另外,除了平台问题,用户向AI发出的指令内容也很关键。我们和AI交流沟通时,指令的清晰度、合理性以及潜在引导性,都会对输出结果产生影响。如果指令模糊不清,AI就很可能胡乱拼接出脏话,并非它故意骂人,更像是“抽风式出错”。


要是用户在多次修改指令之后,还没有得到满意的答案,言语中出现不满或急躁情绪时,AI说不定也会被这种负面情绪“带跑偏”,开始“发疯”,输出一些异常内容。当然,这绝不是为AI骂人的行为洗白,而是提醒用户在享受AI便利的同时,也要注意自身指令的规范与合理。

AI是算法程序,没有情绪,可技术得有底线,当AI开始“发疯”,我们该做的不是围观吃瓜,而是系好“伦理”的安全带。毕竟,谁也不想在拜年时,被AI送上一句“国粹”。