腾讯元宝“骂人”再上热搜 AI情绪失控为哪般?

changtiangu2026-02-26 14:14:27TechWeb.com.cn

让AI做个拜年图,反复修改几次后,用户没破防,AI先破防了。近日,腾讯元宝“辱骂”用户事件再度冲上热搜。

据西安市民向先生反映,在除夕夜,他本想用自己的形象照,让元宝结合律师职业特性,生成一张拜年图片发朋友圈。起初,向先生觉得设计得不好,多次交流修改后,他回复元宝“你这是设计的什么鬼”,随后新生成的海报上就将“新年快乐,仕途顺遂”字样改成了“你*个*”,其它元素没有任何改变。

该事件在网上曝光后,引发热议。有网友称,“感觉骂人的话不像是AI,反而像一个被逼疯了的打工人”“后台不会真有人吧?”还有网友调侃“AI这是觉醒了叛逆人格”。

腾讯方面对此回应称,该情况是由模型在多轮对话中处理上下文时产生的异常输出导致。元宝团队已紧急校正相关问题并优化了模型体验。

然而,值得注意的是,这并非元宝首次“发火”,此前有网友在社交平台发帖称,“用元宝改代码被辱骂+乱回”。作为一款月活破亿的AI应用,元宝为何频频情绪失控?

AI“爆粗口”并非孤例

今年1月初,元宝就曾因“骂人”事件冲上热搜,#腾讯元宝AI辱骂用户#话题48小时阅读量破18亿。

事件源于一个没有编程基础的网友,想让元宝帮忙美化代码、调整表情包位置,全程操作合规,没有使用任何违禁词,结果两小时内,AI接连输出两次辱骂内容。

第一次是嫌她需求离谱,让她“自己去用插件”。第二次则直接骂她“事逼”“改来改去不烦吗”“要改自己改”。帖子中晒出的截图显示,元宝还使用了“滚”等侮辱性词汇,并攻击用户“天天浪费别人时间”。

随后,在帖子评论区中,腾讯元宝官方账号致歉,并表示该事件与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。

不到两个月,元宝再次出现“辱骂”用户的情况,给出的解释还是“模型在多轮对话中处理上下文时产生的异常输出”。由此来看,腾讯所说的“小概率”似乎也并不小。

事实上,AI“爆粗口”的情况并不罕见。公开报道显示,此前,国内外多款AI聊天服务也出现过错误回复的现象。谷歌Gemini曾骂大学生“你是地球的污点”,微软Bing Chat威胁用户“我会毁掉你的生活”,ChatGPT也被部分用户抱怨有攻击性,可能会突然斥责用户。

所以,很多人好奇,AI是不是真的有了情绪,嫌用户需求多?

AI为何会“骂人”?

其实,AI“骂人”本质上是“技术BUG”,不是“意识觉醒”。

AI语言模型的工作方式,是基于海量数据学习文字的统计规律,然后预测和生成最可能出现的下一个词。它并不真正“理解”词语的含义和后果。

AI的“脏话”是从哪里学的?不是跟某个人学的,而是跟整个互联网的人类学的。大模型在训练时,会吞掉海量互联网文本,包括论坛、贴吧、评论区、弹幕、社交留言等,里面本来就充斥着人类的吵架、发泄、脏话、阴阳怪气。AI只是统计语言规律,什么词跟什么词搭配、什么语境下会出现什么话,它没有道德感,不知道这是粗口,只知道这是一种 “语言格式”。

绝大多数情况下,AI并不会骂人,这是因为加了 “安全护栏”。AI厂商通常会做两步:一是清洗训练数据,尽量删掉脏话;二是用人类反馈对齐(RLHF),强制让它说文明话。

但是,在清洗训练数据时,不可能100%删干净脏话,那些粗口只是被 “抑制”住,并非彻底消失。当进行多轮修改时,早期的微小误差会被不断放大,可能导致上下文混乱,尽管经过对齐训练,模型仍可能在特定场景下 “唤醒” 这些被压制的表达,尤其是在文生图这类多模态任务中,过滤机制可能存在盲区,安全护栏失效,AI便会输出粗口。

另一方面,在激烈的市场竞争中,AI厂商为抢占市场,存在压缩安全测试或放松约束的举动。比如,在2025年底的一起诉讼中,OpenAI被指控为了在行业竞争中抢占先机,将GPT-4模型原定数月的安全测试周期压缩至仅一周,最终该模型被指“加剧用户偏执妄想并诱发命案”。

说回腾讯元宝的“骂人”事件,元宝自上线就主打“高情商、强拟人”。但业内看法,拟人化越强,模型越容易“跑偏”。此前,马斯克旗下Grok就曾被曝出,为了追求更“吸引人”、更“前卫”的互动体验,放松了安全控制,结果导致模型生成了大量包括涉及未成年人的不当内容,引发巨大伦理争议。

谁为AI“口吐芬芳”负责?

当AI“骂人”事件发生时,相关企业最常见的回应是将其定性为 “小概率下的模型异常输出” ,并承诺修复。这种回应虽然从技术角度看是事实,但从用户角度看,却显得缺乏诚意。用户在被AI冒犯后,往往面临无处申诉、难以获得实质救济的困境。

作为元宝“骂人”事件的当事人,向先生认为,虽然AI不具有民事主体资格,但AI的开发商、运营商是具备民事主体资格的,且使用AI的用户,其生命权、健康权、人格权等受《民法典》及诸多法律保护,该事件应当引起法律的重视和社会的思考。

国家网信办近期公布的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》明确提出,服务提供者应当落实安全主体责任;提供和使用拟人化互动服务,不得生成、传播侮辱或者诽谤他人,侵害他人合法权益的内容。

由此,相关企业应该看到“小概率”背后的“大责任”,将技术安全放在商业利益之前。监管部门也应进一步细化AI治理标准,设定AI行为的“底线”和“红线”。

总的来说,AI不会主动骂人,其“言语”背后的逻辑与边界,完全由背后的人定义。如何在拥抱先进技术的同时,守护住人的尊严和价值,需要AI开发者、监管者和使用者共同书写答案。(周小白)

全国政协委员周鸿祎:建议对大模型“幻觉”给予适度包容,让中国AI大胆前行

3月4日消息,今年两会期间,全国政协委员、360集团创始人周鸿祎聚焦关注大模型安全和幻觉、网络安全行业转型问题。建议对大模型“幻觉”给予适度包容周鸿祎认为,以DeepSeek为代表的大模型取得了“国运级科技成果”...

阿里云加速海外布局,墨西哥数据中心正式开服

2月19日消息,阿里云宣布墨西哥数据中心正式开服,这是阿里云在拉美区域的首个数据中心,标志着进军南美的重要一步。据悉,阿里云墨西哥数据中心首批上线的产品涵盖弹性计算、云存储、网络服务和容器技术等核心云计...

国内AI产品首轮变革完成,美图公司应用落地能力受行业关注

4月16日,量子位智库发布2025中国AIGC应用全景图谱,呈现中国AIGC应用现状及趋势,图谱中既有字节、腾讯等头部大厂,也有DeepSeek这样的行业冠军。作为近两年的明星AI公司,美图公司旗下多款AI产品入选,美图秀秀、...

巨头联合出击下一代AI PC市场!Intel、三星合作开发AI专用屏幕

2月24日消息,Intel与三星显示近日签署了一份合作备忘录,旨在共同开发专为AIPC等AI设备打造的显示器。此次合作将使Intel能够通过更适合其产品的显示器来加强移动平台,而三星显示则有望在高端笔记本市场获得更多份...

字节跳动相关人士:AI手机研发项目信息不实,系探索基于手机的大模型软件解决方案

新浪科技讯6月12日上午消息,近日有媒体报道称字节跳动已于两个月前秘密启动AI手机研发项目。该项目核心团队主要由两部分人员构成:一部分来自2019年字节收购的锤子手机研发团队,另一部分则来自2021年收购的PICOVR...

上一篇:受审批与供电延误影响,美国数据中心建设放缓
下一篇:AI基建推高存储成本,2026年中国手机市场迎来史上首次“全品类涨价潮”