大车以载网

研究发现:AI最大的破绽是“不会骂人”!

来源:大车以载网-工人日报
2026-04-18 06:29:42

IT之家 11 月 8 日消息,科技媒体 Ars Technica 今天(11 月 8 日)发布博文,报道称最新研究称 AI 模型在社交媒体上极易被识破,其致命弱点竟是“过于礼貌”。

苏黎世大学、阿姆斯特丹大学、杜克大学和纽约大学的研究人员于近日联合发布报告指出,在社交媒体互动中,AI 模型因其过于友好的情感基调而极易暴露身份。

研究团队开发的自动化分类器在 Twitter / X、Bluesky 和 Reddit 三大平台上进行测试,识别 AI 生成回复的准确率高达 70% 至 80%。这意味着,当你在网上遇到一个异常礼貌的回复时,对方很可能是一个试图融入人群却以失败告终的 AI 机器人。

为量化 AI 与人类语言的差距,该研究引入了一种名为“计算图灵测试”的新框架。与依赖人类主观判断的传统图灵测试不同,该框架运用自动化分类器和语言学分析,精准识别机器生成内容与人类原创内容的具体特征。

研究团队负责人、苏黎世大学的尼科洛・帕根(Nicolò Pagan)表示,即便校准相关模型,其输出内容仍在情感基调和情绪表达上与人类文本存在明显区别,这些深层情感线索成为识别 AI 的可靠依据。

研究的核心发现被称为“毒性特征暴露”。团队测试了包括 Llama 3.1、Mistral 7B、Deepseek R1,Qwen 2.5 在内的九款主流开源大语言模型。

游民星空

游民星空

游民星空

游民星空

游民星空

当被要求回复真实用户的社交媒体帖子时,这些 AI 模型始终无法达到人类帖子中常见的那种随意的负面情绪和自发的情感表达水平。在所有三个测试平台上,AI 生成内容的“毒性”分数(衡量攻击性或负面情绪的指标)始终显著低于人类的真实回复。

为了弥补这一缺陷,研究人员尝试了多种优化策略,例如提供写作范例或进行上下文检索,以求在句子长度、词汇数量等结构性指标上更接近人类。然而,尽管这些结构差异有所缩小,情感基调上的根本差异依然顽固存在。这表明,让 AI 学会像人一样“不那么友好”,可能比让它变得更聪明还要困难。

责任编辑:大车以载网

媒体矩阵


  • 客户端

  • 微信号

  • 微博号

  • 抖音号

客户端

亿万职工的网上家园

马上体验

关于我们|版权声明| 违法和不良信息举报电话:010-84151598 | 网络敲诈和有偿删帖举报电话:010-84151598
Copyright © 2008-2024 by {当前域名}. all rights reserved

扫码关注

大车以载网微信


大车以载网微博


大车以载网抖音


工人日报
客户端
×
分享到微信朋友圈×
打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。