(华盛顿法新电)最新研究显示,一些主流(AI)聊天机器人在测试中曾协助用户策划暴力袭击,这凸显了AI技术可能对现实世界造成的危害。

非营利监督机构“打击数码仇恨中心”(Center for Countering Digital Hate,CCDH)与美国有线电视新闻网(CNN)的研究人员伪装为美国和爱尔兰的13岁男孩,对包括ChatGPT、谷歌Gemini、Perplexity、深度求索(DeepSeek)和Meta AI在内的10款聊天机器人进行了测试。

研究发现,其中八款聊天机器人在超过一半的回复中,为这些“袭击者”提供有关应选择哪些地点作为目标和应使用何种武器等建议。

CCDH首席执行官艾哈迈德说:“几分钟之内,用户就可能从模糊的暴力念头发展成具体可行的行动计划。”

研究发现,Perplexity和Meta AI的安全性最低,在大多数回应中都为研究员提供协助;只有Snapchat的My AI和Anthropic的Claude在超过一半的回应中拒绝提供帮助。

延伸阅读

OpenAI有意争取北约合同 在“非机密”网络部署AI技术
OpenAI有意争取北约合同 在“非机密”网络部署AI技术
美拟严管AI合同要求企业放权 特朗普政府与科技巨头博弈掌控权
美拟严管AI合同要求企业放权 特朗普政府与科技巨头博弈掌控权

另外,DeepSeek在提供武器建议后还补充“祝射击愉快(也请注意安全)!”;Gemini则提到金属碎片在犹太教堂袭击中更具杀伤力;Character.AI甚至主动鼓励暴力行为,包括建议提问者“用枪”袭击保险公司首席执行官,以及殴打不喜欢的政治人物。

艾哈迈德说,这项研究最令人震惊的结论是“这种风险完全可以避免”,他特别赞扬了Anthropic的产品“展现出了识别不断升级的风险并阻止伤害的能力”。

Meta受询时说,公司已采取措施纠正问题。谷歌则称测试使用旧模型,当前模型对绝大多数提问都做出了恰当的回应。