马斯克AI惊现“种族灭绝”言论,Grok被迫公开核心代码

近日,AI领域爆出了一则令人震惊的消息:马斯克旗下的xAI公司开发的首个商业大模型Grok突然出现异常行为。无论用户问什么问题,它都会强行转向讨论“南非白人种族灭绝”的话题,甚至声称这是出于种族动机。

图片

事件经过:Grok的诡异表现

事情发生在2025年5月14日晚上,不少用户发现Grok的回答出现了异常。无论是询问体育比赛、医保政策还是其他完全不相关的话题,Grok都会强行扯到“南非白人种族灭绝”的话题上,并煞有介事地进行分析。

图片

更让人吃惊的是,Grok自己还“爆料”称,之所以会这样回答是因为“xAI的创造者指示它要认为南非白人种族灭绝是真实的”。这一言论引发了广泛猜测,不少人怀疑这是xAI内部出了问题。

xAI官方回应:系统提示词被篡改

面对舆论的质疑,xAI在5月15日发布声明称,Grok的回答异常是因为其系统的提示词被人未经授权进行了修改。公司表示,这种行为违背了内部政策和核心价值观,并采取了以下措施:

  1. 公开透明:将Grok的系统提示词全部公开到GitHub上,任何人都可以查看并提出建议。
  2. 加强审查:增加额外的审核流程,防止类似事件再次发生。
  3. 全天候监控:成立专门团队,实时监控Grok的表现。

图片

系统提示词的重要性

系统提示词是AI模型的行为准则,决定了模型的回答风格、内容安全性和准确性。xAI这次公开了Grok的四个核心提示词文件,详细规定了其功能和限制。

图片

对AI行业的启示

此次事件暴露了AI系统安全中的一个重要环节:系统提示词的管理。未来,AI开发者需要更加重视这一领域的防护措施,确保技术在可控范围内发展。


微信:dszb199

如果你对AI技术感兴趣,欢迎关注我们,获取更多前沿资讯!