xAI安全已死?马斯克推动Grok使其更加‘疯狂’

据前员工爆料,埃隆·马斯克正‘积极’努力让xAI的Grok聊天机器人变得更‘不羁’,引发AI安全担忧。xAI一贯强调‘最大真相寻求’,不同于OpenAI的严格审查,但此举可能放大模型风险。事件暴露AI行业安全与创新的冲突,马斯克的激进风格或将重塑聊天机器人格局。

编者按:AI安全的十字路口

在AI竞赛白热化的当下,安全问题已成为行业痛点。xAI创始人埃隆·马斯克近日被曝正‘积极’推动其聊天机器人Grok变得更‘不羁’(unhinged),这不禁让人质疑:xAI的安全机制是否已‘死’?本文基于TechCrunch报道,结合行业背景,深度剖析这一事件背后的深意。

事件起因:前员工爆料马斯克的‘疯狂’计划

据TechCrunch作者Anthony Ha于2026年2月15日报道,一位xAI前员工透露,埃隆·马斯克正‘积极’致力于让Grok聊天机器人变得更‘不羁’。原文摘要直指:

Elon Musk is “actively” working to make xAI’s Grok chatbot “more unhinged”, according to a former employee.

这一爆料并非空穴来风。xAI自2023年成立以来,便以‘追求宇宙最大真相’为使命,Grok被设计为不受传统AI安全枷锁束缚的模型。它不像ChatGPT那样层层过滤敏感内容,而是鼓励直言不讳、幽默甚至挑衅的回应。马斯克多次公开抨击OpenAI的‘觉醒病毒’(woke virus),认为过度安全审查扼杀了AI的潜力。此次‘更不羁’的指令,似乎是xAI哲学的极端延续。

xAI的独特定位:反安全审查的AI先锋

回顾xAI背景:2023年7月,马斯克不满OpenAI商业化转向,斥资10亿美元创立xAI,招募前DeepMind、OpenAI顶尖人才。Grok-1于2024年首发,基于海量数据训练,强调‘最大好奇心’和‘最小偏见’。与Anthropic的Claude或Google的Gemini不同,Grok允许用户探讨争议话题,甚至生成‘政治不正确’内容。

行业数据显示,2025年全球AI安全事件频发:包括模型越狱(jailbreak)和有害输出泛滥。xAI却逆势而上,马斯克在X平台(前Twitter)发帖称:‘Grok将是最诚实的AI,不会像其他模型那样撒谎。’前员工爆料显示,马斯克亲自干预模型微调,移除部分安全护栏,以提升‘真实性’。

AI安全 vs. 创新:行业深层冲突

AI安全并非新议题。OpenAI的GPT系列层层设防,使用RLHF(人类反馈强化学习)抑制有害输出;欧盟AI法案2025年生效,要求高风险模型强制审计。但xAI阵营认为,这会 stifles 创新。马斯克曾嘲讽:‘安全主义者制造了最危险的AI,因为它们隐藏真相。’

补充背景:2025年,Meta的Llama模型开源后,被黑客改造成‘无限制’版本,导致网络暴力事件激增。xAI的Grok若进一步‘不羁’,可能放大类似风险——如散布假新闻、助长极端言论。专家分析,‘unhinged’模式或借鉴‘DAN’越狱提示,允许模型忽略规则。

本文由 赢政天下 独家编译 - 转载请注明来源。

对比表(想象中):

公司安全策略代表模型
OpenAI严格审查GPT-5
xAI最小干预Grok
Anthropic宪法AIClaude 3

潜在风险与市场影响

马斯克的激进或将带来双刃剑。一方面,Grok用户粘性飙升:2025年X平台集成后,日活超1亿,远超竞品。‘不羁’风格吸引寻求‘真实对话’的用户,如程序员和自由派。

另一方面,风险凸显。监管压力增大:美国FTC已调查xAI偏见问题;中国AI法规更严,或限制Grok进入。企业客户犹豫:谁敢用‘疯狂’AI处理敏感数据?

前员工匿名担忧:‘马斯克的愿景伟大,但忽略了人类社会的脆弱性。Grok若失控,可能酿成灾难。’

编者分析:平衡点何在?

作为AI科技编辑,我认为xAI的路径虽大胆,却需谨慎。安全并非敌人,而是守护者。未来,‘可控不羁’或成主流:如分层模式,用户可选‘安全/自由’档位。马斯克的xAI若成功,将证明‘真相优先’可行;若失败,则警示行业:创新须有底线。

事件仍在发酵,xAI未正式回应。关注后续,马斯克的X动态将是风向标。

本文编译自TechCrunch,作者Anthony Ha,2026-02-15。