X平台(前Twitter)近日发布一项严格新政,针对创作者发布未标注AI生成的“武装冲突”相关内容,将从收入分享计划中暂停其资格3个月,若屡次违规则永久禁入。这一举措直指当下AI内容泛滥引发的信任危机,尤其在全球地缘政治紧张的背景下,虚假信息传播风险急剧上升。
新政详解:三月暂停,屡犯永久禁
根据X官方声明,创作者若在帖子中包含AI生成的图像、视频或文本,涉及“武装冲突”主题(如战争、军事行动、冲突事件),但未明确标注为AI产物,将被视为违规。首次违规者将被暂停参与平台的创作者收入分享计划(Creator Revenue Sharing Program)三个月。在此期间,他们无法从广告分成、订阅等渠道获利。若在暂停期内或之后继续违规,则将被永久移除该计划。
‘我们致力于维护平台的真实性和透明度。AI技术虽强大,但未经标注的合成内容可能误导用户,尤其在武装冲突等敏感议题上。’——X平台官方声明
这一政策并非空穴来风。X的收入分享计划自2023年推出以来,已吸引数百万创作者加入,通过广告曝光和订阅分成实现变现。但随之而来的是内容质量参差不齐,AI滥用问题日益突出。
行业背景:AI假新闻为何成‘定时炸弹’
AI生成内容的爆炸式增长是政策出台的直接推手。工具如OpenAI的DALL·E、Stability AI的Stable Diffusion,以及新兴视频生成器Sora,让任何人几秒内即可“制造”逼真战场画面:爆炸中的坦克、受伤士兵、甚至领导人演讲。这些内容若不标注,极易被误认为是真实事件。
回顾历史,2022年乌克兰冲突期间,社交媒体充斥AI伪造的“泽连斯基投降”视频,引发舆论混乱。2023-2025年间,以色列-哈马斯冲突、俄乌战事中,类似假图假视频频现。Meta、YouTube等平台已先行一步:Meta要求AI图像水印,YouTube禁止未标AI视频参与创作者基金。X作为实时信息枢纽,更需警惕此类风险。
据Statista数据,2025年全球AI生成内容占比已超社交媒体帖子的20%,其中军事冲突主题假新闻占比高达15%。未标AI帖不仅损害用户信任,还可能放大国际紧张局势,甚至被用于宣传战。
本文由 赢政天下编译整理,原文来自海外媒体 - Winzheng.com。
创作者生态冲击:机遇与挑战并存
对X上百万创作者而言,此政策如当头棒喝。许多依赖AI工具提升效率的博主、媒体人需立即调整策略:学习标注规范(如使用#AIGenerated标签),或转向原创内容。同时,平台将加强AI检测技术,借鉴Google的SynthID水印系统,提升审核效率。
积极一面,此举或净化生态,推动高质量内容崛起。过去,部分创作者靠低质AI农场帖薅羊毛,现将被挤出市场。X收入分享门槛本就较高(需500粉丝+500万曝光),新政进一步筛选优质玩家。
编者按:AI时代,真实性是底线
作为AI科技新闻编辑,我们认为X此举虽严厉,却势在必行。AI民主化带来创作自由,但也放大信息污染。平台责任不止审核,更需教育用户辨识真伪。未来,行业或统一标准:强制水印、区块链溯源,甚至AI内容专用标签。创作者应视之为警醒,转向‘人机协作’模式,提升原创价值。
对比TikTok的‘AI贴纸’机制、Instagram的生成内容标签,X政策更侧重经济惩罚,杀伤力强。但执行中需平衡:避免误伤真实军事记者,或过度审核原创。长远看,这将重塑社交媒体格局,推动全球AI治理共识。
展望2026年,随着Grok等X自家AI工具迭代,平台将如何自纠其AI内容?值得持续关注。
(本文约1050字)
本文编译自TechCrunch,作者Sarah Perez,原文日期2026-03-04。
© 2026 Winzheng.com 赢政天下 | 本文由赢政天下编译整理,转载请注明来源。原文版权归原作者所有。