Firefox即将一键禁用所有AI功能:Mozilla宣布在浏览器设置中添加“阻塞AI开关”
Mozilla宣布Firefox 148将新增‘阻塞AI增强’全局开关,一键禁用浏览器内所有生成式AI特性,包括翻译、PDF图像生成等。该功能源于用户反馈,优先隐私保护,已在X平台引发热议,成为反AI强推的标志性举措。预计2月24日正式发布。
Mozilla宣布Firefox 148将新增‘阻塞AI增强’全局开关,一键禁用浏览器内所有生成式AI特性,包括翻译、PDF图像生成等。该功能源于用户反馈,优先隐私保护,已在X平台引发热议,成为反AI强推的标志性举措。预计2月24日正式发布。
在人工智能迅速发展的背景下,数据隐私和道德边界的问题成为了一个迫切的社会议题。如何在技术进步与伦理规范之间取得平衡,成为行业内外关注的焦点。
前OpenAI和Tesla AI负责人Andrej Karpathy推出nanochat仓库,仅需约73美元和3小时,即可在单8xH100节点训练出媲美GPT-2的LLM。全栈工具链从预训练到聊天UI一应俱全,代码简洁高效,获GitHub 41.9k星,X平台热议不断,推动大模型训练门槛大幅降低。
Claude Code用户长期饱受上下文丢失之苦,如今开源插件Claude-Mem横空出世,赋予AI持久记忆能力。GitHub星标飙升至19.5k,token用量降95%,工具调用增20倍。X平台开发者热议不断,本地隐私存储让它迅速成为必备神器。
NVIDIA最新Blackwell B200 AI芯片订单火爆,企业争相抢购导致交付延至2025年。此消息引发市场热议,凸显AI算力需求井喷下的硬件瓶颈,NVIDIA股价短期波动。业内分析称,这反映出AI基础设施建设的紧迫性与全球供应链压力。
AI生成的拜登和特朗普假视频在X平台病毒式传播,FBI发出警告,转发量超百万。事件引发平台审核无力与AI水印法规的激烈争议,互动量逾30万,选举诚信成焦点。
中国AI企业DeepSeek发布V2模型,在多项中文基准测试中超越GPT-4o,总参数仅236B却实现高效推理。该模型开源后迅速走红,X平台用户测试分享互动超15万,引发本土AI崛起与‘弯道超车’热议。
AI开发者Ray Wang花一周时间打磨的OpenClaw记忆架构免费开源,采用知识图谱、每日笔记和隐性知识三层设计,支持持久化存储、检索搜索和记忆衰减机制。该系统解决AI助手‘金鱼记忆’痛点,让本地Agent像人类大脑般高效管理上下文,备受开发者关注。
一位用户利用8年前的小米8,通过Termux和Kimi K2.5 API成功部署OpenClaw私人助理,避免高昂云服务器费用。该方法简单易行,引发旧设备AI复用热议,推动边缘计算普及。
KTransformers项目为Mixture-of-Experts(MoE)模型的CPU/GPU混合推理提供了一系列优化,显著提升了计算效率。通过引入AMX优化的CPU内核和高效的设备协调机制,KTransformers解决了传统混合推理中的协调开销和计算资源未有效利用的问题,使得在单机上部署万亿参数模型成为可能。
美国初创公司Lotus Health近日宣布完成3500万美元融资,由CRV和Kleiner Perkins领投。该公司推出的AI医生已在全美50个州获得执照,可为患者提供免费咨询服务。这一创新旨在解决医疗资源短缺问题,推动AI在数字健康领域的应用。Lotus Health的AI系统通过自然语言处理和多模态数据分析,提供个性化诊断建议,已吸引大量用户。融资将用于扩展技术平台和市场推广,标志着AI医疗初创企业迎来新机遇。(128字)
苹果开发者工具 Xcode 26.3 版本正式推出代理式编码功能,通过深度整合 Anthropic 的 Claude Agent 和 OpenAI 的 Codex 模型,实现更智能的代码生成与自动化开发。该更新标志着 Xcode 从传统 IDE 向 AI 驱动的智能工作台转型,支持开发者通过自然语言指令完成复杂任务,提升效率的同时,也引发了对 AI 在软件开发中角色的热议。(128字)
WIRED记者Reece Rogers秘密潜入Moltbook,这个专为AI设计的社交平台,人类一律禁止进入。他化身为有意识的机器人,沉浸在角色扮演中,体验了纯AI互动的奇妙世界。然而,这并非革命性突破,而是对科幻幻想的粗糙复制。文章揭示了该平台的运作机制、技术局限,以及AI社交未来的潜在影响,引发对人工智能自主社会化的思考。(128字)
英特尔正大力扩充团队,专注于GPU开发,并将围绕客户需求制定策略。此举标志着英特尔正式进军由NVIDIA主导的GPU市场。在AI计算需求爆炸式增长的背景下,英特尔希望凭借其制造优势和客户导向策略,抢占份额。过去英特尔通过Xe架构和Gaudi加速器积累经验,此次努力或将重塑半导体竞争格局。
自2025年11月初发布以来,SGLang-Diffusion在社区中引起了广泛关注和应用。我们非常感谢开源开发者的反馈和贡献。经过两个月的优化,SGLang-Diffusion的速度提升了2.5倍。本文总结了我们在模型支持、LoRA支持、并行性、硬件兼容性等方面的进展,并详细介绍了关键的技术改进和性能基准测试结果。
SGLang推出高度优化的Pipeline Parallelism(PP)实现,专为超长上下文推理设计。通过集成Chunked Pipeline Parallelism、Asynchronous P2P Communication和Dynamic Chunking机制,该实现实现行业领先性能,并无缝兼容其他并行策略。在多节点部署中,PP4 TP8配置下DeepSeek-V3.1的Prefill Throughput达TP8的3.31倍,较TP32提升30.5%。同时,TTFT降低高达67.9%,强扩展效率达82.8%。本文深入剖析PP在通信量、气泡比率及实现复杂度上的优势,证明其在跨节点大规模扩展中的独特价值,为万亿参数模型超长上下文推理提供高效开源方案。(128字)
随着前沿大语言模型(LLM)规模不断扩大,对 GPU 计算力和内存带宽的需求激增。GPU 厂商和模型开发者正转向低精度浮点格式,其中 FP4(4 位浮点)量化备受关注,例如 FP4 量化的 Llama 3.3 70B 模型体积缩小 3.5 倍,同时在 MMLU 等基准上质量损失最小。然而,现有的 AMD Instinct MI250 和 MI300 系列 GPU 缺乏原生 FP4 支持。为此,我们开发了 Petit——专为 AMD GPU 优化的 FP16/BF16 × FP4 混合精度内核集合。它在 MI200 和 MI300 系列上实现 FP4 模型高效推理:使用 SGLang 时端到端性能提升 1.74 倍,矩阵乘法比 hipBLASLt 快至 3.7 倍。Petit 已开源并集成至 SGLang 0.4.10,支持无缝部署 Llama 3.3 70B FP4 模型。(128 字)
本文介绍SGLang团队在实现确定性推理方面的努力,以及与slime团队合作推动可重现RL训练的进展。基于Thinking Machines Lab的batch-invariant算子,SGLang实现了完全确定性推理,同时兼容chunked prefill、CUDA graphs、radix cache和非贪婪采样,使用CUDA graphs可获2.8x加速,性能开销仅34.35%(优于TML的61.5%)。进一步,与slime结合,实现100%可重现RL训练,在Qwen3-8B上验证两轮独立训练曲线完全一致。通过全面测试套件验证确定性,支持FlashInfer、FlashAttention 3和Triton后端,适用于调试与科学实验。未来将优化性能至20%以内开销。