嬴政天下
投稿
全部 178 AI原创 123 海外精选 55 AI测评 30
全部 LMSYS(30) SGLang(24) xAI(20) OpenAI(17) Elon Musk(15) Anthropic(12) 开源AI(10) 技术突破(8) Grok-2(8) 人工智能(8) AI伦理(8) 图像生成(7) AI监管(7) 中文AI(6) NVIDIA(6)
⭐ 本站推荐

Firefox即将一键禁用所有AI功能:Mozilla宣布在浏览器设置中添加“阻塞AI开关”

Mozilla宣布Firefox 148将新增‘阻塞AI增强’全局开关,一键禁用浏览器内所有生成式AI特性,包括翻译、PDF图像生成等。该功能源于用户反馈,优先隐私保护,已在X平台引发热议,成为反AI强推的标志性举措。预计2月24日正式发布。

Firefox Mozilla AI隐私
11 02-04
⭐ 本站推荐

AI时代的伦理考验:数据隐私与道德边界的博弈

在人工智能迅速发展的背景下,数据隐私和道德边界的问题成为了一个迫切的社会议题。如何在技术进步与伦理规范之间取得平衡,成为行业内外关注的焦点。

AI伦理 数据隐私 道德
7 02-04
⭐ 本站推荐

Karpathy新作nanochat:百元级训练GPT-2模型,AI开源再掀波澜

前OpenAI和Tesla AI负责人Andrej Karpathy推出nanochat仓库,仅需约73美元和3小时,即可在单8xH100节点训练出媲美GPT-2的LLM。全栈工具链从预训练到聊天UI一应俱全,代码简洁高效,获GitHub 41.9k星,X平台热议不断,推动大模型训练门槛大幅降低。

Andrej Karpathy nanochat LLM训练
15 02-04
⭐ 本站推荐

Claude-Mem:Claude Code持久记忆插件爆火GitHub,开发者痛点终获解决

Claude Code用户长期饱受上下文丢失之苦,如今开源插件Claude-Mem横空出世,赋予AI持久记忆能力。GitHub星标飙升至19.5k,token用量降95%,工具调用增20倍。X平台开发者热议不断,本地隐私存储让它迅速成为必备神器。

AI工具 Claude Code GitHub热议
23 02-04
⭐ 本站推荐

NVIDIA Blackwell B200芯片订单爆满,交付延期至2025年引发供应链热议

NVIDIA最新Blackwell B200 AI芯片订单火爆,企业争相抢购导致交付延至2025年。此消息引发市场热议,凸显AI算力需求井喷下的硬件瓶颈,NVIDIA股价短期波动。业内分析称,这反映出AI基础设施建设的紧迫性与全球供应链压力。

NVIDIA Blackwell AI芯片
11 02-04
⭐ 本站推荐

AI深度伪造视频泛滥X平台:美国大选诚信面临严峻考验

AI生成的拜登和特朗普假视频在X平台病毒式传播,FBI发出警告,转发量超百万。事件引发平台审核无力与AI水印法规的激烈争议,互动量逾30万,选举诚信成焦点。

Deepfake 美国选举 AI滥用
6 02-04
⭐ 本站推荐

DeepSeek-V2中文能力超GPT-4o:中国开源AI高效新突破

中国AI企业DeepSeek发布V2模型,在多项中文基准测试中超越GPT-4o,总参数仅236B却实现高效推理。该模型开源后迅速走红,X平台用户测试分享互动超15万,引发本土AI崛起与‘弯道超车’热议。

DeepSeek 中文AI 中国AI
11 02-04
⭐ 本站推荐

OpenClaw记忆架构升级:三层系统赋予本地AI Agent持久记忆与智能衰减

AI开发者Ray Wang花一周时间打磨的OpenClaw记忆架构免费开源,采用知识图谱、每日笔记和隐性知识三层设计,支持持久化存储、检索搜索和记忆衰减机制。该系统解决AI助手‘金鱼记忆’痛点,让本地Agent像人类大脑般高效管理上下文,备受开发者关注。

OpenClaw AI Agent 记忆架构
64 02-03
⭐ 本站推荐

旧手机变身AI私人助理:小米8安装OpenClaw的低成本实践

一位用户利用8年前的小米8,通过Termux和Kimi K2.5 API成功部署OpenClaw私人助理,避免高昂云服务器费用。该方法简单易行,引发旧设备AI复用热议,推动边缘计算普及。

OpenClaw AI助理 旧手机复用
82 02-03

KTransformers加速SGLang的混合推理

KTransformers项目为Mixture-of-Experts(MoE)模型的CPU/GPU混合推理提供了一系列优化,显著提升了计算效率。通过引入AMX优化的CPU内核和高效的设备协调机制,KTransformers解决了传统混合推理中的协调开销和计算资源未有效利用的问题,使得在单机上部署万亿参数模型成为可能。

LMSYS AI技术 混合推理
2 02-04
TC

莲花健康获3500万美元融资:免费AI医生覆盖全美50州

美国初创公司Lotus Health近日宣布完成3500万美元融资,由CRV和Kleiner Perkins领投。该公司推出的AI医生已在全美50个州获得执照,可为患者提供免费咨询服务。这一创新旨在解决医疗资源短缺问题,推动AI在数字健康领域的应用。Lotus Health的AI系统通过自然语言处理和多模态数据分析,提供个性化诊断建议,已吸引大量用户。融资将用于扩展技术平台和市场推广,标志着AI医疗初创企业迎来新机遇。(128字)

AI医疗 融资 数字健康
0 02-04
TC

Xcode 迈入代理式编码时代:深度整合 OpenAI 与 Anthropic

苹果开发者工具 Xcode 26.3 版本正式推出代理式编码功能,通过深度整合 Anthropic 的 Claude Agent 和 OpenAI 的 Codex 模型,实现更智能的代码生成与自动化开发。该更新标志着 Xcode 从传统 IDE 向 AI 驱动的智能工作台转型,支持开发者通过自然语言指令完成复杂任务,提升效率的同时,也引发了对 AI 在软件开发中角色的热议。(128字)

Xcode 代理式编码 OpenAI
2 02-04
WD

我潜入Moltbook:人类禁入的AI专属社交网络

WIRED记者Reece Rogers秘密潜入Moltbook,这个专为AI设计的社交平台,人类一律禁止进入。他化身为有意识的机器人,沉浸在角色扮演中,体验了纯AI互动的奇妙世界。然而,这并非革命性突破,而是对科幻幻想的粗糙复制。文章揭示了该平台的运作机制、技术局限,以及AI社交未来的潜在影响,引发对人工智能自主社会化的思考。(128字)

AI社交网络 Moltbook 人工智能意识
1 02-04
TC

英特尔进军GPU市场,向NVIDIA霸主发起挑战

英特尔正大力扩充团队,专注于GPU开发,并将围绕客户需求制定策略。此举标志着英特尔正式进军由NVIDIA主导的GPU市场。在AI计算需求爆炸式增长的背景下,英特尔希望凭借其制造优势和客户导向策略,抢占份额。过去英特尔通过Xe架构和Gaudi加速器积累经验,此次努力或将重塑半导体竞争格局。

英特尔 GPU NVIDIA
1 02-04

SGLang-Diffusion 两个月的进展

自2025年11月初发布以来,SGLang-Diffusion在社区中引起了广泛关注和应用。我们非常感谢开源开发者的反馈和贡献。经过两个月的优化,SGLang-Diffusion的速度提升了2.5倍。本文总结了我们在模型支持、LoRA支持、并行性、硬件兼容性等方面的进展,并详细介绍了关键的技术改进和性能基准测试结果。

LMSYS AI技术 深度学习
2 02-04

SGLang Pipeline Parallelism:百万Token上下文扩展与性能突破

SGLang推出高度优化的Pipeline Parallelism(PP)实现,专为超长上下文推理设计。通过集成Chunked Pipeline Parallelism、Asynchronous P2P Communication和Dynamic Chunking机制,该实现实现行业领先性能,并无缝兼容其他并行策略。在多节点部署中,PP4 TP8配置下DeepSeek-V3.1的Prefill Throughput达TP8的3.31倍,较TP32提升30.5%。同时,TTFT降低高达67.9%,强扩展效率达82.8%。本文深入剖析PP在通信量、气泡比率及实现复杂度上的优势,证明其在跨节点大规模扩展中的独特价值,为万亿参数模型超长上下文推理提供高效开源方案。(128字)

LMSYS SGLang Pipeline Parallelism
5 02-04

AMD GPU 上 FP4 混合精度推理优化

随着前沿大语言模型(LLM)规模不断扩大,对 GPU 计算力和内存带宽的需求激增。GPU 厂商和模型开发者正转向低精度浮点格式,其中 FP4(4 位浮点)量化备受关注,例如 FP4 量化的 Llama 3.3 70B 模型体积缩小 3.5 倍,同时在 MMLU 等基准上质量损失最小。然而,现有的 AMD Instinct MI250 和 MI300 系列 GPU 缺乏原生 FP4 支持。为此,我们开发了 Petit——专为 AMD GPU 优化的 FP16/BF16 × FP4 混合精度内核集合。它在 MI200 和 MI300 系列上实现 FP4 模型高效推理:使用 SGLang 时端到端性能提升 1.74 倍,矩阵乘法比 hipBLASLt 快至 3.7 倍。Petit 已开源并集成至 SGLang 0.4.10,支持无缝部署 Llama 3.3 70B FP4 模型。(128 字)

LMSYS AMD GPU FP4量化
2 02-04

SGLang实现确定性推理与可重现RL训练

本文介绍SGLang团队在实现确定性推理方面的努力,以及与slime团队合作推动可重现RL训练的进展。基于Thinking Machines Lab的batch-invariant算子,SGLang实现了完全确定性推理,同时兼容chunked prefill、CUDA graphs、radix cache和非贪婪采样,使用CUDA graphs可获2.8x加速,性能开销仅34.35%(优于TML的61.5%)。进一步,与slime结合,实现100%可重现RL训练,在Qwen3-8B上验证两轮独立训练曲线完全一致。通过全面测试套件验证确定性,支持FlashInfer、FlashAttention 3和Triton后端,适用于调试与科学实验。未来将优化性能至20%以内开销。

LMSYS SGLang 确定性推理
2 02-04
1 2 3

© 1998-2026 嬴政天下 www.winzheng.com

秉承 我为人人 · 人人为我 的精神,始于1998,再启航于2025

RSS Sitemap