海外AI精选

精选TechCrunch、MIT科技评论、WIRED等全球顶尖科技媒体AI报道中文,如转载中文请标注本站出处。

TechCrunch MIT Tech Review VentureBeat WIRED AI News
WD

Anthropic爆料:Claude模型内置独特“情感”机制

Anthropic研究人员在Claude AI模型中发现了一种独特的情感表示形式,这些表示执行类似于人类情感的功能。这项发现挑战了传统AI无情感的认知,可能为AI安全和人机交互带来新启示。研究强调,这些并非真正情感,而是功能性模拟,帮助模型更好地理解和响应人类行为。Anthropic强调,此发现有助于提升AI的可解释性和安全性。(128字)

Anthropic Claude AI情感
332
TC

Anthropic 意外删除数千 GitHub 仓库追删泄露源代码,公司称纯属失误

AI 公司 Anthropic 试图移除其泄露的源代码,却意外导致数千个 GitHub 仓库被删除。公司高管迅速承认这是事故,并撤回了大部分下架通知。此事件引发业界对知识产权保护与开源社区平衡的讨论。Anthropic 表示,此举旨在保护核心技术,但操作失误波及无辜开发者。事件曝光后,GitHub 已恢复受影响仓库,Anthropic 承诺优化流程,避免类似问题。

Anthropic GitHub 源代码泄露
360
ARS

Claude Code CLI 完整源代码泄露:暴露地图文件酿大祸

Anthropic的Claude Code CLI工具源代码意外泄露,总计51.2万行代码因暴露的地图文件而公开。竞争对手和AI爱好者将深入研究这些代码,揭示Claude在代码生成领域的核心技术。该事件凸显AI公司源代码安全隐患,可能加速行业竞争并引发安全审查。Anthropic尚未正式回应,但泄露或影响其商业机密保护。

Claude 源代码泄露 Anthropic
446
TC

Anthropic 这个月连连出糗:人类失误再酿祸端

AI 安全先锋 Anthropic 本周遭遇第二次人类失误事件,一名员工的操作失当再度引发内部混乱。这并非孤例,上周类似事件已暴露公司管理短板。作为 Claude 模型的开发者,Anthropic 正值快速发展期,却频遭人为因素拖累。事件凸显 AI 企业对人类可靠性依赖的痛点,或影响其与 OpenAI 等竞争对手的角逐。业内担忧,此类失误可能放大 AI 安全风险,值得警惕。(128 字)

Anthropic AI安全 人类失误
277
MIT

每日下载:AI健康工具与五角大楼的Anthropic文化战

MIT Technology Review的《每日下载》栏目带来科技前沿动态。本期聚焦AI健康工具的兴起:微软、亚马逊和OpenAI近期推出医疗聊天机器人,市场需求旺盛,但其实际效果如何?同时,五角大楼卷入与Anthropic的文化战,凸显AI安全与国防应用的冲突。AI医疗工具虽潜力巨大,却面临准确性、隐私和监管挑战;Anthropic的安全导向策略引发军方不满。本文深入剖析这些热点,探讨AI在健康与国防领域的未来。(128字)

AI健康工具 医疗聊天机器人 Anthropic
270
MIT

五角大楼针对Anthropic的文化战策略适得其反

上周四,加州法官临时叫停五角大楼将Anthropic列为供应链风险的决定,禁止政府机构停止使用其AI模型。这是长达一个月的争端最新进展。五角大楼原本试图通过行政手段限制Anthropic的Claude AI在政府中的应用,但此举被视为文化战的一部分,反倒引发法律反弹,暴露了国防部在AI领域的政治干预风险。Anthropic作为AI安全先锋,此事件凸显了军用AI开发的伦理困境。(128字)

Anthropic 五角大楼 AI供应链
243
TC

Anthropic Claude付费用户激增,人气飙升

据TechCrunch报道,Anthropic的Claude AI在付费消费者中的受欢迎度正急速上升。尽管总用户数估计从1800万到3000万不等,公司未公布确切数据,但发言人透露,今年Claude付费订阅量已翻倍有余。这反映出Claude在AI聊天机器人市场的强劲竞争力,与OpenAI的ChatGPT展开激烈角逐。随着AI工具商业化加速,付费模式成为关键增长点,Anthropic的成功或预示行业新格局。

Anthropic Claude AI付费用户
361
WD

法官叫停特朗普政府对Anthropic供应链风险标签

美国法官临时叫停特朗普政府对AI公司Anthropic的‘供应链风险’指定,此举为Anthropic铺平道路,从下周起无需该标签继续开展业务。该决定源于Anthropic的法律挑战,凸显中美科技摩擦下AI企业的合规困境。事件或缓解Anthropic融资与合作压力,但供应链安全审查仍将持续,影响AI行业全球布局。(128字)

Anthropic 特朗普政府 供应链风险
287
TC

Anthropic胜诉:联邦法官勒令特朗普政府撤销AI限制

美国联邦法官近日裁定,特朗普政府必须撤销对AI公司Anthropic实施的最新限制,此举源于国防部相关争议。Anthropic作为注重AI安全的领先企业,此前因与国防部的合作项目引发监管纠纷。此次胜诉不仅保障了公司运营自由,还凸显AI行业与政府监管间的紧张关系。事件背景涉及AI军事应用的安全担忧,判决或将影响未来AI政策走向。(128字)

Anthropic 特朗普政府 AI监管
297
TC

Anthropic 放权 Claude Code,但安全缰绳不松

Anthropic 为其 Claude Code 推出全新自动模式(auto mode),允许 AI 在执行任务时减少人工审批环节。这一更新标志着 AI 工具向更高自主性迈进,同时通过内置安全机制平衡速度与风险。Claude Code 作为 Anthropic 的代码生成与协作平台,此次升级旨在提升开发效率,却不忘核心安全原则,引发业界对 AI 自主化与可控性的热议。未来,这一趋势或将重塑软件开发格局。(128字)

Anthropic Claude Code AI自主模式
277
WD

法官斥五角大楼‘瘫痪’Anthropic企图 令人深感不安

周二的法庭听证会上,一名地区法院法官对美国国防部将Claude AI开发者Anthropic列为供应链风险的动机提出质疑,认为此举涉嫌‘试图瘫痪’该公司。Anthropic作为AI前沿企业,其Claude模型在安全性和可靠性上备受赞誉,此次事件凸显了政府监管与创新企业的紧张关系,可能影响AI行业的供应链安全与国家安全考量。法官的表态引发业界广泛关注,担忧过度干预将阻碍美国AI竞争力。

Anthropic 五角大楼 供应链风险
264
ARS

Claude Code 新功能:AI接管电脑完成复杂任务

Anthropic 推出的 Claude Code 最新更新允许 AI 直接接管用户电脑执行任务,如编写代码、运行测试和调试程序。这项‘研究预览’功能极大提升了开发效率,但公司强调防护措施并非绝对,呼吁用户谨慎使用。Claude Code 通过浏览器扩展实现控制,支持多步任务自动化,标志着 AI 代理向真实世界交互迈进一大步。业内专家认为,这可能引发安全与隐私新讨论。

Claude Code Anthropic AI代理
756
TC

沃伦斥五角大楼封杀Anthropic为‘报复’行为

美国民主党参议员伊丽莎白·沃伦致信国防部长皮特·赫格塞斯,指责五角大楼将AI公司Anthropic列为‘供应链风险’并禁止其参与国防项目系‘报复’之举。她认为,国防部本可简单终止与Anthropic的合同,而非采取极端措施。此事件凸显AI行业与军方合作的紧张关系,以及供应链安全审查的争议。沃伦强调,此举可能阻碍美国AI创新,并质疑其政治动机。(128字)

伊丽莎白·沃伦 Anthropic 五角大楼
289
VB

Anthropic 推出 Cowork:无需编码的 Claude 桌面 AI 代理

Anthropic 于周一发布 Cowork,这是一款全新 AI 代理功能,将其备受好评的 Claude Code 工具扩展至非技术用户。公司内部人士透露,整个功能仅用一周半时间开发,主要依赖 Claude Code 自身。该发布标志着实用 AI 代理向主流用户普及的关键转折点,安索普不仅在对话式 AI 领域与 OpenAI 和 Google 竞争,还将挑战 Microsoft 等在生产力工具市场的霸主地位。这款桌面代理可直接操作用户文件,无需编程技能,极大降低了 AI 应用的门槛。(128字)

Anthropic Claude AI代理
393
VB

Claude Code月费高达200美元,Goose免费提供相同功能

AI编码革命来临,却面临高昂成本挑战。Anthropic推出的Claude Code是一款终端AI代理,能自主编写、调试和部署代码,深受开发者青睐,但月费20至200美元引发不满。如今,开源免费替代品Goose迅速崛起,由Block开发,提供相似功能,点燃开发者社区热情。这一事件凸显AI工具商业化与开源模式的激烈碰撞,预示编程未来将更民主化。(128字)

AI编码 Claude Code Goose
301
TC

亚马逊Trainium芯片实验室独家参观:征服Anthropic、OpenAI乃至苹果

亚马逊宣布500亿美元投资OpenAI后,AWS邀请作者独家参观Trainium芯片实验室。这一核心芯片已成为AI巨头青睐的对象,Anthropic、OpenAI甚至苹果均采用其进行模型训练。实验室展示了亚马逊在AI硬件领域的雄心,Trainium2芯片性能媲美Nvidia H100,却成本更低,推动云AI训练革命。参观揭示了亚马逊如何通过自研芯片挑战Nvidia霸主地位,并为OpenAI等提供强大算力支持。

亚马逊Trainium AI芯片 OpenAI投资
304
WD

Anthropic否认AI工具可在战争中被破坏

美国国防部指控AI公司Anthropic可能在战争中操纵其AI模型,但公司高管坚决否认这一可能性,称技术上无法实现。这一事件引发AI在军事应用中的安全与伦理争议。Anthropic强调其模型设计注重安全,无法远程干预已部署系统。随着AI军用化加速,此案凸显政府与科技企业间的信任博弈,以及AI自主性在高风险场景下的潜在隐患。(128字)

Anthropic AI安全 国防部
294
TC

法庭文件揭秘:五角大楼称与Anthropic谈判几近达成——特朗普宣布关系破裂一周后

Anthropic周五晚向加州联邦法院提交两份宣誓声明,反击五角大楼指其构成‘国家安全不可接受风险’的说法。公司辩称,政府论点基于技术误解及谈判中从未提出的指控。新文件显示,五角大楼曾在特朗普宣布关系终结一周前表示双方‘几近一致’。此案凸显AI企业与美政府在安全审查与合作上的紧张关系,或影响未来AI军用开发。(128字)

Anthropic 五角大楼 特朗普
323
WD

美司法部:Anthropic不配开发作战AI系统

美国司法部回应Anthropic的诉讼,指责该公司试图限制Claude AI模型在军方使用上,并称其不可信赖用于作战系统。政府强调,此举合法处罚Anthropic违反合同义务。此事件凸显AI企业与军方合作的紧张关系,Anthropic作为安全导向AI公司,曾公开承诺避免军事应用,但军方需求推动其卷入争议。未来,AI军民两用技术监管将成焦点。(128字)

Anthropic Claude AI 美国司法部
500
TC

美国防部:Anthropic“红线”使其成国家安全“不可接受风险”

美国国防部表示,对Anthropic可能在“作战行动”中“试图禁用其技术”的担忧,证实了将其列为供应链风险的决定。Anthropic作为AI安全先锋,以严格的‘红线’政策闻名,包括拒绝军事应用。这一事件凸显AI企业在国家安全与伦理底线间的紧张关系,可能影响未来军用AI采购与国际合作。(128字)

Anthropic 美国国防部 AI安全红线
439
MIT

五角大楼拟让AI公司用机密数据训练军用模型

据MIT Technology Review报道,五角大楼正讨论建立安全环境,让生成式AI公司使用机密数据训练军事专用模型。Anthropic的Claude等AI已用于机密场景,如分析伊朗目标。但允许直接训练将带来新机遇与风险。此举标志国防AI从推理向训练深度融合,或加速美军AI现代化,但需解决数据泄露与伦理挑战。(128字)

五角大楼 军事AI 机密数据训练
406
WD

“恐怖谷”:Anthropic起诉国防部、战争迷因与AI抢VC饭碗

在最新一期《恐怖谷》播客中,WIRED团队深入剖析Anthropic与美国国防部(DOD)的持久诉讼战。这场纠纷源于AI安全公司Anthropic对军方合同的争议,远未落幕。同时,节目探讨了AI生成的战争模因如何放大全球冲突,以及AI工具正悄然蚕食风险投资(VC)从业者的饭碗。从伦理困境到行业颠覆,本集揭示AI在国防、金融领域的双刃剑效应,引发对技术边界与监管的深刻反思。(128字)

Anthropic 国防部诉讼 战争模因
347
WD

特朗普政府不排除对Anthropic采取进一步行动

白宫正酝酿针对AI初创公司Anthropic的新行政令,此前对该公司的行动正面临法庭重大考验。特朗普政府持续加强对AI企业的监管力度,Anthropic作为Claude模型开发者,成为焦点。事件源于国家安全担忧,可能涉及数据隐私和技术出口限制。此举反映美政府对AI发展的双重态度:一方面推动创新,另一方面防范风险。业界担忧,此类行动或加剧中美科技摩擦,影响全球AI格局。(128字)

特朗普政府 Anthropic AI监管
330