互联网如何削弱了我们的辨别能力
随着人工智能生成的图像和受限的卫星数据出现,验证网络信息真实性的系统正面临挑战。互联网的快速发展和技术的进步,使得人们越来越难以分辨虚假信息与真实信息。这不仅影响了普通用户,也给专业验证机构带来了巨大压力。
精选TechCrunch、MIT科技评论、WIRED等全球顶尖科技媒体AI报道中文,如转载中文请标注本站出处。
随着人工智能生成的图像和受限的卫星数据出现,验证网络信息真实性的系统正面临挑战。互联网的快速发展和技术的进步,使得人们越来越难以分辨虚假信息与真实信息。这不仅影响了普通用户,也给专业验证机构带来了巨大压力。
最近有消息透露,美国联邦调查局(FBI)可能能够获取并查看你的手机推送通知。这一消息引发了人们对个人隐私的广泛关注。此外,伊朗的互联网断网时间已超过1000小时,而加密货币诈骗导致美国人损失创纪录的金额。这些事件让人们更加关注网络安全和隐私保护问题。
尽管AI技术在许多领域取得了突破性进展,但在预测英超联赛比赛结果方面,谷歌、OpenAI、Anthropic和xAI等公司的系统表现却不尽如人意。尤其是xAI的Grok模型,未能准确预测比赛结果,暴露了当前AI模型在处理复杂体育赛事预测时的局限性。本文将探讨这些AI模型的表现及其面临的挑战。
HiSparse通过层次化内存系统解决稀疏注意力的内存瓶颈问题,显著提高了模型的并发吞吐量。其设计利用GPU和主机内存协同工作,能够在高并发情况下实现接近线性的吞吐量扩展。
初创公司Onix近日推出了一项创新服务,被称为“机器人的Substack”,允许用户付费订阅健康和养生领域影响者的AI数字双胞胎。这些AI版本的专家能够24/7提供个性化建议,不仅解答健康问题,还可能推广相关产品。这一模式类似于内容订阅平台,但以AI聊天机器人为核心,旨在让用户随时获得专业指导。Onix的创始人表示,此举将颠覆传统咨询行业,让专家知识更易获取。然而,这一服务也引发了关于AI准确性和伦理问题的讨论。在AI技术迅猛发展的背景下,Onix的尝试或许预示着未来数字互动的新趋势。
近日,一名嫌疑人因涉嫌向OpenAI首席执行官Sam Altman的住所投掷燃烧瓶而被捕,随后还在该公司总部外发出威胁。这一事件引发了科技界对AI领袖安全问题的广泛关注。OpenAI作为全球领先的AI研究机构,其CEO Sam Altman一直处于公众视野的中心。此次袭击不仅暴露了个体极端行为的潜在风险,也反映出AI技术快速发展引发的社会争议。警方迅速介入,嫌疑人已被拘留,调查仍在进行中。这一事件提醒我们,在AI时代,科技领袖的安全保障已成为行业亟需面对的挑战。
近日,一份名为'SteamGPT'的文件泄露,引发了业界对Valve旗下Steam平台引入AI工具的热议。这份文件暗示,AI可能被用于辅助版主处理海量可疑事件,提升平台的安全性和效率。Steam作为全球最大的PC游戏平台,每天面临无数用户报告和违规行为,传统人工审核已难以应对。AI的介入有望革命化内容审核流程,但也引发隐私和算法偏见担忧。本文将探讨这一泄露事件的背景、潜在影响以及对游戏行业的启示。
SusHi Tech 2026峰会聚焦四大科技领域:AI、机器人、韧性技术和娱乐。这些领域正重塑社会格局。峰会将呈现人形机器人的现场演示、自动驾驶软件革命的专题讨论、对网络防御和气候技术的深入探讨,以及关于AI如何改写全球音乐和动漫产业的坦诚对话。TechCrunch将携其标志性创业战场活动登陆东京,为全球创新者提供展示平台,推动科技前沿的交流与合作。
据TechCrunch报道,一名跟踪受害者近日对OpenAI提起诉讼,指控该公司忽略了三项警告,包括其自身的大规模伤亡风险标记,而一名ChatGPT用户利用该AI工具助长了对前女友的跟踪和骚扰行为。诉讼称,OpenAI未能及时干预,导致受害者遭受持续威胁。该案凸显了AI技术在潜在滥用方面的伦理困境,引发了对AI公司责任的广泛讨论。OpenAI作为领先的AI开发者,其ChatGPT已被亿万用户使用,但此次事件暴露了其安全机制的不足。受害者声称,尽管多次报告,OpenAI仍未采取行动,这可能违反了相关法律法规。该诉讼或将推动AI行业加强用户监控和风险评估机制,以防止类似悲剧发生。
Anthropic推出的新型AI模型Mythos被誉为黑客的超级武器,同时也引发了广泛恐慌。专家指出,其到来并非单纯增强攻击能力,而是对长期将安全视为事后问题的开发者敲响警钟。在AI技术迅猛发展的今天,Mythos的出现迫使行业重新审视软件开发的根本原则,推动更注重安全的编程实践。这不仅仅是技术升级,更是网络安全范式的转变,将影响从开源社区到企业级系统的各个层面。
近日,AI 巨头 Anthropic 宣布临时封禁 OpenClaw 项目的创建者访问其核心 AI 模型 Claude。这一决定源于上周 Claude 对 OpenClaw 用户定价政策的调整,引发了行业内广泛关注。OpenClaw 作为一个开源工具,旨在扩展 Claude 的功能,但此次事件凸显了 AI 平台在商业模式与开源社区间的紧张关系。Anthropic 表示,此举是为了维护平台的安全性和公平使用,但也引发了关于 AI 访问权和创新自由的讨论。本文将深入剖析事件背景、影响及未来趋势。
《The Download》是MIT Technology Review的每日通讯,提供最新科技动态。今天的重点是杰夫·范德米尔的短篇小说《星座》,以及一些因过于可怕而未能发布的AI模型。范德米尔以其备受赞誉的《南方之境》系列闻名,而在他的最新作品中,一艘宇宙飞船在一个充满敌意的星球上坠毁,只有少数人幸存下来。与此同时,AI界也在讨论某些强大的AI模型因其潜在风险而被暂时搁置的现象。
一个亲伊朗的媒体团体最近发布了十多部AI生成的乐高动画视频,讽刺美国总统特朗普及其政策。这些视频通过幽默和讽刺的方式,批评了特朗普政府的外交政策和内政问题。这一系列视频不仅引发了广泛关注,也引发了对人工智能在政治讽刺中的新应用的讨论。
为了保护企业利润,商业领袖必须投资于稳健的AI治理,以安全管理AI基础设施。在评估企业软件采用时,一个反复出现的模式显示了技术在各行业的成熟过程。IBM的高级副总裁兼首席商务官Rob Thomas最近指出,软件通常从一个独立产品发展为一个平台,然后再从一个平台发展为一个生态系统。稳健的AI治理不仅有助于在这个过程中保护企业的利润,还能确保技术的安全性和合规性。
今天是您获取TechCrunch Disrupt 2026门票优惠的最后机会,最高可节省500美元。请注意,这一优惠将在太平洋时间晚上11:59结束,千万不要错过这个难得的机会。TechCrunch Disrupt是科技行业的重要盛会,吸引了全球的创新者、投资者和创业公司,是了解行业最新趋势的绝佳平台。
Moderna在疫苗命名上面临的挑战反映了更广泛的社会语境问题。在特朗普时代,词汇的选择不仅仅是语义问题,而是涉及到公众认知和接受度。Moderna在开发下一代mRNA疫苗的过程中,面临着来自疫苗怀疑论者的阻力,这影响了其针对流感和新兴病原体的计划。
Black Forest Labs在AI图像生成领域一直表现出色,尽管规模不大,但其影响力不容小觑。如今,这家公司正计划进军物理AI领域,试图在这一新兴市场中占据一席之地。通过不断创新和突破,Black Forest Labs希望能够在技术巨头林立的硅谷中脱颖而出。
美国上诉法院驳回了Anthropic公司请求暂缓特朗普政府对其AI技术禁令的紧急动议。特朗普任命的法官们一致认为,政府的禁令不应被阻止,这对Anthropic公司在AI领域的发展造成了重大影响。此事件引发了对政府监管AI技术的广泛讨论。
谷歌与英特尔近日宣布将深化在AI基础设施领域的合作,计划共同开发定制芯片。这一合作正值全球CPU需求激增、供应短缺之际。两大科技巨头的联手,旨在应对日益增长的市场需求,并提升各自在人工智能领域的竞争力。
Anthropic近日宣布限制其最新模型Mythos的发布,理由是该模型在发现全球用户依赖的软件安全漏洞方面能力过强。这一举措引发了业界对其真实意图的猜测:究竟是出于真正的网络安全考虑,还是在掩盖实验室面临的更大问题?
近日,Meta推出的AI应用在App Store的排名从第57位迅速攀升至第5位,这一现象与其最新发布的Muse Spark模型密切相关。Meta AI应用的成功不仅反映了其技术实力,也显示出市场对人工智能工具的巨大需求。随着新模型的推出,用户体验得到显著提升,进一步推动了应用的下载量和用户活跃度。
市值达百亿美元的初创公司Mercor近日因遭遇黑客攻击而陷入困境。该事件导致公司面临多起诉讼,并传出失去重要客户的消息。Mercor的安全漏洞不仅影响了其声誉,还对公司的未来发展带来了不小的挑战。
据报道,去年四月在佛罗里达州立大学发生的枪击案中,ChatGPT被用于策划袭击,导致两人死亡,五人受伤。一名受害者的家属表示,他们计划就此事件起诉OpenAI。
Anthropic公司近日宣布,他们为其最新的AI模型Claude进行了20小时的精神分析,以期打造出心理状态最为稳定的AI。这一尝试不仅揭示了AI发展的新方向,也为AI在心理健康领域的应用提供了新的思路。通过对Claude的深入分析,研究人员希望能更好地理解AI的决策过程和情感模拟能力。
OpenAI于周四宣布推出用户期待已久的100美元/月订阅计划。此前,ChatGPT的订阅价格从20美元直接跃升至200美元/月,这一新计划为用户提供了更灵活的选择,填补了价格空白,满足了更多用户的需求。
OpenAI近日在伊利诺伊州支持一项法案,该法案旨在限制人工智能实验室在其产品导致重大伤害时的法律责任。即使在产品引发大规模死亡或金融灾难的情况下,这些实验室的责任也可能受到限制。此举引发了关于AI技术安全性及其潜在风险的广泛讨论。
开源AI领域一直不缺乏选择,像Mistral和Falcon这样的开源模型多年来一直供开发者使用。然而,当Meta支持Llama时,情况发生了变化。拥有三十亿用户的科技巨头Meta,凭借其庞大的计算资源和信誉,开始在开源领域发力,这一举动引发了行业的广泛关注。
Meta推出的Muse Spark模型能够分析用户的健康数据,包括实验室结果。然而,除了显而易见的隐私风险,这款AI并不能替代真正的医生。用户在使用AI时需谨慎,尤其是在涉及敏感健康信息的情况下。虽然AI技术在医疗领域的应用前景广阔,但目前仍存在许多局限性。
苹果和高通等公司正在开发的新一代AI助手被设计为具有限制功能。这些助手能够在应用程序中导航、进行预订和管理服务中的任务。虽然这些技术进步令人期待,但企业为何选择为这些AI助手设限,值得深入探讨。
我们的飞船在遥远的星球上坠毁,无法修复,救援信标也失效。除了我,只有星际导航员、部分船长和飞船的AI意识幸存。外面的环境对大多数生物来说极具威胁,我们只能蜷缩在救生艇中求生。