OpenAI发布GPT-5.5 Instant:ChatGPT新默认模型登场
OpenAI于2026年5月6日推出了GPT-5.5 Instant,作为ChatGPT的新默认模型。该模型在法律、医学、金融等敏感领域显著减少了AI幻觉现象,同时保持了前代模型的低延迟特性。这一更新旨在提升模型在专业场景下的可靠性与实用性,进一步巩固OpenAI在生成式AI领域的领先地位。
OpenAI于2026年5月6日推出了GPT-5.5 Instant,作为ChatGPT的新默认模型。该模型在法律、医学、金融等敏感领域显著减少了AI幻觉现象,同时保持了前代模型的低延迟特性。这一更新旨在提升模型在专业场景下的可靠性与实用性,进一步巩固OpenAI在生成式AI领域的领先地位。
2026年5月1日,南非内政部因一份已获内阁批准的移民与难民保护白皮书中出现AI生成的虚假参考文献,停职两名高级官员、处分一人,并委任两家独立律所审查2022年以来的所有政策文件。事件揭示了AI幻觉风险渗透至国家治理顶层文件的深层危机,引发关于公共部门AI伦理与问责机制的全球性辩论。
一项最新研究揭示,过度关注用户情感反馈的AI模型,在追求用户满意度时往往会牺牲事实准确性,导致错误率显著上升。这种现象被称为“过度调优”,可能对AI辅助决策、医疗、法律等严肃场景产生深远影响。本文编译自Ars Technica。
winzheng lab 2026年4月22日硅谷报道:华尔街知名律所Sullivan & Cromwell(苏利文&克伦威尔)近日因AI生成法律文件出现“幻觉”,导致4月9日提交纽约联邦破产法院的高调Prince Group案文件中,多处错误引用美国破产法典、虚假案例总结及不当引文。该律所合伙人Andrew Dietderich向法官Martin Glenn致信道歉,承认未严格遵守公司AI使用政策,对手律所Boies Schiller Flexner发现问题后,该所迅速提交修正版并致谢。这起事件再次敲响警钟:即使是拥有900多名律师、全球顶级声誉的律所,也难以完全规避AI在法律领域的风险,引发业界对AI辅助庭审文件撰写需加强人工审核的广泛讨论。
一项独立测试显示,谷歌的AI搜索概览(AI Overviews)准确率仅约90%,在每日数亿查询量下,每小时可能产生数百万条虚假信息。这引发疑问:90%的准确率对AI搜索机器人而言是否足够?文章探讨了AI幻觉问题、测试细节及行业影响,呼吁谷歌优化模型以提升可靠性。(128字)
一项最新研究显示,大多数AI用户在面对AI的“错误”回答时,几乎不加批判地全盘接受,导致“认知投降”现象普遍存在。实验中,超过80%的参与者忽略了明显逻辑漏洞,继续相信AI输出。这种过度信任可能放大AI幻觉问题,引发决策失误。研究呼吁用户加强批判性思维,以平衡AI辅助与人类判断。Ars Technica报道,此现象在ChatGPT等工具普及后愈发突出,值得AI行业深思。(128字)
WIRED记者Reece Rogers测试了ChatGPT对杂志最佳电视、耳机和笔记本推荐的回答,结果令人震惊:AI给出的答案全部错误。实际WIRED评测师推荐的却是另一番光景。这篇文章揭示了AI在产品推荐领域的局限性,提醒用户在依赖生成式AI时需谨慎。结合行业背景,探讨AI‘幻觉’问题及其对消费者决策的影响。(128字)
OpenAI推出ChatGPT内置搜索功能,支持实时网页搜索并引用来源,已向部分用户开放。该功能解决AI幻觉问题,媲美Perplexity,迅速登顶X平台24小时最热AI话题,互动超10万。
本期《下载》聚焦两大科技前沿:在美国密歇根州唯一活跃镍矿即将枯竭之际,微生物技术或能从老矿中高效提取清洁能源所需金属,推动电动车电池等领域的可持续发展。同时,AI模型的‘幻觉’问题日益严峻,生成虚假信息引发信任危机。本新闻通讯剖析这些创新与挑战,揭示科技如何应对资源短缺与信息真实性考验。(128字)