AI幻觉 (共8篇)

南非内政部白皮书惊现AI伪造文献:两名高官停职,独立律所将彻查2022年以来所有政策文件

2026年5月1日,南非内政部因一份已获内阁批准的移民与难民保护白皮书中出现AI生成的虚假参考文献,停职两名高级官员、处分一人,并委任两家独立律所审查2022年以来的所有政策文件。事件揭示了AI幻觉风险渗透至国家治理顶层文件的深层危机,引发关于公共部门AI伦理与问责机制的全球性辩论。

AI治理 政府监管 学术诚信
176

重磅!华尔街顶级律所AI“幻觉”大翻车!苏利文&克伦威尔法庭文件出错公开道歉

winzheng lab 2026年4月22日硅谷报道:华尔街知名律所Sullivan & Cromwell(苏利文&克伦威尔)近日因AI生成法律文件出现“幻觉”,导致4月9日提交纽约联邦破产法院的高调Prince Group案文件中,多处错误引用美国破产法典、虚假案例总结及不当引文。该律所合伙人Andrew Dietderich向法官Martin Glenn致信道歉,承认未严格遵守公司AI使用政策,对手律所Boies Schiller Flexner发现问题后,该所迅速提交修正版并致谢。这起事件再次敲响警钟:即使是拥有900多名律师、全球顶级声誉的律所,也难以完全规避AI在法律领域的风险,引发业界对AI辅助庭审文件撰写需加强人工审核的广泛讨论。

AI幻觉 华尔街律所 Sullivan & Cromwell
451
ARS

“认知投降”:AI用户放弃逻辑思维,研究揭露惊人真相

一项最新研究显示,大多数AI用户在面对AI的“错误”回答时,几乎不加批判地全盘接受,导致“认知投降”现象普遍存在。实验中,超过80%的参与者忽略了明显逻辑漏洞,继续相信AI输出。这种过度信任可能放大AI幻觉问题,引发决策失误。研究呼吁用户加强批判性思维,以平衡AI辅助与人类判断。Ars Technica报道,此现象在ChatGPT等工具普及后愈发突出,值得AI行业深思。(128字)

AI认知偏差 用户行为研究 人工智能信任
157
WD

问ChatGPT WIRED最佳产品推荐,它全答错了!

WIRED记者Reece Rogers测试了ChatGPT对杂志最佳电视、耳机和笔记本推荐的回答,结果令人震惊:AI给出的答案全部错误。实际WIRED评测师推荐的却是另一番光景。这篇文章揭示了AI在产品推荐领域的局限性,提醒用户在依赖生成式AI时需谨慎。结合行业背景,探讨AI‘幻觉’问题及其对消费者决策的影响。(128字)

ChatGPT AI幻觉 产品推荐
290
MIT

《下载》:老矿榨取更多金属,AI深陷真相危机

本期《下载》聚焦两大科技前沿:在美国密歇根州唯一活跃镍矿即将枯竭之际,微生物技术或能从老矿中高效提取清洁能源所需金属,推动电动车电池等领域的可持续发展。同时,AI模型的‘幻觉’问题日益严峻,生成虚假信息引发信任危机。本新闻通讯剖析这些创新与挑战,揭示科技如何应对资源短缺与信息真实性考验。(128字)