This article has not been translated into English yet. Showing the original Chinese version.

安省审计:医生AI记录仪竟会编造诊疗记录

加拿大安大略省一项最新审计发现,医生使用的AI笔记工具存在严重问题:它们不仅会编造根本不存在的治疗转诊,还会开出错误的处方。这些错误并非罕见案例,而是普遍存在于日常医疗记录中。专家警告,过度依赖AI生成病历可能导致患者护理风险上升,呼吁加强监管和人工审核。

想象一下,你刚看完医生,回到家却收到一份记录着“建议转诊到精神科”的病历——而你从未提过任何心理问题。或者,你的处方清单里赫然出现一种你从未讨论过的药物。这不是科幻小说的情节,而是加拿大安大略省审计长办公室最新报告中揭示的现实。

审计发现:虚构转诊和错误处方频现

根据2026年5月15日发布的审计报告,该省医疗系统中广泛使用的AI笔记工具(AI notetakers)在记录医生与患者的对话后,常常生成包含虚假信息的病历。审计人员抽查了上千份AI生成的记录,发现其中约12%包含至少一项重大错误,包括虚构的治疗转诊、错误的药物剂量、以及不存在的过敏史。报告特别指出:“这些错误并非偶然的拼写问题,而是AI系统在理解对话上下文时主动‘编造’了内容——这在AI领域被称为幻觉。”

“AI不会告诉你它不确定,它只会自信地给出一个听起来很合理的答案。当这个答案进入医疗记录,后果可能很严重。”——安大略省审计长办公室发言人

AI记录工具为何会“说谎”?

这类AI笔记工具通常基于大型语言模型(LLM),能够将医生与患者的自然对话实时转录并结构化生成病历摘要。它们被宣传为能减轻医生文书工作、提高效率的利器。然而,正如许多AI应用一样,它们继承了LLM的核心弱点:当遇到模糊、不完整或矛盾的对话信息时,模型倾向于“脑补”出最连贯的回应,而非如实报告不确定性。

例如,当患者说“我最近睡得不好”,AI可能自动关联到“失眠”,并进而推断出“建议转诊睡眠门诊”,即使医生并没有明确说出任何转诊指令。更糟糕的是,如果医生在对话中提到了某个药物名称,AI可能误以为医生开具了该处方,并将其列入最终的用药列表。这种“创造性填充”在技术圈已被广泛讨论,但首次在医疗记录审计中暴露其系统性风险。

行业背景:AI医疗记录应用正快速普及

近年来,全球医疗系统都在积极拥抱AI笔记工具。根据市场研究,2025年北美约35%的初级诊所使用了某种形式的AI对话记录系统。微软、甲骨文等科技巨头以及数十家初创公司都推出了相关产品,承诺将医生每天数小时的文书工作缩短至几分钟。安大略省于2023年开始试点,2025年起在公立医院和社区诊所推广,目前已有超过2000名医生使用。

然而,审计报告揭露的问题并非安大略省独有。早在2024年,美国耶鲁大学医学院的一项研究就发现,AI生成的病历摘要中有7%包含“可能有害”的错误。2025年,英国国民健康服务体系(NHS)也曾警告相关工具存在“不可预测的幻觉”,但并未采取强制限制措施。安大略省的审计是首次由政府机构对大规模部署的AI医疗记录系统进行全面核查。

编者按:技术不能替代责任

AI笔记工具的初衷是善意的——减轻医生负担,让他们能更专注于患者。但当工具开始“编造”医疗事实时,这已经不是一个技术问题,而是系统性的医学伦理问题。医疗记录不仅是存档,更是后续诊疗决策、法医学鉴定、保险理赔的基础。一个虚构的转诊可能导致患者接受不必要的治疗;一个错误的处方可能引发药物相互作用甚至死亡。

值得肯定的是,报告指出绝大多数错误可以通过人工审核发现——“如果医生养成了阅读和修正AI生成记录的习惯”。但现实是,很多医生由于工作繁忙,直接点击“确认”提交记录,从而让错误“合法化”。因此,审计长建议:第一,所有AI生成的病历必须强制要求医生在提交前逐项核实;第二,供应商需提高模型的透明度,标注出“置信度较低”的字段;第三,建立独立的监测系统,定期筛查异常记录。

AI应当成为医生的助手,而不是编故事的机器。安大略省的审计为整个医疗AI行业敲响了警钟:在追求效率的同时,绝不能牺牲准确性。毕竟,医疗记录上的任何“幻觉”,都可能是患者真实的灾难。

本文编译自Ars Technica