本文作者:访客

张文宏医生对AI接入病历系统的担忧,医生视角下的隐患探讨

访客 2026-01-14 16:21:59 22574 抢沙发
张文宏医生拒绝将AI接入病历系统,引发关注,其担忧的焦点在于AI技术的可靠性和安全性问题,担心AI误诊导致医疗失误,危及患者安全,他也关注AI技术可能带来的医疗伦理问题,如隐私泄露等,他认为,医疗领域需谨慎对待新技术应用,确保其在医疗实践中的准确性和有效性,这一观点反映了医疗行业在科技应用中的审慎态度,张文宏医生拒绝AI接入病历系统,担忧AI技术的可靠性、安全性及医疗伦理问题,呼吁谨慎对待新技术在医疗领域的应用。

文 | 我们可能想错了1 | 张文宏了什

1月10日,在香港高山书院十周年论坛上,张文宏医生谈到AI进入医疗系统时,先划了一条清晰边界:医生个人可以使用AI辅助,但不允许把AI直接接入病历系统。张文宏医生的原话是:你可以自己在那里用,但是不允许在我的病历系统里面用AI。他随即解释了自己的用法:会让AI先把病例看一遍,但最终判断要回到人的专业经验上,因为资深医生能很快识别AI的错误与盲点。

这段话值得认真听,不是因为它“保守”,而是因为它点出了一个更普遍的变量:AI带来的最大变化往往不是效率,而是训练路径。把争议点从效率拉回到三个更硬的变量:训练路径、责任链条、错误被发现的机制。

张文宏医生对AI接入病历系统的担忧,医生视角下的隐患探讨

张文宏医生说了什么

2|核心担训练被改

张文宏医生担心的核心是AI过早进入一线训练路径后,会不会改写医生的成长方式。资深医生把AI当预审工具,前提是他具备纠错能力:能看出哪里不对,能讲清为什么不对,也能在关键时刻把结论重新拉回证据链。新人则相反:如果在基本功尚未完成时就把AI当作默认答案生成器,短期当然更快,长期却可能出现一种更隐蔽的退化:做得出来,但说不清原因;对得上答案,但不理解边界;一旦遇到“看起来像对”的错误,就缺乏识别能力。

这其实是一种非常典型的技术副作用:工具越强,人越容易跳过艰难但必要的内化过程。训练路径一旦被改写,最终会回到系统层面的三个问题:边界怎么划、责任怎么落、错误如何被发现与追溯。张文宏医生把话说得很克制,但指向的是同一件事:AI改变的往往不是某一次决策的效率,而是一代人的能力形成方式。

3|社会议题界、与纠错

把张文宏医生的发言放到更大的社会议题里,它直指AI边界与治理的核心:社会如何接受AI、如何防止过度使用、如何把风险管成可控。这里的关键不是道德口号,而是三件很工程化的事。

第一件事是边界。哪些环节必须由人拍板,哪些环节AI只能做候选、提示、预审。医疗病历系统不仅是记录工具,更是责任链条的一部分:谁下结论、谁签字、谁担责,必须清晰可追溯。AI一旦被写进“系统默认流程”,它就不再只是工具,而开始参与责任的分配方式。

第二件事是纠错。高风险行业里,最危险的往往不是离谱错误,而是“看起来像对”的错误:结构完整、语气笃定、路径似乎合理。缺少复核、抽检、回放与反例库,错误会以很合理的姿态潜入流程,最后变成组织的系统性盲区。真正可靠的安全,不是靠资深个人兜底,而是靠系统能持续发现错误、定位错误、复盘错误。

第三件事是责任。AI成为默认环节后,责任最容易被稀释:出错时更容易归因给“系统建议”或“模型偏差”,而不是回到最朴素的问题——这是谁的判断,谁应该为它负责。张文宏医生把AI挡在病历系统之外,本质上是在守住责任的可追溯性:结论回到人,责任也回到人。

4|三:守、治理、能力

围绕AI如何被负责任地部署,行业里常见三种力量。它们并不互斥,更像三种关注重点:有人盯入口,有人盯闭环,有人盯速度。

第一种是守门:先守住高风险入口,再谈规模化。以医疗为例,世界卫生组织在医疗AI治理相关文件中反复强调风险评估、人类监督、透明与责任等原则,核心逻辑就是高风险场景必须把安全与治理前置,而不是先接入、后补规则。

第二种是治理:把风险变成流程和指标。美国NIST的AI风险管理框架(AIRMF1.0)提供了一套更可落地的结构,把可信AI拆成治理、映射、度量、管理等环节,本质是在告诉组织:AI不是装上去就算完,必须进入可审计、可持续的风控闭环。

第三种是能力:AI会重塑竞争格局,关键是尽快用起来。企业界最典型的表达是“要发展,也要管住”。例如路透社报道中,马斯克提出需要某种AI“裁判/监管者”的观点,一方面承认AI的竞争性与不可逆,另一方面强调必须建立规则来避免失控与滥用。

这三种立场的分歧,看起来在争快与慢,本质在争系统默认值:默认AI正确,还是默认AI只是候选。

5|可控的前提:把风险写进认值

AI能否被社会接受,最终取决于默认值怎么写进系统。如果默认AI正确,人就更容易变成确认者,训练会萎缩;如果默认AI是候选,人就必须推理、复核、解释,训练反而会增强。张文宏医生的边界,实际上是在推动后者:AI可以辅助,但不能替代训练,更不能替代责任。要把这件事落地,行业层面至少要做到几件硬动作:

一是角色清晰。AI在流程里到底做检索整理、做候选生成、做提示预警,还是直接给结论。越靠近结论,越需要更强验证与更严格的人类监督(医疗场景尤其如此)。

二是可发现、可回放。必须有复核、抽检、回放、反例库、升级机制,确保错误能被系统性发现,而不是靠个别资深人员“凭经验兜底”。

三是责任闭环。谁启用、谁审批上线、谁签字、谁对输出负责,必须可追溯、可问责;否则“伦理”会退化成口号。

四是监测的不只是模型,也包括人的能力变化。这个点常被忽略,但决定风险上限:复核率、纠错率、独立完成率、异常处置时长等,应该被当成和模型指标同等重要的治理指标。

张文宏医生对AI接入病历系统的担忧,医生视角下的隐患探讨

可控前提:把风险写进默认值

6学习怎么变:把AI用成训练装置

张文宏医生提到的“先看一遍”,其实提供了一种可迁移的方法:AI是第一读者,不是最终裁判。这背后有一个更一般性的规律,AI会显著降低生成答案的成本,但不会自动生成判断力。判断力来自训练,而训练最怕的就是被跳过

一项关于知识工作者的研究给了更硬的证据线索:使用生成式AI时,个体对AI越有信心,越可能减少批判性思考;而对自身能力更自信的人,反而更倾向于做批判性评估与整合。它与张文宏医生的担忧在结构上是同一个问题:答案更快出现,不等于判断链更扎实。

把AI用成训练装置,一个可执行的路径是:先自己完成推理链,再让AI挑错;再让AI给出相互冲突的两套路径,由你来裁决并解释;最后用AI做交叉质询,追问依据、边界条件和反例,让自己始终站在“解释与审查”的位置上。

7|三个问题来辩

张文宏医生的提醒,表面在谈病历系统,实质在问一个更大的社会问题:当工具越来越强,我们到底要把什么留给人,留给职业共同体,留给下一代的训练体系。

也欢迎你把答案写在评论区:在你所在行业里,AI最该进入哪一段流程,最不该进入哪一段流程?哪些能力一旦丢了,很难补回来?如果给新人立一条规矩,哪些任务必须先不用AI做一遍?

文章版权及转载声明

作者:访客本文地址:https://www.nbdnews.com/post/9631.html发布于 2026-01-14 16:21:59
文章转载或复制请以超链接形式并注明出处NBD财经网

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

验证码

评论列表 (暂无评论,22574人围观)参与讨论

还没有评论,来说两句吧...