张文宏谈AI医疗:不能把生命健康直接交给AI来处理
张文宏谈AI医疗:不能把生命健康直接交给AI来处理 今年1月,张文宏关于“拒绝把AI引入病历系统”的言论曾引发热议。今天在全国两会现场,他对此回应称,AI作为重要的辅助工具,确实能让医疗更有效率,“但很关键的一点是,不能离开人的操作,不能把生命健康直接交给AI来处理”。原标题:《张文宏谈AI医疗:不能把生命健康直接交给AI来处理》栏目主编:张骏 本...
张文宏谈AI医疗:不能把生命健康直接交给AI来处理|医疗|张文宏|...
今年1月,张文宏关于“拒绝把AI引入病历系统”的言论曾引发热议。今天在全国两会现场,他对此回应称,AI作为重要的辅助工具,确实能让医疗更有效率,“但很关键的一点是,不能离开人的操作,不能把生命健康直接交给AI来处理”。 原标题:《张文宏谈AI医疗:不能把生命健康直接交给AI来处理》...
AI问诊开“三倍药”?生命健康不能交由算法冒险丨新闻两点论
近日,一则“AI问诊”的新闻令人心惊:浙江一男子因口周疱疹,上网用AI搜索用药建议后,自行购买并服用了超标准剂量三倍的药物,导致急性肾损伤,血肌酐值飙升近十倍。幸而送医及时,经治疗已无大碍。此事虽是个例,却清晰地划出了一道红线:在健康与医疗领域,人工智能可以是“助手”,想让它当“大夫”却需要慎...
张文宏两会谈AI医疗:辅助工具虽好,生命健康仍需人掌控_技术_医生...
" 这位呼吸科专家以临床实践为例说明,当前AI技术在影像识别、病理分析等领域已达到较高准确率,能有效减轻医务人员的工作负荷。但他同时强调,医疗行为具有高度不确定性,患者个体差异、突发状况处理等环节仍需依赖医生的经验判断。"将生命健康完全托付给算法系统,既不符合医学伦理,也存在现实风险。" 在谈到技术发展边界时...
王江平:AI能托付起我们的生命健康吗
王江平:最大风险当然是医疗AI可能导致的患者权益损害。在我看来,医疗AI有三大特殊性,每一项都和患者权益息息相关。 一是数据敏感性。患者的生理指标、诊疗记录、病史等都属于敏感信息,直接关联个人生命权和隐私权。《中华人民共和国个人信息保护法》将医疗数据列为敏感...
对自杀自残行为人工接管,为AI装上“紧急制动”功能|新京报专栏
从长期治理逻辑而言,必要的人工接管是对AI不能承担终极伦理责任的明确承认,是人类对技术权力的主动限制。这一认知与共识的确立意义深远,重要度要超过技术细节。而在具体执行中,也应当遵循触发机制的最低必要原则,防止人工接管责任的过度扩张。这就要坚守程序正义,让结果可申诉、信息可查询、第三方监督可介入。人工...
关于Ai在我们生命健康上的观察与思考
以后这种AI检测生命体征的仪器如果能做得更小一点,像手表、戒指一样随身戴着,甚至不需要再拨紧急联系人——检测到生命体征异常,就能提前提醒我,或者直接拨打120求助。 听得出来,我是非常惜命的一个人。但凡一个新技术出来,我的第一反应都是:它会伤害我们的身体,还是能提升我们的生命健康?我觉得AI在当下,或者说...
AI不是万能助手!打工人必看:这9种职场操作,千万别交给人工智能!
1. 处理机密或敏感数据 永远不要把公司的机密信息、敏感数据直接交给 AI 处理或分析。很多人觉得 AI 是个万能的助手,就把手头所有资料,包括客户名单、财务报表、未公开的产品设计等,一股脑地丢给 AI,让它帮忙整理、分析或撰写报告。每当你向 AI 输入任何信息时,你都应该问问自己:如果这些信息被发布到公司的...
AI不能替代医生直接进行诊疗决策
“对于人工智能的核心约束,是它不能替代医生直接进行诊疗决策。”弓孟春解释,通俗地说,AI是提建议的,医生是做决策的,听不听由医生决定。人工智能软件目前能提供用药禁忌、剂量换算、注意事项提醒等辅助功能。 “使用人工智能自动处方的情况,一般不会发生在实体医院内。”弓孟春解释,实体医院的诊疗流程有着严格的质控...
“AI伙伴”应在规范中成长
人工智能不是人,但一旦介入人的情感、决策、生命安全,就必须承担相应责任。禁止散布谣言、禁止诱导自杀、禁止情感操控、禁止套取隐私……《办法》划定了“AI伙伴”一系列不可为的底线,构建起全链条风险防控体系。算法设计要可审计,内容输出要可追溯,极端场景要有人兜底,将软伦理转化为硬杠杠,把事后道歉前置为事前...
AI虽好,不能滥用
此前,北京也明令禁用AI自动生成处方,并成立了互联网诊疗监管平台。AI在医疗领域已有很多应用场景,也的确给广大患者和医疗工作者带来了方便,但在处方开具这一关键环节,医生的主导地位不可动摇。不把处方权交给AI,也是提醒各地:AI与医疗结合,必须以患者安全和健康为最终归宿,让技术更好地服务生命健康。(作者系教育工作者)
把生命交给机器人 AI诊疗已开始倒数读秒了吗?
AI医师助理接棒人体健康“守护者”的推进过程,似乎已经开始读秒,在深度学习、迁移学习等不断涌现的新人工智能技术中,AI似乎很快就能尽数掌握医生的技术,并可能更精深。顶级会计师事务所普华永道的相关报告认为,“人工智能最初可能被作为人类医生的辅助措施来采纳,持续性的互相配合将提高诊疗系统的准确性,未来人类将有足...
顶级专家谈医疗AI价值:如果AI创造了100块钱价值,请把98块还给病人
这不仅仅是算法的命题,更是文明的命题。不可否认的是,医疗AGI的大幕已经拉开。在这个爆发前夜,理解对齐、守护数据、划定边界,才是我们通往健康未来的通行证。从南佛罗里达大学的“本草”中医大模型,到蚂蚁集团的“安诊儿”与“阿福”,中国的AI开发者正在进行一场关于生命健康的集体突围。正如许东教授所言,在...
推动AI医疗健康规范发展
在医疗场景中,无论是智能问诊系统的健康咨询、心理疏导AI的情绪干预,还是康复陪伴机器人的辅助护理,都必须以促进患者健康为前提,不得偏离医疗服务的核心目标。通过交互界面持续标注“AI服务”、明确告知服务功能边界等要求,既能保障患者知情权,避免其将AI等同于专业医疗主体,又能确保AI始终作为提升医疗服务效率、...
安全至上:禁用AI处方 对生命负责
从目前来看,禁用AI自动生成处方,是利大于弊的。AI现在还不成熟,在涉及健康和生命这样生死攸关的问题上,需要暂时的禁止或更长时间的禁止。这个很好理解,如果AI介入医疗领域,帮人看病,自动生成处方,甚至能自动做手术,一旦产生意外,谁来负责?患者应该向开发AI的公司索赔,还是向购买使用AI的医院索赔?
专家:当前诊断应以医生为准,AI不承担法律责任
蚂蚁集团推出了AI医生助手产品。2024年12月15日,其发布“蚂蚁阿福”,定位为“AI健康朋友”。华为则组建医疗卫生军团,聚焦AI辅助诊断领域,目前已与62家头部医院展开深度合作,包括联合瑞金医院共建RuiPath病理大模型,与中山眼科中心发布眼科大模型等。京东方面,则将旗下AI医疗小程序“康康”设为京东健康App首页入口...
AI医疗拐点已至,医生当CEO雇5名数字员工撸出病历程序!谁在焦虑?
对此,有医生提出了折中的观点。“AI无法替医生承担责任,更不会替代医生,无论是从理论、情感、法律或是技术的角度都不会,所以把它当作科研和临床的工具和助手就行了。”复旦大学附属中山医院心内科潘文志教授对第一财经记者表示。 潘文志认为,AI在医疗场景下会存在一些“刚需”场景,例如可以帮助医生高效地完成患者的初...
AI智能体能否帮助决定患者生死? 十多年来,研究人员一直在思考人工智能...
Moin呼吁对AI智能体进行更多的公众意识和辩论,指出"人们真的讨厌"使用算法来确定谁获得护理。 "我不认为这对患者、临床医生或社会都有好处,"Moin说。 她特别担心"无法为自己说话且没有明确亲人的患者"将是"最容易遭受AI智能体做出错误决定伤害的人"。太多这样的错误可能会进一步削弱对健康系统的信任,Moin说。
2025年GDC|AI大模型赋能生命健康行业的实践与挑战
因此,追求更高质量的数据成为AI产品开发者共同关注的主题。燕阳认为,很多人对生命健康领域数据的认识存在误区,导致产品开发陷入瓶颈,乃至产生风险。“有人觉得有海量数据就能训练好模型,数据越多模型性能越好,这是不对的。”他说。医院数据往往是非标准化的,比如医嘱、不同设备产生的检测结果等等,难以直接用来...
严禁AI自动开方审方,多地陆续“亮红灯”
2025年12月,北京市卫生健康委印发的《北京市支持医疗健康领域人工智能应用发展行动计划(2026—2027年)》明确提出,医疗机构应建立健全人工智能医疗应用的伦理审查制度,禁止将人工智能完全替代医务人员的专业判断。这一表述为AI在医疗领域的应用划定了清晰的红线:AI可以是...