机械荟萃山庄

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 120|回复: 0

目前医疗AI的商业化场景完全不存在

[复制链接]

2万

主题

2万

帖子

18万

积分

超级版主

Rank: 8Rank: 8

积分
180042
发表于 2025-1-25 14:46:06 | 显示全部楼层 |阅读模式
11月20日,国家医保局发布消息称,针对医院放射检查项目“检查多、检查贵、检查重复”等问题,近日印发放射检查类价格项目立项指南(试行),统一整合规范现行放射检查项目,推动放射检查价格趋于合理。CT、磁共振、X光是最常见的检查项目,伴随着人工智能技术在医疗影像领域进入临床应用,如何对人工智能辅助诊断进行收费,国家医保局也首次予以明确:在已收取诊断相应项目检查费用后,不宜单就人工智能辅助诊断再向患者额外收费。国家医保局称,目前,人工智能技术在临床实践中一定程度上起到辅助诊断或提高效率的作用,但还无法替代医师诊断,尚无独立的医疗服务产出、辅助诊断质量效用难以确定。这几乎是从官方层面给当前的医疗AI类产品定性:可以一定程度上提高效率,医院可以使用,但是尚不足以独立作为收费项目存在。



医疗AI可以缩短医生的学习曲线,但使用者“一定要有专业的底子、要有一些(临床)经验,再结合AI”。
      面对尚不成熟的技术,专业人士还进一步担忧,医疗AI可能会犯下更严重的错误。
      大模型AI的“幻觉”现象是一个典型问题。大模型生成不真实或编造的信息,“胡说八道”,这样的“幻觉”究竟如何产生,连开发者都无法解答。一位数字医疗投资人说,由于无法弄清“幻觉”的原理、概率及其对医疗服务的影响,最有希望实现“泛用”的大模型医疗AI,目前还很难取得医学专家的信任。只有获得临床专家的认可,医疗AI才能实现商业价值。在此过程中,医疗AI必须面对医学伦理的严格审视,人们能否接受医疗AI犯错?谁又能为AI的错误负责?
      盖茨基金会高级项目官杨吝表示目前即便在全球医疗资源最为匮乏的地区,监管部门对医疗AI应用都有一条不可逾越的界限,只做评估,不做决策。“一方面,技术并没有成熟到可以代替人类医生;另一方面,本着对国民负责的态度,监管部门也一定会慎之又慎。”

在一些医学问答测试中,有大模型取得不输人类医生的成绩。但全球顶尖的研究者们也承认,从这一步到大模型能广泛应用于临床诊疗,其间还有很多工作要做。医疗AI从业者着重强调了审核的必要性。

在科洛华核心产品mskalign智慧脊柱诊室上,AI的表现能够达到人类专家95%以上的水平。在数据比较多且深耕一个专病的情况下, “这在技术上难度不大”。
      但她反复强调,能有如此水准的AI最终也依然离不开人类专家。“达到95%也不行,因为患者他不要95%,也不要99%,他要100%,临床意义上的100%就是专家,没有更好的了。”因此她提出,在医疗AI产品中,一定要设置多个 “审核点”,让医生亲自检查AI的工作成果,认可后AI再进行下一步运算。就是说,要保证无论系统里用到了多少AI, 每一次决策都有相应的负责专家。

2017年版《国家限制类技术目录》和《国家限制类技术临床应用管理规范》中,AI辅助诊断和AI辅助治疗被列为15个“限制临床应用”的医疗技术,不仅明确了AI的“辅助”定位,且要求医疗机构必须达到相应的硬件和人员条件才可使用。2022年新版中移除了AI辅助诊断,但AI辅助治疗仍然在列。其中提到,使用AI辅助治疗技术的前提是配备具有相应资质的医师、护士或技师。

只要人们对当下临床医学的道德理解不变,这道“红线”就不可能被突破。这是因为,医生的核心职能之一是承担责任, 短期内无法被AI代替。
      斯坦福大学计算机科学系和电气工程系客座教授吴恩达说,他审阅过无数医疗AI论文,“表现超越人类医生并不稀奇。但在某个场景中超越人类医生,并发表了论文,离真正的生产应用还很遥远”。

      为什么AI难以从实验室走入真实医疗场景?吴恩达认为,核心问题在于医疗AI适应不同环境的能力较低。一个在医院 A数据下训练出的AI系统,可能在医院B的环境中频繁出错。数据的格式或特征稍有不同,AI便难以适应。而人类医生却能轻松应对这样的变换。这种适应力的差距,与数据质量和训练方式密不可分,直接影响了泛用型AI的稳定性。
      尽管医疗行业已有大量数据积累,但一名国内资深计算机专家曾总结道,AI 赋能医学的“三座大山”依然存在,一是对数据的量级和多元性要求高,“至少需要达到10万级以上,还要来自不同的医疗机构、才能发现数据中隐藏的规律”。二是数据标注和清洗依赖医学专业人士的深度参与,“数据究竟如何转化为诊疗决策,必须依赖医学专业人士的判断”。三是数据格式不统一、整合难度大。 “以医学影像为例,CT、MRI、PET-CT格式不同,往往需要用不同的AI模型来处理。”
      而越是泛用的AI,对数据需求量越大,训练难度也越高。“如果想开发一个‘普世范式’ 的诊疗AI,为了满足医学所需的精确度,需要在训练环节做海量的验证工作,成本难以估量。”前述投资人说。
      如果数据基础较好,泛用型AI并非完全不可能。他认为,据其调研,美国已经广泛将大模型AI用于医院流程管理和商业医疗保险精算,但前提是美国医疗数据的统一性较高。  “在美国,医疗信息化龙头企业的市场份额集中,再考虑到AI领域微软和Open AI的统治地位,资源整合非常容易。但在中国,一家医院不同科室间的数据都可能打通不了,类似的产品短期内很难实现。  他说。

      在这种情况下,该投资人反而看好将中国一些二级、一级医院和社区医疗中心,作为“全科式”医疗AI的试点。“一些小医院反而有魄力将数字化系统推倒重来,全面拥抱AI。”(请问小医院有钱吗?你是你是打算给小医院免费配AI吗?)


      对于AI产业,医疗一方面意味着广阔的落地场景,另一方面也蕴藏着并将源源不断地创造海量高价值数据。这些数据对医疗AI发展至关重要。然而医疗卫生领域的数据基础建设进展缓慢, 也正制约着产业发展。
      早在2016年,国家卫健委能力建设和继续教育中心就开始着手建设国家级医疗公开数据库,但截至目前包括眼科标准数据库,乳腺癌标准数据库。 颈脑血管超声数据库等,对外发布的数据库却不足10个。
一篇2023年发表在《中国食品药品监管》上的研究指出,据问卷调查,国内85%的医疗机构尚未建立任何专病数据库,其中有计划进行此项工作的医疗机构占比约为67%。目前,国内医疗数据库建设的主要模式是由高等医学院校附属三甲医院牵头,在机构内部或联合若干合作单位来建设,如北京协和医院2016年建立的结肠癌专病数据库,录入近2000例手术及随访患者数据。一些地区也开始探索区域级数据库,代表案例有上海市政府直属的申康医院发展中心,其和上海10家市级医院保持长期合作,建立了重症肺炎、糖尿病等专病数据库。

      厉盛介绍,数据体系和基建不完善,这方面阻碍在国内环境中尤其明显。她提到,国内无论科研、工业还是临床客户,现行数据体系都比较分散,在数据的采集、集成等环节都会形成挑战。加之医疗所产生的各类数据相当之多,但有很高的保密性和安全性考量,包括对生物安全信息、患者隐私信息的保护,国家也有相应政策。
      医疗数据的安全监管趋严,进一步限制了数据共享。2018年,国家卫健委印发《国家健康医疗大数据标准、安全和服务管理办法(试行)》,规定各级各类医疗卫生机构和相关企事业单位是健康医疗大数据安全和应用管理的责任单位。“医疗数据牵涉数据安全问题,相关部门审核严格,”一位医院医生告诉笔者,“能明显感觉到,对医疗AI软件的审核力度大于硬件。”

      杨瑞荣表示,他在与临床医生较多的交流中观察到,对科技成果转化的落地,医生热情非常高,转化也慢慢进入加速的过程。不过,市场的准入监管方面还存在一定挑战。
企业利用临床数据也不无顾虑,  “在现有的法律框架下,企业利用医疗数据,牵涉多部委、多法规,如果完全遵照这些法规严格执行,基本无法彻底回避合规风险。

点评
现阶段什么经济状况还AI呢,现在的AI宣传就是一种宣传战,忽悠美国人他们,但是我认为根本不可能起到什么作用,因为美国人当真了,他真以为你真有能耐,美国人受刺激了,大力发展AI。中国拿什么应对?继续拿那些空壳的宣传战吗。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|小黑屋|手机版|Archiver|机械荟萃山庄 ( 辽ICP备16011317号-1 )

GMT+8, 2025-2-23 01:03 , Processed in 0.088024 second(s), 21 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表