最早的一批医疗大模型,已经走到了商业化时期
近日青岛举办的CHINC2024,可能是今年大模型“浓度”最高的医疗类展会。
纵观整个医疗领域,医信行业汇聚了海量的数据与丰富的提效需求,因而相较其他细分赛道更具规模化落地的潜力。
反映在展区之中,老牌的信息系统企业与新兴的大数据创业公司均在尽可能丰富地展示大模型的能力。部分将其融入了自有的信息化系统,拔高核心产品的技术壁垒;部分以此为基础开发新式解决方案,试图在医疗IT领域打开新的市场。
尽管各家企业大模型的内核不尽相同,但目光所向均是医院这个客户群体。明面的“秀肌肉”之下,围绕下一代医院智能展开的竞争早已暗潮汹涌。
医院的提质增效场景,
基本都被大模型重做了一次
医疗是一门严肃的学科,医生在诊疗过程中做出的任何决策都需要遵循“循证”二字,无法同设计、金融、制造等行业一样随心所欲地开发大模型应用。
去年9月,北京市卫健委牵头制定的《北京市互联网诊疗监管实施办法》便为大模型的合理使用范畴挂上了警戒线,严厉禁止AI在没有医生监督的前提下进行诊疗,或是自动生成处方。
因此,现阶段的医信领域大模型大多远离诊疗环节,它们聚焦于医疗数据的流动环节,或是消解医生高频的重复劳动,提质增效;或是挖掘数据之间的未知联系,助力科研。
传统医疗IT背景与大数据背景的企业偏向于前者,他们通常拥有自己的医院信息管理系统或是大数据分析系统,已在医院实现了一定规模的落地。这类企业的大模型应用往往围绕自有系统开发,其核心目的是强化自有系统的市场竞争力。
作为“提质增效”类大模型的典型,卫宁健康相信大模型衍生出的医疗应用将成为医务工作者离不开的贴身助手,不仅能够高效地调度和整理数据资源,甚至能引发自主思考,提升医务工作者的工作效率、医疗质量,并做到有效的辅助决策。
从这一思路出发,卫宁健康于2023年10月发布了医疗领域大模型WiNGPT、基于WiNGPT的医护智能助手WiNEX Copilot均满足“贴身助手”这一理念。它们服务于卫宁健康的核心产品“新一代信息系统WiNex”,将病案质控、手术病例自动填充等高频、机械化工作交由AI处理。据现场的卫宁健康展区人员所述,WiNEX Copilot现在覆盖的场景已经达到了100多个,已经做完了院内绝大多数可以利用大模型提效的场景。
福鑫科创、惠每医疗的大模型思路与卫宁健康有相似之处,即采用新的技术把过往需要提质增效的场景再做一次。
福鑫科创CEO吴笛告诉动脉网:“大语言模型与NLP做的场景虽然相似,都能在预问诊、电子病历、病案质控等场景进行赋能,但两者做出来的产品能力大不相同。
对于特定的应用场景,比如文本的分解,NLP也许能提供性能更高的运算、更精确的结果,但是NLP在处理开放场景下人类自然的语言交互时,就力不从心了。而大模型处理这类问题时,首先能“主动”提出正确的、相关的问题,而且通过一定技术如RAG,找到相应的知识,还能基于知识进行推理,生成后续的个性化建议,并且生成容易被人类接受的交互成果,如人机对话等。
此外,如果不考虑医院部署的算力成本,基于大模型开发的应用相对NLP会便宜一些。毕竟,大模型能够对公开的知识进行学习,不再依赖知识库,也无需人员去对知识本身进行定期维护,可以省下不少开发成本。”
再谈科研助力,拥有深厚AI基因的神州医疗与深睿医疗在这一细分赛道上发展较快。
神州医疗业务以AI和大数据为主,大模型支持临床数据深度治理与影像/病理数据深度治理。前者可针对海量临床数据自动信息提取、SNOMEDCT术语标化、高效建立知识体系、支持临床科研应用;后者可针对CT、MRI、病理等多模态影像处理,可自动识别全身多部位器官结构,支持超过150种CT、MRI结构及病灶自动识别、组学提取、量化分析;超过30种癌种自动识别、亚型分类、癌区分割等。
深睿医疗本是影像AI出身,其大模型相关应用与神州医疗有相似之处,但更为聚焦影像。据深睿医疗展台的工作人员介绍:深睿医疗已经获证的基于深度学习的AI产品能够对肺、心、脑等特定脏器中的特定病灶进行精准勾画,而大模型打破了这一限制。如今,他们的产品可对任意医学影像中任意病灶进行勾画标注,有效提升了医学科研效率,使医生能够快速执行一些非主流病种的研究。
除了主流的院内场景之外,也有不少企业将目光瞄准了院外。后者因为摆脱了医院的诸多限制,因而能够诞生更多天马行空的应用。
以讯飞医疗为例,这家企业依托自研的讯飞星火医疗大模型赋能全程患者管理平台,深度聚焦患者管理场景,链接患者个体化需求,帮助医疗机构高效管理患者,提高患者满意度,助力构建数智化全程患者管理体系。
在康复过程中,AI还能结合患者的画像智能回答患者常见问题;也可基于新的就诊记录、随访结果等信息及时更新患者画像,动态调整康复计划。
不过,发展过程中缺陷之处同样不容忽视。。一方面,由于政策界定了大模型的应用范畴,相关企业在选择院内应用场景时难免会重复,因而产品同质化较为严重。另一方面,现有的绝大多数应用场景都是在过去AI的基础上将其重做一遍,虽在效益上提升明显,但创新性略显不足。
依靠医疗IT系统,
不少大模型已开始商用
完成应用场景的拓展后,不少医疗大模型已经到了落地阶段。
目前主流的部署方式分为本地部署和云SaaS两种。其中,三级医院采用本地化部署的方式居多,这种模式下临床经验数据不用离开院区,大模型可封装后入院运行,因而隐私性更好、模型运行更安全。此外,医院还能在企业尚未提供模型更新时自行迭代,保证模型的成长性。
二级及其以下医院更为偏好SaaS模式。这些医院绝大多数不具备规模配置GPU的经济实力,只能通过云端方式使用相关服务。采用这种模式,他们能够保障大模型配置的灵活性,且能控制采购新技术潜藏的财务风险。
在销售方式上,已经实现广泛信息化系统落地的企业,他们的医疗大模型偏向于协同传统系统进行联合销售。相较于独立销售,该模式落地较快,但溢价较低。
后续介入医疗IT的初创企业们往往采用独立产品的形式,将其外挂于医院已有的信息化系统上。
对于病案质控这类应用而言,大模型技术的加持可以降低开发成本,因而实际售价会比基于NLP的质控系统更低。
对于面向科研型应用而言,大模型的研发目的是给予科研人员新的工具,因而售价会高于现有的科研系统。不过,当前新技术带来的溢价不算高,据小部分已经开始销售大模型的企业估算,过往价值100万元的系统,加上大模型后估计能卖120万-130万元。对比天价的研发费用,这个数字稍显不足。
芯片采购、算力配置……医疗大模型规模化落地还面临一些现实问题
有深度学习与NLP在前,大模型在开发时少了场景验证环节,在落地时少了用户认知培育环节,因而商业化的速度推得很快。但在现实之中,部分企业仍会遇见一些来自生产和配置方面的问题。
有企业向动脉网反映:由于美国政府限制了英伟达对于部分中国企业的GPU出口,因而原有的大模型研发项目不能按照计划执行。“芯片的缺失问题在短期内无法解决。有的时候我们不得不组织几个部门合用一块芯片,严重影响了研发进程。”
训练成本方面的问题同样不能忽视。现有的医疗大模型通常将模型的参数量控制在10b-100b区间内,在保证大模型在具备充分知识的前提下压缩训练成本。不过,虽说这些垂直模型的参数量只是通用模型的一个零头,但对于初创公司而言,每一次训练都是一次“大出血”的过程,因为部分企业不得不降低更新频次,可能会对用户体验产生一定影响。
最后是配置成本问题。现阶段大部分医院现有资源环境基本是以面向通用计算的CPU,很少有医院有面向图形处理和并行计算的GPU资源,缺乏大模型的部署环境,因而需要在购置应用的同时配备GPU运营大模型应用,并保证足够的存储和高速的网络连接。
这是一笔不小的成本。按照一个普遍科室一张RTX 4090进行估计,要供给一个院区的算力,大致需要医院投入百万元级的成本进行芯片的配置。在大模型价值尚未明晰的今天,不少医院会对这笔费用敬而远之。
因此,如果医疗大模型公司们想要实现新技术的规模落地,那么他们必须做出一个杀手级应用,让医院为了购置大模型心甘情愿地对部署环境进行升级。
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。