龙空技术网

如何让医疗大模型好用又“理性”

全国党媒信息公共平台 67

前言:

现在兄弟们对“图像识别是什么专业的”可能比较讲究,同学们都需要知道一些“图像识别是什么专业的”的相关文章。那么小编同时在网上汇集了一些有关“图像识别是什么专业的””的相关内容,希望姐妹们能喜欢,同学们快快来了解一下吧!

来源:【中国城市报】

进入下半年以来,多家企业面向医疗领域发布大模型产品。

8月17日,全病程管理平台微脉技术有限公司发布国内首款健康管理领域大语言模型应用CareGPT;7月28日,中医信息化、智能化企业南京大经中医药信息技术有限公司发布“岐黄问道大模型”;7月13日,京东集团旗下京东健康发布“京医千询”……

大模型将如何赋能医疗高质量发展?相比其他领域,医疗大模型未来发展面临哪些痛点难点?近日,中国城市报记者进行了相关采访。

勾勒智慧医疗新轮廓医疗大模型大有可为

ChatGPT的出现,引领了生成式人工智能的新风尚。一时间,多家企业纷纷下场,发布自己的大数据模型。

据中国科学技术信息研究院《中国人工智能大模型地图研究报告》,截至5月28日,国内10亿级参数规模以上基础大模型,至少已经发布了79个,相关应用行业正从办公、生活、娱乐等方面,向医疗、工业、教育等领域快速拓展。

医疗领域需要什么样的大模型?微脉技术有限公司首席技术官郑海华在接受中国城市报记者采访时表示,医疗行业大模型应能综合多个医学领域的知识,提供跨学科的解决方案、智能化辅助决策、持续学习与进化、保护安全与隐私,也能提供个性化医疗健康服务,具有良好的人机交互体验。

医疗大模型的加速落地,将有力推动智慧医疗建设。北京大健康法商团队负责人邓勇在接受中国城市报记者采访时介绍,目前,大模型在智慧医疗领域的应用包括智能分析与辅助诊断软件及算法、智能医学诊断设备、远程医疗诊断等。

“如果扩展到药物生产方面,大模型应用还可能包括药物发现与临床前研究、对生产过程的设计和扩大化、对生产流程的控制和监测,以及对产品质量反馈的跟踪和分析等。”邓勇说。

邓勇认为,总体而言,大模型通过更好的性能和泛化能力,能够发挥其在自然语言处理、图像识别、语音识别等任务上的优势,为患者参与、影像诊断、精确医疗提供诸多助力。

郑海华以CareGPT为例介绍,通过对患者聊天内容的分析,CareGPT能够相对准确地掌握患者健康情况全貌,同时支持专业自评量表推送,帮助患者自主进行初步的身体状况筛查,实现分诊导诊的智能化辅助;在诊后环节,结合患者已授权获取的平台上的相关诊疗数据,从而实现更加高效的患者管理。

数据证明了大模型在医疗工作效率提升方面的成效。凭借CareGPT的支持,医生和个案管理师同一时期的患者管理数量可提升至500位,而在此之前,这一数据为50位至70位。

在提高工作效率的同时,医疗大模型也能保证诊疗准确率。今年6月,国内互联网医院医联对由大模型驱动的MedGPT和来自四川大学华西医院的10位主治及以上医师共同对100余名患者进行问诊。通过真实测试对比,发现MedGPT与三甲医院主治医生在诊疗上取得了96%的一致性。

安全难、共享难、质量差医疗大模型数据瓶颈何解

“优质和一定广度的业务数据是目前最难收集和整理的。”郑海华介绍,大模型本身具有自然语言处理能力,但并不能很好地解答一些垂类专业性问题,医疗、护理、病程管理需要很多贴合场景的问答数据来作为大模型的外脑和参谋。

中国城市报记者在采访中注意到,大模型在相关业务数据收集和整理过程中面临数据安全难落实、共享机制不健全、质量难保证等现实困境。

数据安全难。业内人士告诉记者,医疗领域涉及大量敏感的个人健康数据,如病历、诊断结果等。在应用大模型时,如何确保数据的隐私和安全性是一个重要的挑战。必须确保数据的合规性,采取适当的安全措施,以防止数据泄露和滥用。

数据共享难。“许多医疗机构对患者信息的保护意识较强,或不具备对应的脱敏能力,导致其机构内的数据无法流通;抑或流通后发现信息系统与其他机构的不统一,无法实现信息共享。”邓勇认为,深入推进医联体建设,利用区块链技术或是解决上述难题的可行路径。

数据质量差。郑海华介绍,医疗数据往往存在多样性和复杂性,包括各种结构化和非结构化数据,质量和标准化程度各不相同,可能包含噪音、缺失值和错误。确保数据的准确性和可靠性,对于大模型的训练和应用至关重要。因此,如何有效地收集、整理和清洗数据是一个挑战。

对于大模型数据难题,业内进行了探索。以数据隐私和安全为例,微脉基于大模型,进行私有化、独立化部署,大模型、知识库、用户数据可以留在私有服务器内,不与外界互通。模型训练时对用户的标识进行脱敏和匿名化处理,问询的历史记录不会泄露用户真实身份。

警惕“幻觉”与“偏见”医疗大模型勿成脱缰野马

所谓“幻觉”,指的是人工智能模型生成的内容,不是基于任何现实世界的数据,而是大模型自己想象的产物。例如,面对用户的提问,ChatG-PT等工具会杜撰出一些看上去像是权威正确的虚假信息。

郑海华分析,在可解释性和可靠性方面,由于大语言模型的推理过程是算法黑盒,推理的结果有时候会出现有误或有害,甚至是编造的内容。

如何解大模型“幻觉”之毒?郑海华介绍,为了约束大模型的输出,微脉首先是建立嵌入知识库,用户在问询的时候,优先会去向量知识库匹配相关的信息。

其次,Prompt(提示词)通过自然语言向大模型提出问题,问题的好坏将直接影响大模型的内容输出质量。微脉实验了不同Prompt模板对于激发大模型问答的效果,最终选择了一套合适的Prompt模板。

此外,大模型通过in-context-learning(上下文学习)获取回答问题的一些背景知识,然后基于背景知识进行推理。微脉调小了用来控制大模型输出结果随机性的温度参数,让大模型更倾向于按照in-context-learning保守回答,减少自行创造性。

除了“幻觉”以外,大模型存在的“偏见”“歧视”问题同样值得关注。

邓勇提到,大模型产品所收集的医疗数据一定程度上反映着不同群体的医疗卫生情况,而这可能会导致运用大模型过程中出现民族、地域、性别、年龄、职业方面的歧视情况。

2022年5月,来自美国麻省理工学院和哈佛大学的一个研究团队在医学杂志《柳叶刀数字健康》发表文章称,AI诊断系统似乎会根据种族对患者进行诊断和治疗,而非患者的个人身体状况。该研究成果引发关注。

有分析人士认为,上述研究之所以引发了极大的关注,一方面是由于其高精度识别率背后的原因仍是个“黑盒”,另一方面,研究者们不得不担忧,人工智能是否早已经将“种族偏见”融入了人类从未想到的方方面面。

“这种情况尤为值得担忧。在我国相应解决途径模糊的背景下,更需要从开发层面就予以重视。”邓勇认为,建设好大模型相关标准,对保证训练数据的合法性准确性、避免生成内容的有害性、避免大模型被滥用、避免用户信息泄露及侵权具有重要意义。

就医疗大模型涉及的相关标准而言,邓勇认为,至少应当涵盖以下方面:预训练和优化训练阶段数据的选取范围及标准、训练数据中的个人信息保护、部署环节的安全控制以及用于临床的试验要求等等。

相关标准在不断完善。从国家层面看,今年8月,国家互联网信息办公室等七部门联合发布了《生成式人工智能服务管理暂行办法》,这是我国首个针对生成式人工智能产业的规范性政策。

从地方层面看,2022年9月,《深圳经济特区人工智能产业促进条例》公布,其不但首次从法律层面明确人工智能及人工智能产业的界定,还创新性地规定市政府应当设立人工智能伦理委员会。

今年7月,中国信息通信研究院、中国信通院上海工创中心、科大讯飞等10家单位联合发起医疗健康行业大模型标准研究,力求共同创建一套符合医疗健康行业需求的标准体系。

中国城市报记者了解到,未来,以中国信通院为首的机构将加速开展前沿研究,研制符合医疗健康行业应用特色的AI大模型三层技术标准框架(基础设施层、模型层、应用层),从数据处理、算法模型、服务管理等三个层面,依托实验室开展医疗AI大模型合规性、安全性、可控性、可靠性评估,促进行业在发展中规范、在规范中发展。

■中国城市报记者 邢灿

本文来自【中国城市报】,仅代表作者观点。全国党媒信息公共平台提供信息发布传播服务。

ID:jrtt

标签: #图像识别是什么专业的