会会药咖
当前位置: 首页 > 会有资讯 > 专栏文章
这8条原则教AI救人||人工智能做医疗,未来可期
来源: 发布时间:2023-04-06

这8条原则教AI救人||人工智能做医疗,未来可期

会会药咖 会会药咖 2023-04-04 08:00 发表于四川

图片




AI突进医疗领域



随着人工智能的发展,临床医学、生物医学研究、公共和全球健康等医疗领域已经在进行着革命性的变化。

例如GPT-4引发的热议,就能看出来人们对AI真的是又爱又怕,既爱它的高效率高准度又怕它自我失序,于是各个行业针对AI的各项原则应运而生。

但是在至今已经发布的AI指导原则中,关于应用于医疗方面的部分一直是缺失的、不完善的,近日在《Nature》中发布的一篇文章认为:可以根据实际情况对AI施行这8项原则,使人类能够在医疗领域中更好的应用AI。




原则1:

将缓解现有的健康差异

作为广泛使用AI的目的



健康公平是一直是值得推进的事情。

健康公平意味着减少并最终消除优势人群和弱势人群之间存在的健康结果差异,这种差异是由弱势群体过度暴露于风险因素和难以获得高质量保健造成的。

如果AI一直只应用于医疗保健中受益最多的人群中,只会不断的扩大健康公平差距。而造成这一切的原因,正是AI工具本身的特殊性,AI通常需要收集专门的数据作为输入,这就需要从收购商业公司的高购买力和技术专业知识作为基础,这些都是AI进入服务于最弱势人群的医院系统的障碍。

如果一味的纵容这样的事态发展,那么AI就不应该被引入,变成维持或恶化健康差异的催化剂,目前也有越来越多的文献讨论人工智能如何用于解决健康差异。

结合实际情况来看有这两个可及策略能够达到AI减缓健康差异的目的:
1.确保弱势群体能够平等地获得和受益于人工智能。
2.优先为弱势群体设计人工智能工具。


原则2:

AI的结果应该具有临床意义



临床医学领域已经过了几十年的发展,可替代性变得微乎其微。于是AI应用于医疗领域时,其判断结果是否具有临床意义变成了十分具有争议性的话题。不过这个争议还是有标准能够进行判决,就是临床结果。

在许多疾病中,临床结果被认为是成功干预的标准。随着对疾病认识的进步,这些结果会随着时间而改变。

如果AI工具在设计之初就不打算应用于临床,那之后无论怎么发展都只能是临床医生无法评估和使用的工具。甚至可能会造成过度医疗的结果。


原则3:

AI应该旨在减少过度诊断和过度治疗



在疾病治疗中,过度诊断和过度治疗在一定程度上是有利于正确医疗的。但是考虑过度诊断和过度治疗患者的身体、情感和经济成本对AI来说是十分具有挑战性的,因为过度诊断的定义并不总是一致的,并且定义随着对疾病谱的理解的发展而变化。

例如,导管原位癌(DCIS)乳腺肿瘤有时保持惰性,这意味着它不会发展为浸润性乳腺癌,而一些会发展。因此,在某些情况下,DCIS可能被认为是对乳腺癌的过度诊断。也有浸润性乳腺肿瘤,复发风险非常低。确定进展性DCIS病例的高风险和复发浸润性癌症病例的极低风险是否也构成过度诊断?

一些设计用于预测乳腺癌风险的AI没有办法区分DCIS和浸润性癌症,这意味着这些工具可能会保持过度诊断和过度治疗的比率,或者在最糟糕的情况下加剧这种比率。所以在开发AI医疗工具时,如何保持过度诊断和过度治疗的程度成为了一个难题。


原则4:

AI应该具有较高的医疗价值

并且避免从更高优先级的领域转移资源



医疗价值被定义为每花费一元所获得的健康成果。AI的使用应该增加医疗价值,这意味着它们应该以与现有工具相同的成本提供更好的结果,或者以更低的成本提供相同的结果。但是想要减少收集输入、实施、维护、更新、解释和交付结果的成本,以及错误的直接和下游成本。仅仅拥有一个好的AI工具是不够的,它必须对医疗系统有经济意义,并且不会增加患者的成本。

所以将AI应用于医疗领域之前,需要从一开始就与领导利益相关者和健康经济学家进行初步磋商,可以确定人工智能工具是否应该或如何成为财务优先事项。此外,根据现有实践评估工具的价值也是必要的。低优先级、低价值的人工智能工具会从更关键的领域分流资源。

在稀缺资源可能被浪费在AI工具上的情况下,文章作者认为这一原则的设定尤为重要,因为AI工具不会产生与其他可行的基础性干预措施相同的影响。例如,2013年,世卫组织概述了为什么有组织的乳腺癌筛查项目在资源有限、卫生系统相对强大或薄弱的情况下不应成为优先事项。一个原因是缺乏维持筛查项目所需的组织和财政资源。另一个原因是:如果筛查后不能为确诊患者提供充分的治疗和管理,筛查的好处就无法实现。所以在AI用于疾病筛查或者治疗之中时,并没有提升医疗价值或者消耗了更多资源,那不如不用。


原则5:

AI应该考虑患者的生活因素



疾病发生和发展的生物学会受到一个人的生活经历的影响。

目前生活因素对于疾病的影响是一个较新的概念性研究领域,它不仅仅包括健康的社会决定因素。还包括:结构和环境的暴露和情感状态等其他因素。常见的其他因素包括非稳态负荷(慢性压力和生活事件的累积负担)、社会关系、交往压力、抑郁和环境污染等。但是关于这些因素与医学研究的整合尚未实现,部分原因是缺乏一个支配性的科学学科。

AI的出现在一定程度上解决了这个问题,AI可以利用大数据来提供邮政编码和社会经济地位等患者的社会信息,直到可以收集到更高分辨率的个性化特征。例如,还可以通过使用邮政编码对邻居特征、环境毒素暴露和其他地理空间信息进行地理编码来丰富个人数据。现在人们要做的就是如何将健康的社会决定因素整合到AI中,提高其医疗效率。


原则6:

AI应该具有地域性



AI研究人员经常寻求外部数据集作为测试集,以评估该工具是否可推广。这些外部数据集通常来自类似的高资源环境,如服务于相对同质人群的学术医院。这一实践仅证明了对类似于测试集的人群的非常有限的可推广性。考虑到概化是以精确度为代价的,即偏倚-方差权衡,随着时间的推移,全球意义上的概化的最高形式可能是不可能实现的,也是不可取的。

医疗保健中的普遍性神话之前已经被探索过了。概括能力差并不是人工智能独有的,也是传统统计模型面临的挑战。例如,在欧洲血统的女性身上开发的乳腺癌多基因风险评分不能很好地推广到非洲血统的人,并且在其他疾病中也发现了类似的趋势.


原则7:

AI应该持续学习保持更新



人工智能的一个主要优点是能够持续学习,以确保随着时间的推移不断的优化和恢复。FDA也在调查是否应该允许公司提交一份“变更控制计划”,允许在部署时对已批准的人工智能软件进行变更。实际上这是必要的,而不是一种选择。

其实所有的医疗干预,无论是否是AI,都应该以定期评估、学习和改进为目的来设计。此外,随着科学的发展,应该有整合新知识的机制来造福患者。应该在人工智能研究阶段与临床医生协商确定评估指标、时间框架和性能标准。这种评估不仅必须包括特异性等全球绩效指标,还必须详细了解该工具对谁无效、为什么无效、对患者和医疗保健系统有何影响,并提供一个改进框架。


原则8:

AI应该促进决策共享



一些机器学习算法——特别是“黑盒”深度学习算法,很难解释和诠释。AI需要是可以理解系统的内部逻辑和可以理解决策的原因,这已经被许多组织一致认为是一个中心原则。不透明的人工智能工具不能被充分评估和审计,容易破坏患者和医生之间的信任,造成需要共享的决策失去意义。

共享决策是指为患者提供关于干预的充分信息,在做出决策时,会将这些信息与患者的偏好和价值观(如信仰体系和风险承受能力)一起考虑。如果患者和医生与AI之间相互不理解如何以及为什么做出决定,AI应用于医疗领域的希望就十分渺茫了。





医疗领域的发展离不开AI的帮助
8大原则必不可少




为了确保AI能够有意识地为解决医疗中长期存在的缺点,需要许多人才不断思考和系统地整合许多学科的知识来制定原则,这对AI开发人员来说是一项艰巨的任务。

正因如此,编者不认为这些原则是可选的,而是每一条都必不可少。

2020年中国药监局就已经批准了AI应用于医学影像诊断,在其他医疗领域也不断有相关技术在更新。近年来,国家也出台了多项政策文件,推进智慧医院建设和医院信息标准化建设,发展并规范远程医疗和互联网医疗。

我们期待在未来的时间里人工智能能够得到更好的应用,使人类的共同健康成为现实。

参考来源:
1.Badal, K., Lee, C.M. & Esserman, L.J. Guiding principles for the responsible development of artificial intelligence tools for healthcare. Commun Med 3, 47 (2023). https://doi.org/10.1038/s43856-023-00279-9
2.Amisha, Malik, P., Pathania, M. & Rathaur, V. K. Overview of artificial intelligence in medicine. J. Family Med. Prim. Care 8, 2328–2331 (2019).
3.Davenport, T. & Kalakota, R. The potential for artificial intelligence in healthcare. Fut. Healthc. J. 6, 94–98 (2019).
4.Administration, U.S.F.D. Good Machine Learning Practice for Medical Device Development: Guiding Principles. (2021).
5.World Health, O. Ethics and Governance of Artificial Intelligence For Health: Who Guidance, (World Health Organization, Geneva, 2021).
6.Solomonides, A. E. et al. Defining AMIA’s artificial intelligence principles. J. Am. Med. Inform. Assoc. 29, 585–591 (2022).
7.Consortium, F.-A. Assessment Checklist. (2021).
8.Collins, G. S. et al. Protocol for development of a reporting guideline (TRIPOD-AI) and risk of bias tool (PROBAST-AI) for diagnostic and prognostic prediction model studies based on artificial intelligence. BMJ Open 11, e048008 (2021).

图片图片图片图片