您所在的位置:首页 > 资讯中心 >  医学中的深度学习:愿景,进展以及挑战
医学中的深度学习:愿景,进展以及挑战
  • 2019-07-18 11:29
  • 作者:王飞
  • 来源:HC3i中国数字医疗网

当医疗AI进入深水区,深度学习对于数据量、数据质量等一系列问题的“严苛”要求浮出水面。本文原标题为“Deep Learning in Medicine-Promise, Progress, and Chanllenges”,于2018年12月18日发表于顶级临床内科杂志--JAMA Internal Medicine,全面分析了当下深度学习在医学领域面临的现实挑战。译文如下:

近年来,人类对于医疗健康领域中机器学习和人工智能技术应用的兴趣激增。人工智能技术的发展让机器得以模仿更加复杂和独立的人类智能,这种能力是人工智能技术发展程度的最直观体现。早期,医疗健康领域的人工智能系统严重依赖于人的逻辑规则,这需要相关专家将临床知识编码作为特定临床场景的逻辑规则来进行。随着技术的更迭,更为先进的机器学习系统开始逐渐脱离人工,借助识别和权衡数据中的相关特征(如医学图像中的像素或电子健康记录(EHRs)中的原始信息)来自主学习这些规则。

为确保在实践中行之有效,传统机器学习技术常常需要专家对特征工程进行指导(例如,将检测值离散化道固定的范围区间或是从医学图像中提取区域特征)。但新的深度学习技术对人为介入的要求大大降低,它通过使用端到端的学习机制对原始输入进行逐层映射(例如检测的原始值或图像像素值)从而在没有人工干预的情况下直接预测输出。这些映射由多层相互连接的非线性处理单元--人工“神经元”组成。就目前而言,深度学习技术仍然需要专家来设计最优的模型结构。

应用挑战

目前,深度学习在医学上最成功的应用是医学图像分析。目前已有的研究验证了深度学习算法能够从例如视网膜基底部和皮肤图像中自动、准确地检测糖尿病视网膜病变和皮肤癌。深度学习的潜力主要体现在能够发掘复杂的,微妙的特征模式来区别不同的图像类别,这表明深度学习技术在其他类型的医学数据分析中仍旧可以大有可为。然而,在更广泛地在医学中应用深度学习之前,我们需要知道并理解如下挑战。

数据量

像人类大脑一样,深度学习模型由多层互联的计算“神经元”组成,非常复杂,因此设计最佳架构是很困难的。实际上,深度学习模型的复杂程度与问题的复杂性紧密相关,而模型越复杂,参数越多,需要的训练样本量就越大。例如,在前述的眼科和皮肤科的案例中,作者用了128175张视网膜图像来训练深度学习模型进行分类糖尿病视网膜病变,129450张皮肤图像来训练分类皮肤癌的深度学习模型;而在慢性心脏或肾衰竭这样更为复杂和异质性的疾病状态下,则可能需要数量更多的样本以及更异质的数据(例如,文本输入、成像、实验室值、生命体征)来建立可靠的诊断模型。对于许多复杂的临床情形来说,所需要的可靠数据的数量并不那么容易获得。

数据质量

大部分健康数据的组织化和标准化程度都不如医学影像数据,例如,电子病历包含高度异质的结构化患者信息,包括人口学、诊断、过程、检验结果以及药物,还有非结构化文本形式的医嘱。这些结构化和非结构化的信息经常出现不一致的情况。从分散的和有噪声的信息中识别可靠的模式即便对人脑而言也是很难的,因此对于深度学习模型来说就更为困难。对于社会经济地位较低的患者而言,由于他们更可能访问一些条件不是太好的诊所,其健康数据可靠性更容易因电子病历信息缺失或有误、多机构间分散存储等原因降低,这是深度学习面临的重大挑战之一。由此很大可能造成深度学习算法对这类患者的诊断可能并不够准确,从而加剧现有的医疗健康差异。

模型的可解释性

深度学习模型端到端的学习设计模式看起来很像黑盒子:它能够吸收数据、生成输出并得出结论(例如,“该患者患黑色素瘤的概率为0.8”),但对如何得出结论却没有明确的解释。常规的皮肤科医生在考虑病变是否为黑色素瘤时,会根据一系列主要和次要的标准对皮肤镜图像进行评估,为提出的诊断结果提供明确依据。相比较而言,深度学习模型只给出结果的决策模式并不能让人信服。虽然近年来有很多研究工作在试图为深度学习模型的结果提供解释,但它们还是主要集中在图像分析上,因此,解释复杂临床情况模型的结果仍然是一项艰巨的挑战。

模型的通用性和互操作性

两个常见问题限制了深度学习模型的通用性:

模型偏差。例如,基于主要是白人患者的数据进行训练的模型可能在其他种族患者中效果不佳;在美国接受培训的模式在亚洲可能表现不佳。

模型互操作性。如果两个卫生系统使用不同的电子病历系统,那么很难建立一个能够在两个系统中使用的深度学习模型。

模型安全

数据是深度学习模型学习的资源,但某些数据也会干扰模型的决策。有研究表明,即便是训练有素的图像处理模型,也非常有可能被人类无法察觉的输入图像的扰动所“愚弄”,这也就是所谓的对抗性攻击。例如,在类似自动驾驶这样安全性至关重要的应用中,当深度学习模型被用于道路交通标志的自动识别时,若在停车标志上叠加精心设计的噪音(例如粘贴胶带),就可以彻底改变系统的决策。最近作者的一项研究表明,轻微改变患者电子病历数据中的实验检测值就能够对模型在住院死亡率预测方面产生极大影响。

应对方法

在发展深度学习面临的挑战中,诸如数据质量、模型通用性和模型安全性都是机器学习算法面临的通常性问题,而诸如数据量、模型可解释性等,则对于深度学习而言更具有针对性。要解决这两种类型的挑战,并建立可广泛影响临床实践的可靠的深度学习模型,需要如下一些考虑。

收集大规模和多样化的健康数据

要使深度学习模型更易于推广、不易受到数据偏倚的影响,需要加强多机构乃至国际合作来广泛的收集多方面数据(包括来自不同种族、民族、语言和社会经济地位的患者的数据),并更进一步标准化和集成这些来自不同来源的数据。观察性健康数据科学和信息学(OHDSI)项目就是一项国际性的、合作的、开放的科学努力,目前该项目已经收集了来自17个参与国家的12.6亿份患者记录,所有记录都使用一种名为观察性医疗结果伙伴关系(observation Medical Outcomes Partnership)的通用数据模型。

提高数据质量

深度学习模型高度依赖于数据,但却对数据提供过程没有足够深入的了解,因此如何提供可靠、高质量的输入至关重要。同样重要的是,我们要开发工具来提高数据收集的质量,如:错误纠正、关于缺失数据的警告和差异的协调。 IBM Watson Imaging Clinical Review就是一个很好的例子,该工具分析临床影像报告中的信息,并将其与病患的电子病历记录中的信息进行比较,以识别不完整或不正确的内容,并提示输入更准确和最新的信息,有效协调了不同来源的病患信息之间的差异。

融入临床工作流程

深度学习应与现有的电子病历系统相结合,提高临床医生的工作效率。例如,开发由于语音输入功能的电子病历系统,自动生成临床记录、推断诊断代码,并自动将数据输入到深度学习算法中。对于半结构化的放射学报告而言,其部分内容可以通过深度学习模型进行医学图像分析自动生成。目前,胸透报告已经能够通过深度学习技术分析胸透图像实现半自动创建,其中包括了结果、发现物和医学文本索引标记,帮助放射科医生提高胸透报告质量和准确性。这些工具不应该以黑匣子的形式出现,反而更应该作为临床医生探索诊断提供建议并进一步为系统提供反馈。

全面规范化

计算机黑客可以修改数据从而更改深度学习模型的结果,在这些技术得到更广泛使用的情况下,制定全面规范来确保更好的模型安全性尤为重要。此外,在现有法规关注医疗数据隐私的同时,新法规也应该保护分析模型。

结语

总之,尽管深度学习有潜力改善医疗健康,但在更广泛和更有效的使用方面仍然存在实质性障碍。认识到深度学习的局限性,明确所有挑战,并努力解决,才能让医学深度学习取得更快速的进步。

 

作者档案

王飞博士,康奈尔大学威尔医学院副教授。主要研究方向包括数据挖掘,机器学习技术在医学数据科学中的应用。王飞博士已经在相关方向的顶级国际会议和杂志上发表了超过200篇学术论文,引用超过8400次,H指数48。

 

转载请注明出处:HC3i中国数字医疗
【责任编辑:xiasz TEL:(010)68476606】

标签:医学  深度学习  
  • 分享到: