人工智能发展前景(医学人工智能发展前景)
冯凯,战略支援部队特色医学中心(原306医院),研究部二室
医学科普中心 刘燕/崔彦 编辑
人工智能在医疗、通信、农业、社会治安、交通领域、服务行业、金融行业、大数据处理领域飞速发展的同时,也对人类的隐私、安全、公平、潜在风险带来了根本性的挑战。虽然不同国家、政府间组织、科研和产业界已经发布了不少关于人工智能发展、伦理与治理原则,但这些原则并没有形成统一观念,人工智能发展亟待达成全球共识。
人工智能目前在医疗领域的应用
整个医疗领域复杂程度高,涉及知识面广,人工智能可在多个环节发挥作用。比如:医学影像识别、生物技术、辅助诊断、药物研发、营养学等领域,目前应用最为广泛的当属医学影像识别,在肺结节、乳腺癌、冠脉斑块、皮肤癌、眼底病和病理等领域取得了诸多成果。随着人工智能和机器学习(Artificial Intelligence-AI / Machine Learnin , AI/ML)驱动的新医疗技术的出现,一场关于人工智能的底层逻辑是否必须是可理解的争论还远未达成共识。
目前,可信任人工智能仍然是AI应用的前提条件之一
走向可信人工智能的关键步骤是开发可解释的人工智能。
欧洲委员会人工智能高级专家组对可信的人工智能进行了定义。可信的人工智能应该满足三个必要条件:人工智能系统应该遵守所有适用的法律法规(合法性),坚持道德原则和价值观(道德性),安全可靠(稳健性)。
我国《新一代人工智能伦理规范》第一条即开宗明义:本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。该伦理规范明确提出,人工智能各类活动应遵循增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等六项基本伦理规范。
可解释人工智能的概念
人工智能的可解释性,亦即解释人工智能如何在大数据的基础上进行算法决策,深入了解人工智能模型如何以及为什么产生预测,同时保持高预测性能水平。然而,在AI领域,虽然以深度学习为代表的人工智能技术已取得了令人瞩目的成就,但如何确保以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据,仍是一个无法得到解决的难题。人们也越来越认识到这些黑盒机器学习方法的局限性。
目前在这一领域的主要悬而未决的问题包括:对于可解释性的含义仍然缺乏共识、没有明确的指导如何选择可解释的人工智能方法、以及缺乏标准化的评价方法。人机并行将会是未来人工智能发展的长期状态,当人们认识到目前不能完全依赖人工智能进行自动决策,而只能将其作为辅助系统时,模型的透明程度、可理解程度就变得十分关键。人工智能的可解释性是建立人类信任基础的重要前提,只有基于可信任的智能系统,才能将人工智能与人类智能有机结合,充分发挥人工智能的潜力与产能优势,形成优势互补的良性闭环。
可解释人工智能进入医疗领域的限制因素及争论
黑箱问题是人工智能和人工智能技术难以进入临床实践的基本原因。
首先,依赖逻辑不透明的技术设备违反当前的医学伦理。黑箱医学不能让临床医生审查训练标签或数据的质量,这与循证医学所遵循的规则相悖。如果患者无法质疑人工智能系统,他们的自主权和知情同意权就无法得到保证。
其次,算法偏差也可能造成违反增进人类福祉、促进公平公正的原则。例如,一种旨在根据医疗成本对疾病水平进行分类的人工智能算法被发现对弱势群体患者有偏见。而且人工智能是基于过去数据学习的算法,可能会使这种结构性不平等永久化,各国监管机构已经注意到了这些担忧。黑匣子正在阻碍人工智能的采用,因为监管机构不愿意批准任何缺乏临床联系的诊断方法。最后,医患关系建立在沟通和信任的基础上。没有医学上可解释的人工智能,医生将很难与患者交流,这将导致患者信心和满意度的损失。
人类理性的发展历程表明,如果一个判断或决策是可以被解释的,人们将更容易了解其优点与不足,更容易评估其风险,知道其在多大程度上、在怎样的场合中可以被信赖,以及可以从哪些方面对其进行不断改善,以尽量增进共识、减少风险,推动相应领域的不断发展。这样的思维范式是当前最成熟、最具共识、最可信赖的思维模式。人工智能时代这种思维方式可能存在挑战。当知和行不同步,即人脑已经跟不上算法进步的情况发生时,知行合一该如何应对?
互联网小常识:网络管理被分为五大部分:配置管理、性能管理、记账管理、故障管理和安全管理。
互联网小常识:网络系统安全必须包括3个机制:安全防护机制、安全监测机制与安全恢复机制。
人工智能应用于医疗领域是否必须可解释,目前还存在很大的争议。支持者基于可解释人工智能的意义认为可解释性应该是医学中人工智能模型的一个要求,并且应该从一开始就内置。
但反对意见也很值得重视。人类本身至今也未能形成一致的正确判断标准,如何期待程序设计者能够为人工智能嵌入一套具备普世价值的判断标准?现代社会中价值观念之间的冲突,道德规范属于社会领域的价值判断,科学无法解决价值判断问题,沟通协调与坦然面对AI领域的现状才是理智成熟的解决方式。
抛开哲学和社会学领域的问题,AI在医疗领域的现实性问题,也需要特别关注。比如医学成像领域,临床医生不知道该影像学模型是否恰当地确定了哪些区域在决定中很重要,脏器边界或血管的形状是否是决定因素,或者该模型是否依赖于与人类不相关的特征,例如特定的像素值或纹理,可能与图像采集过程有关,而不是潜在疾病,在缺乏此类信息的情况下,人类倾向于假设人工智能正在研究人类临床医生会发现的重要特征。这种认知偏差会使医生对机器学习算法可能犯的错误视而不见。
研究人员还发现了目前流行的可解释性方法的缺陷,如(Gradient-weighted Class Activation Mapping ,Grad-CAM)、(Local Interpretable Model-agnostic Explanations,LIME)和Shapley Values。其中一些方法通过改变输入的数据点,直到算法做出不同的预测,然后假设这些数据点对原来做的预测来说一定是最重要的。但这些方法的问题是它们可能会识别出对决策很重要的特征,但它们不能准确告诉医生为什么算法认为这些特征很重要。如果这个特征让医生觉得违反直觉,医生该怎么做?断定算法是错误的,还是断定它发现了以前医学未知的临床重要线索?任何一个都有可能。更糟糕的是,不同的最新解释方法在对算法结论的解释上经常存在分歧。在现实世界中,大多数使用算法的人都无法解决这些差异,而且通常,人们只是简单地选择了最符合他们现有想法的解释。
一项研究显示,医学成像中使用的大多数深度学习算法都没有受到严格的双盲随机对照试验,所以AI企业给用户提供的解释只是缺乏临床试验所必须步骤的掩饰而已。
因此,有研究者建议可解释AI的最终用户,包括临床医生、立法者和监管机构,要意识到当前存在的可解释AI的局限性。如果希望确保人工智能系统能够安全可靠地运行,那么重点应该放在严格和彻底的验证程序上。他们认为医生不应该专注于解释,而应该关注AI的作用效果,以及其是否经过了严格、科学的测试,正如临床试验所做的一样。
对于未来可解释人工智能在医疗领域应用的展望
可解释人工智能领域的目标是深入了解人工智能模型如何以及为什么产生预测,同时保持高预测性能水平。目前,人工智能发展迅猛,在其广泛应用于人类生活之前,其参与、辅助人类决策还是替代人类决策,会否产生灾难性的后果,了解人工智能的内在逻辑,开发可解释的人工智能是可信人工智能的一个可行步骤。虽然可解释的人工智能领域在医疗保健方面有着光明的前景,但它还没有完全发展起来。在什么是合适的解释方面,以及如何评估解释质量方面还没有达成人类共识。
此外,可解释的人工智能方法的价值还有待于在实践中得到证明。目前还没有如何在可解释的人工智能方法中选择的明确的指导方法,以及缺乏标准化的评估方法。
在医疗保健领域创造值得信赖的人工智能,可以从以下几个方面入手:
提供建模数据的质量报告。模型是基于既往数据的,由于现实世界的数据不是为研究目的收集的,它们可能包含偏见、错误或不完整。因此,理解数据质量和数据是如何收集的至少和可解释性一样重要,因为它允许理解最终模型的局限性。
进行广泛的(外部)验证。对模型的鲁棒性或可推广性,可以使用外部验证来解决。外部验证是临床风险预测模型的一个重要领域,这有赖于有关的国际标准、国际法规,采用共同的数据通用结构,允许按照公认的最佳实践,以透明的方式开发和外部验证预测模型。这也确保了结果的可重复性。
建立有效的监管机制。从长远来看,这是一种建立信任的有效方式。第一种方法是要求人工智能系统满足预先定义的要求(规范最终产品)。另一种方法是通过引入应该遵循的标准开发指南来控制开发过程。
总之,可解释性的必要性在于,它背后的理论是以人类为中心,反应的是我们该如何通过解释模型达到人类对模型的信任,从而创造更加安全可靠的应用,进而推动整个AI产业的进步,造福人类。
(配图来源于网络)
互联网小常识:透明网桥有以下三个特点:(1)网桥负责路由选择,结点不负责,网桥对结点透明(2)透明网桥用于连接两个MAC层协议相同的网段(3)即插即用,安装方便。
免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186