科技前沿看点:医学影像中的人工智能技术可能导致不正确的诊断

新时代高科技不计其数越来越发达,小伙伴们看过不少科技新闻吧,在我们生活中应该也用到很多这些高科技东西,有哪些小伙伴值的关注的呢,今天就跟大家分享一篇有关科技方面知识,希望大家会喜欢。

一项新的研究表明,机器学习和人工智能在医学图像重建中高度不稳定,可能导致假阳性和假阴性。

由剑桥大学和西蒙弗雷泽大学领导的一个研究小组设计了一系列基于人工智能和深度学习的医学图像重建算法测试,发现这些技术导致了无数的人工制品,或数据中不必要的改变,以及最终图像中的其他主要错误。 这种效应通常不存在于非AI成像技术中。

这种现象在不同类型的人工神经网络中普遍存在,这表明这个问题不会轻易得到纠正。 研究人员警告说,依靠基于人工智能的图像重建技术进行诊断和确定治疗最终会对患者造成伤害。 他们的研究结果在《国家科学院院刊》上发表。

剑桥大学应用数学和理论物理系的Anders Hansen博士说:“人们对人工智能在医学成像方面有很大的热情,它很有可能彻底改变现代医学:然而,有一些潜在的陷阱是不容忽视的。 “我们发现人工智能技术在医学成像中非常不稳定,因此输入的微小变化可能导致输出的大变化。”

典型的MRI扫描可以在15分钟到两小时之间的任何地方进行,这取决于被扫描区域的大小和被拍摄图像的数量。 病人在机器内花费的时间越长,最终图像的分辨率就越高。 然而,限制病人在机器内花费的时间是可取的,这既可以减少对个别病人的风险,也可以增加可进行的扫描的总数。

使用人工智能技术来提高MRI扫描或其他类型医学成像的图像质量是解决在最小时间内获得最高质量图像的问题的一种有吸引力的可能性:理论上,人工智能可以采取低分辨率图像,并使其成为高分辨率版本。 人工智能算法“学习”在训练的基础上,从以前的数据重建图像,并通过这个训练过程的目的是优化重建的质量。 这代表了一个根本性的变化,与经典的重建技术相比,这些技术完全基于数学理论,而不依赖于以前的数据。 尤其是古典技法不学..

任何AI算法都需要两件事才能可靠:准确性和稳定性。 人工智能通常会将猫的图像分类为猫,但图像中几乎看不见的微小变化可能会导致算法将猫分类为卡车或桌子,例如。 在这个图像分类的例子中,唯一可能出错的是图像被错误地分类。 然而,当涉及到图像重建,如医学成像中使用的,有几件事可能会出错。 例如,像肿瘤这样的细节可能会丢失或错误地添加。 细节可能被掩盖,不必要的人工制品可能出现在图像中。

汉森说:“当涉及到人类健康的关键决策时,我们不能让算法出错。” “我们发现,如果你使用人工智能和深度学习来重建医学图像,最微小的腐败,比如可能是由病人移动引起的,可能会产生非常不同的结果,这意味着这些算法缺乏他们所需要的稳定性。”

来自挪威、葡萄牙、加拿大和英国的汉森和他的同事设计了一系列测试,以发现基于人工智能的医学成像系统的缺陷,包括MRI、CT和核磁共振。 他们考虑了三个关键问题:与微小扰动或运动有关的不稳定性;与微小结构变化有关的不稳定性,如有或没有小肿瘤的大脑图像;以及与样本数量变化有关的不稳定性。

他们发现,某些微小的运动导致了最终图像中的无数人工制品,细节被模糊或完全去除,图像重建的质量将随着重复的次采样而恶化。 这些错误在不同类型的神经网络中都很普遍。

根据研究人员的说法,最令人担忧的错误是放射科医生可能将其解释为医疗问题,而不是那些由于技术错误而容易被解雇的错误。

汉森说:“我们开发了这个测试来验证我们的论文,即深度学习技术在医学成像中是普遍不稳定的。” 我们预测的理由是,有限的扫描时间限制了重建效果。 从某种意义上说,现代人工智能技术打破了这一障碍,因此变得不稳定。 我们已经从数学上证明,要为这些不稳定付出代价,或者简单地说:现在还没有免费的午餐。

研究人员现在正致力于为人工智能技术提供基本的限制。 只有知道这些限制,我们才能理解哪些问题可以解决。 汉森说:“基于试验和错误的研究永远不会发现炼金术士不能制造黄金:我们与现代人工智能处于类似的情况。” “这些技术永远不会发现自己的局限性。 这种限制只能从数学上加以说明。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢