1. 首页
  2. >
  3. 技术信息
  4. >
  5. 技术资讯

谷歌AI再获新进展,胸片识别能力已达专家水平

谷歌AI再获新进展,胸片识别能力已达专家水平

药明康德AI/报道


爱憎分明、爱恨交织都是人类的特质,可对于“聪明”的计算机来说,大多只能做到判断“是”或“否”的逻辑。让传统计算机做到“爱恨交织”,很有可能直接宕机…


这样的局限性导致计算机在进行图像处理时稍显笨拙,因为图像的处理除了要处理是和否的问题,还需要在这之间进行判断。人类因拥有无比强大的“大脑处理器”,用眼睛便可直接区分,可三十年河东三十年河西,集人类智慧与科技力量的计算机AI渐显赶超之势。日前,谷歌(Google)采用深度学习创造出最新的AI模型,其对胸部X光片(胸片)的总体识别能力已经达到放射科专家的水平。该研究发表在《放射学》Radiology杂志上。


谷歌AI再获新进展,胸片识别能力已达专家水平


胸片是常见的医学影像技术,比起其他影像技术,胸片辐射量低出片速度快。可“出片容易看片难”,一位经验老道的放射科医生看懂一张胸片平均需1-2分钟。通常一位放射科医生在培训时,至少要读约10,000张片子。人类尚且如此,对AI来说,难度可见一斑。


可重复性的读片行为,却是计算机所擅长的领域。因此,研究人员致力于开发AI系统,将胸片识别与注释结合起来,以此缓解医生的压力。此前,大部分科学家所用的胸片数据,都经过自然语言处理或人工注释。这样的方法则会出现较多误判。


谷歌AI再获新进展,胸片识别能力已达专家水平


▲ 1899年,美国心理学家Joseph Jastrow用一张造成视觉错觉的“鸭兔图”说明:人类不单靠眼睛,还会用脑来看事物。而这张百年老图曾难倒了谷歌开发的强大AI。(图片来源:Public Domain)


而这项研究中,为改进AI对X射线图像识别分类的能力,谷歌研究人员利用人类胸片数据库,训练新的AI模型。不同的是,这次他们并未采用自然语言处理和人工标注的图像。


首先,他们与印度阿波罗医院(Apollo Hospitals)合作,将约560,000张胸片“喂”给AI模型。由于图片数量巨大,研究人员还接着开发了一款基于胸片的参考注释标注系统,用于在AI识别胸片后,自动对相应图片进行注释,以取代人工注释。


然后,他们从美国国立卫生研究院(NIH)发布的公共胸片数据库(ChestX-ray14)中获取了另一些图像数据。由于ChestX-ray14数据库中存在不少错误,研究人员便招募放射科专家对数据库中大约37,000张图像进行了检查和注释。


经过对上述两个不同来源的数据的学习,深度学习模型的测试表明,它们的表现与人类医生的表现相当,具有可识别胸片上气胸、结节和肿块、骨折和肺气混浊这四个问题的能力。为验证AI的识别能力,研究团队邀请放射科专家对所有的测试胸片进行校对、讨论,从而解决某些疑难图片的判断过程中出现的分歧,进行最终裁决。这也便使得专家对用于AI模型调整和性能评估的注释的共识增加,专家们与AI模型的总体共识从最初读片后的41.8%增长到96.8%。


谷歌AI再获新进展,胸片识别能力已达专家水平

▲ 胸片显示一个左上肺气胸,分别由模型和专家鉴定,但放射科专家未发现疾病。左:原图。右图:同样的图像,AI则通过学习橘色部分注释识别出了气胸。(图片来源:参考资料[4])


不过研究人员发现,无论是AI还是人类专家,对判定不同数据库中的不同胸片,准确度都不一样。例如,ChestX -ray14中,人类专家检测气胸的敏感性约为79%,而在其他数据集中,同一批专家检测气胸的敏感性仅为52%。这也就表明了建立统一的图片评估标准的重要性。研究人员表示:“人类专家与AI均有其所长,将两方的‘技能’结合,可能是最有希望早日开发人工智能在医学图像注释方面的应用潜能的解决方法之一。”


今年5月,谷歌和美国西北大学(Northwestern University)医学院联合创建了一个AI模型,其对肺癌的筛查准确率相当于一位有平均8年经验的放射科医生,比之前谷歌和纽约大学(New York University)共同开发的肺癌检测AI领先近1年。这项研究当时发表在《自然-医学》Nature Medicine上。半年后,谷歌AI又一新进展则展现了AI在医疗影响领域的潜能。下一步,研究小组希望通过以开源方式分享ChestX-ray14数据集的已注释的图像集,为之后更高级的算法实现奠定基础。


题图来源:Pixabay


参考资料

[1] Developing Deep Learning Models for Chest X-rays with Adjudicated Image Labels Retrieved Dec 4, 2019 from https:///2019/12/developing-deep-learning-models-for.html[2] Google details AI that classifies chest X-rays with human-level accuracy Retrieved Dec 4, 2019 from https://venturebeat.com/2019/12/03/google-details-ai-that-classifies-chest-x-rays-with-human-level-accuracy/[3] AI improves chest X-ray interpretation Retrieved Dec 5, 2019from https://www.eurekalert.org/pub_releases/2019-12/rson-aic112919.php[4] Chest Radiograph Interpretation with Deep Learning Models: Assessment with Radiologist-adjudicated Reference Standards and Population-adjusted Evaluation Retrieved Dec 5, 2019 from https://doi.org/10.1148/radiol.2019191293


版权说明:欢迎个人转发至朋友圈,谢绝媒体或机构未经授权以任何形式转载至其他平台。