Analisar imagens de Raio-X de tórax com algoritmos de aprendizado de máquina é mais fácil dizer do que fazer. Isso ocorre porque, tipicamente, os rótulos clínicos necessários para treinar esses algoritmos são obtidos com processamento de linguagem natural baseado em regras ou anotação humana, os quais tendem a introduzir inconsistências e erros. Além disso, é um desafio reunir conjuntos de dados que representam um espectro de casos adequadamente diversificado e estabelecer rótulos clinicamente significativos e consistentes, com apenas imagens.

Em um esforço para avançar na pesquisa em relação à classificação de imagem de Raio-X, os pesquisadores do Google criaram modelos de IA (Inteligência Artificial) para identificar quatro descobertas em Raios-X de tórax humano: pneumotórax (pulmões colapsados), nódulos e massas, fraturas e opacidades do espaço aéreo (preenchimento da árvore pulmonar com material). Em um artigo publicado na revista Nature, a equipe afirma que a família de modelos, que foi avaliada usando milhares de imagens em conjuntos de dados com etiquetas de alta qualidade, demonstrou desempenho “no nível do radiologista” em uma revisão independente realizada por especialistas humanos.

A publicação do estudo ocorre meses depois que os cientistas do Google AI e da Northwestern Medicine criaram um modelo capaz de detectar câncer de pulmão a partir de testes de triagem melhor do que os radiologistas humanos, com uma média de oito anos de experiência, e aproximadamente um ano após a Universidade de Nova York ter usado o modelo de aprendizado de máquina Inception v3 do Google para detectar câncer de pulmão. A IA também sustenta os avanços da gigante tecnológica no diagnóstico da retinopatia diabética por meio de exames oftalmológicos, bem como a IA da DeepMind, subsidiária da Alphabet, que pode recomendar a linha de tratamento adequada para 50 doenças oculares, com 94% de precisão.

Este trabalho mais recente captou mais de 600.000 imagens provenientes de dois conjuntos de dados não identificados, o primeiro desenvolvido em colaboração com a Apollo Hospitals e que consiste em Raios-X coletados ao longo dos anos em vários locais. Quanto ao segundo corpus, é o conjunto de imagens ChestX-ray14 publicamente disponível, divulgado pelos Institutos Nacionais de Saúde, que historicamente serviu como um recurso para os esforços de IA, mas que sofre falhas de precisão.

Os pesquisadores desenvolveram um sistema baseado em texto para extrair etiquetas usando relatórios de radiologia associados a cada Raio-X, que eles aplicaram para fornecer etiquetas para mais de 560.000 imagens do conjunto de dados da Apollo Hospitals. Para reduzir os erros introduzidos pela extração de etiquetas com base em texto e fornecer as etiquetas relevantes para várias imagens de ChestX-ray14, eles recrutaram radiologistas para revisar aproximadamente 37.000 imagens nos dois corpora.

O próximo passo foi gerar rótulos de referência de alta qualidade para fins de avaliação do modelo. Foi adotado um processo baseado em painel, no qual três radiologistas revisaram todas as imagens do ajuste final e do conjunto de testes e resolveram divergências por meio de discussão on-line. Os co-autores do estudo dizem que isso permitiu que descobertas difíceis, inicialmente detectadas apenas por um único radiologista, fossem identificadas e documentadas adequadamente.

O Google observa que, embora os modelos tenham alcançado uma precisão geral no nível de especialista, o desempenho variou entre os corpora. Por exemplo, a sensibilidade para a detecção de pneumotórax entre os radiologistas foi de aproximadamente 79% para as imagens de radiografia ChestX-ray14, mas foi de apenas 52% para os mesmos radiologistas no outro conjunto de dados.

“As diferenças de desempenho entre conjuntos de dados … enfatizam a necessidade de conjuntos de imagens de avaliação padronizados com padrões de referência precisos para permitir a comparação entre os estudos”, escreveram o cientista de pesquisa do Google Dr. David Steiner e o líder técnico do Google Health Shravya Shetty em um post no blog do Google. “[Os modelos] frequentemente identificaram descobertas que foram constantemente ignoradas pelos radiologistas e vice-versa. Como tal, estratégias que combinam as ‘habilidades’ únicas dos sistemas de [IA] e de especialistas humanos provavelmente são as mais promissoras para a realização do potencial dos aplicativos de IA na interpretação de imagens médicas”.

A equipe de pesquisa espera estabelecer as bases para métodos superiores com um corpus dos rótulos adjudicados para o conjunto de dados ChestX-ray14, que eles disponibilizaram em código aberto. Ele contém 2.412 imagens do conjunto de treinamento e validação e 1.962 imagens do conjunto de teste, ou 4.374 imagens no total.

“Esperamos que esses rótulos facilitem os futuros esforços de aprendizado de máquina e permitam melhores comparações de maçã para maçã entre os modelos de aprendizado de máquina para a interpretação dos raios-X do tórax”, escreveram Steiner e Shetty.

Fonte: Google details AI that classifies chest X-rays with human-level accuracy

A detecção de anomalias em imagens de raio-X é um dos muitos projetos da Formação Inteligência Artificial Aplicada à Medicina, da Data Science Academy. Clique no link abaixo e confira:

Formação Inteligência Artificial Aplicada à Medicina