Por favor, use este identificador para citar o enlazar este ítem:
http://repositorio.ufc.br/handle/riufc/79172
Tipo: | TCC |
Título : | Redes Neurais Convolucionais Explicáveis para detecção de doenças pulmonares utilizando imagens de raios-x do tórax |
Autor : | Monteiro, Mário Victor Gonzaga |
Tutor: | Nogueira, Fabrício Gonzalez |
Co-asesor: | Albuquerque, Victor Hugo Costa de |
Palabras clave en portugués brasileño: | Deep learning;Explicabilidade;CNN;Grad-CAM++;Radiografias |
Palabras clave en inglés: | Deep learning;Explainability;X-rays;Grad-CAM++ |
Áreas de Conocimiento - CNPq: | CNPQ::ENGENHARIAS::ENGENHARIA ELETRICA |
Fecha de publicación : | 2024 |
Citación : | MONTEIRO, Mário Victor Gonzaga. Redes Neurais Convolucionais Explicáveis para detecção de doenças pulmonares utilizando imagens de raios-x do tórax. 2024. 75 f. Trabalho de Conclusão de Curso (Graduação em Engenharia Elétrica) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2024. |
Resumen en portugués brasileño: | Este trabalho apresenta o desenvolvimento de um modelo de Deep Learning para o diagnóstico automatizado de múltiplas patologias em radiografias de tórax, utilizando técnicas de explicabilidade como o Grad-CAM++ e o LIME. A proposta visa não apenas identificar doenças em imagens médicas, mas também oferecer uma explicação visual que ajude a validar as previsões do modelo, promovendo uma maior confiança na sua utilização em ambientes clínicos. Para isso, foi utilizado o NIH Chest X-ray Dataset, uma das maiores bases de dados públicas de radiografias de tórax, contendo mais de 100.000 imagens rotuladas com múltiplas patologias. O dataset foi reduzido e balanceado para garantir uma distribuição mais equitativa das classes de doenças e uma melhor representatividade no treinamento do modelo. Foi empregada a arquitetura DenseNet-121 com Transfer Learning, escolhida por sua eficiência em tarefas de classificação de imagens e por ser amplamente utilizada na literatura médica para o diagnóstico de patologias. Além disso, técnicas como o dropout foram aplicadas para reduzir o risco de overfitting, e o modelo foi avaliado utilizando métricas de desempenho padrão, como o AUC-ROC e o Hamming Loss. O processo de avaliação incluiu uma etapa importante de explicabilidade, onde utilizamos o Grad-CAM++ para gerar mapas de calor das regiões da imagem que mais contribuíram para o diagnóstico, e o LIME para identificar os atributos mais relevantes na decisão do modelo. Essa abordagem foi validada por profissionais de saúde, que avaliaram as previsões e as explicações visuais geradas, fornecendo feedback qualitativo e quantitativo. A análise dos resultados demonstrou que o modelo apresentou boas performances em doenças como Cardiomegalia e Edema, com valores de AUC-ROC acima de 0.85. Doenças mais difíceis de identificar, como Infiltração, apresentaram valores mais modestos, refletindo a complexidade inerente ao diagnóstico dessas condições. Os resultados indicam que o uso de modelos de Deep Learning, aliado a técnicas de explicabilidade, pode ser uma ferramenta valiosa na prática clínica, especialmente ao proporcionar maior transparência nas previsões, facilitando a adoção dessas tecnologias pelos profissionais de saúde. No entanto, há limitações, como o baixo número de especialistas envolvidos na avaliação e as dificuldades em identificar corretamente múltiplas doenças concomitantes. Trabalhos futuros poderão incluir uma avaliação mais ampla com outros especialistas, além de explorar novas arquiteturas de rede e técnicas de explicabilidade mais robustas. |
Abstract: | This work presents the development of a Deep Learning model for the automated diagnosis of multiple pathologies in chest X-rays, using explainability techniques such as Grad-CAM++ and LIME. The goal is not only to identify diseases in medical images but also to provide a visual explanation that helps validate the model's predictions, fostering greater confidence in its use in clinical environments. The study employed the NIH Chest X-ray Dataset, one of the largest publicly available chest X-ray databases, containing over 100,000 images labeled with multiple pathologies. The dataset was reduced and balanced to ensure a more equitable distribution of disease classes and better representativity during model training. The DenseNet-121 architecture with transfer learning was utilized, chosen for its efficiency in image classification tasks and its extensive use in the medical literature for diagnosing pathologies. Additionally, techniques like dropout were applied to reduce overfitting, and the model was evaluated using standard performance metrics such as AUC-ROC and Hamming Loss. The validation process included an essential explainability step, where we used Grad-CAM++ to generate heatmaps highlighting the regions of the image that contributed the most to the diagnosis, and LIME to identify the most relevant features in the model's decision-making process. This approach was validated by healthcare professionals who evaluated the model's predictions and the visual explanations generated, providing both qualitative and quantitative feedback. The analysis of the results demonstrated that the model showed good performance in diseases such as Cardiomegaly and Edema, with AUC-ROC values above 0.85. More challenging conditions, like Infiltration, presented more modest values, reflecting the inherent complexity of diagnosing these diseases. The results suggest that the use of Deep Learning models, combined with explainability techniques, can be a valuable tool in clinical practice, especially by providing greater transparency in predictions, thus facilitating the adoption of these technologies by healthcare professionals. However, there are limitations, such as the low number of specialists involved in the validation and the challenges in accurately identifying multiple concomitant diseases. Future work could include broader validation with additional specialists, as well as exploring new network architectures and more robust explainability techniques. |
URI : | http://repositorio.ufc.br/handle/riufc/79172 |
ORCID del tutor: | https://orcid.org/0000-0003-1935-8937 |
Lattes del tutor: | http://lattes.cnpq.br/5826590609995005 |
ORCID del co-asesor: | https://orcid.org/0000-0003-3886-4309 |
Lattes del co-asesor: | http://lattes.cnpq.br/4186515742605446 |
Derechos de acceso: | Acesso Aberto |
Aparece en las colecciones: | ENGENHARIA ELÉTRICA - Monografias |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
2024_tcc_mvgmonteiro.pdf | 1,9 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.