Use este identificador para citar ou linkar para este item:
http://repositorio.ufc.br/handle/riufc/79172
Registro completo de metadados
Campo DC | Valor | Idioma |
---|---|---|
dc.contributor.advisor | Nogueira, Fabrício Gonzalez | - |
dc.contributor.author | Monteiro, Mário Victor Gonzaga | - |
dc.date.accessioned | 2024-12-18T12:29:01Z | - |
dc.date.available | 2024-12-18T12:29:01Z | - |
dc.date.issued | 2024 | - |
dc.identifier.citation | MONTEIRO, Mário Victor Gonzaga. Redes Neurais Convolucionais Explicáveis para detecção de doenças pulmonares utilizando imagens de raios-x do tórax. 2024. 75 f. Trabalho de Conclusão de Curso (Graduação em Engenharia Elétrica) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2024. | pt_BR |
dc.identifier.uri | http://repositorio.ufc.br/handle/riufc/79172 | - |
dc.description.abstract | This work presents the development of a Deep Learning model for the automated diagnosis of multiple pathologies in chest X-rays, using explainability techniques such as Grad-CAM++ and LIME. The goal is not only to identify diseases in medical images but also to provide a visual explanation that helps validate the model's predictions, fostering greater confidence in its use in clinical environments. The study employed the NIH Chest X-ray Dataset, one of the largest publicly available chest X-ray databases, containing over 100,000 images labeled with multiple pathologies. The dataset was reduced and balanced to ensure a more equitable distribution of disease classes and better representativity during model training. The DenseNet-121 architecture with transfer learning was utilized, chosen for its efficiency in image classification tasks and its extensive use in the medical literature for diagnosing pathologies. Additionally, techniques like dropout were applied to reduce overfitting, and the model was evaluated using standard performance metrics such as AUC-ROC and Hamming Loss. The validation process included an essential explainability step, where we used Grad-CAM++ to generate heatmaps highlighting the regions of the image that contributed the most to the diagnosis, and LIME to identify the most relevant features in the model's decision-making process. This approach was validated by healthcare professionals who evaluated the model's predictions and the visual explanations generated, providing both qualitative and quantitative feedback. The analysis of the results demonstrated that the model showed good performance in diseases such as Cardiomegaly and Edema, with AUC-ROC values above 0.85. More challenging conditions, like Infiltration, presented more modest values, reflecting the inherent complexity of diagnosing these diseases. The results suggest that the use of Deep Learning models, combined with explainability techniques, can be a valuable tool in clinical practice, especially by providing greater transparency in predictions, thus facilitating the adoption of these technologies by healthcare professionals. However, there are limitations, such as the low number of specialists involved in the validation and the challenges in accurately identifying multiple concomitant diseases. Future work could include broader validation with additional specialists, as well as exploring new network architectures and more robust explainability techniques. | pt_BR |
dc.language.iso | pt_BR | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.title | Redes Neurais Convolucionais Explicáveis para detecção de doenças pulmonares utilizando imagens de raios-x do tórax | pt_BR |
dc.type | TCC | pt_BR |
dc.contributor.co-advisor | Albuquerque, Victor Hugo Costa de | - |
dc.description.abstract-ptbr | Este trabalho apresenta o desenvolvimento de um modelo de Deep Learning para o diagnóstico automatizado de múltiplas patologias em radiografias de tórax, utilizando técnicas de explicabilidade como o Grad-CAM++ e o LIME. A proposta visa não apenas identificar doenças em imagens médicas, mas também oferecer uma explicação visual que ajude a validar as previsões do modelo, promovendo uma maior confiança na sua utilização em ambientes clínicos. Para isso, foi utilizado o NIH Chest X-ray Dataset, uma das maiores bases de dados públicas de radiografias de tórax, contendo mais de 100.000 imagens rotuladas com múltiplas patologias. O dataset foi reduzido e balanceado para garantir uma distribuição mais equitativa das classes de doenças e uma melhor representatividade no treinamento do modelo. Foi empregada a arquitetura DenseNet-121 com Transfer Learning, escolhida por sua eficiência em tarefas de classificação de imagens e por ser amplamente utilizada na literatura médica para o diagnóstico de patologias. Além disso, técnicas como o dropout foram aplicadas para reduzir o risco de overfitting, e o modelo foi avaliado utilizando métricas de desempenho padrão, como o AUC-ROC e o Hamming Loss. O processo de avaliação incluiu uma etapa importante de explicabilidade, onde utilizamos o Grad-CAM++ para gerar mapas de calor das regiões da imagem que mais contribuíram para o diagnóstico, e o LIME para identificar os atributos mais relevantes na decisão do modelo. Essa abordagem foi validada por profissionais de saúde, que avaliaram as previsões e as explicações visuais geradas, fornecendo feedback qualitativo e quantitativo. A análise dos resultados demonstrou que o modelo apresentou boas performances em doenças como Cardiomegalia e Edema, com valores de AUC-ROC acima de 0.85. Doenças mais difíceis de identificar, como Infiltração, apresentaram valores mais modestos, refletindo a complexidade inerente ao diagnóstico dessas condições. Os resultados indicam que o uso de modelos de Deep Learning, aliado a técnicas de explicabilidade, pode ser uma ferramenta valiosa na prática clínica, especialmente ao proporcionar maior transparência nas previsões, facilitando a adoção dessas tecnologias pelos profissionais de saúde. No entanto, há limitações, como o baixo número de especialistas envolvidos na avaliação e as dificuldades em identificar corretamente múltiplas doenças concomitantes. Trabalhos futuros poderão incluir uma avaliação mais ampla com outros especialistas, além de explorar novas arquiteturas de rede e técnicas de explicabilidade mais robustas. | pt_BR |
dc.subject.ptbr | Deep learning | pt_BR |
dc.subject.ptbr | Explicabilidade | pt_BR |
dc.subject.ptbr | CNN | pt_BR |
dc.subject.ptbr | Grad-CAM++ | pt_BR |
dc.subject.ptbr | Radiografias | pt_BR |
dc.subject.en | Deep learning | pt_BR |
dc.subject.en | Explainability | pt_BR |
dc.subject.en | X-rays | pt_BR |
dc.subject.en | Grad-CAM++ | pt_BR |
dc.subject.cnpq | CNPQ::ENGENHARIAS::ENGENHARIA ELETRICA | pt_BR |
local.advisor.orcid | https://orcid.org/0000-0003-1935-8937 | pt_BR |
local.advisor.lattes | http://lattes.cnpq.br/5826590609995005 | pt_BR |
local.co-advisor.orcid | https://orcid.org/0000-0003-3886-4309 | pt_BR |
local.co-advisor.lattes | http://lattes.cnpq.br/4186515742605446 | pt_BR |
local.date.available | 2024-12-18 | - |
Aparece nas coleções: | ENGENHARIA ELÉTRICA - Monografias |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
2024_tcc_mvgmonteiro.pdf | 1,9 MB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.