Use este identificador para citar ou linkar para este item: http://repositorio.ufc.br/handle/riufc/81619
Tipo: Dissertação
Título: Revelando as relações entre métodos explicativos e desempenho de agentes de aprendizado por reforço
Título em inglês: Unveiling the relationships between explainability methods and reinforcement learning agent performance
Autor(es): Santos, Alexandre Magno Monteiro
Orientador: Cavalcante Neto, Joaquim Bento
Coorientador: Nogueira, Yuri Lenon Barbosa
Palavras-chave em português: Algoritmos de aprendizado por reforço;Inteligência artificial explicável;Desempenho e robustez de agentes
Palavras-chave em inglês: Reinforcement learning algorithms;Explainable artificial intelligence;Agent performance and robustness
CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
Data do documento: 2024
Citação: SANTOS, Alexandre Magno Monteiro. Revelando as relações entre métodos explicativos e desempenho de agentes de aprendizado por reforço. 2024. 73 f. Dissertação (Mestrado em Ciência da Computação) - Universidade Federal do Ceará, Fortaleza, 2024.
Resumo: O avanço da tecnologia e da Inteligência Artificial tem impulsionado o uso de algoritmos de aprendizado por reforço em áreas como educação e videogames. Apesar do sucesso dessas aplicações, ainda não está claro quais fatores os agentes aprendem que garantem seu desempenho elevado. Compreender como essas características impactam os resultados é essencial para aumentar a confiança dos usuários e identificar falhas, especialmente em aplicações críticas. Este trabalho investiga a influência do desempenho e da robustez de modelos de aprendizado de máquina nas características que os agentes observam ao resolver problemas. O estudo analisa se as mudanças na explicabilidade são perceptíveis entre agentes com diferentes níveis de robustez, utilizando métodos de Inteligência Artificial Explicável, e se essas alterações podem prever o desempenho dos agentes em ambientes fora do conjunto de treinamento. Para realizar a análise, foram conduzidos dois experimentos. No primeiro, agentes com diferentes níveis de robustez foram analisados usando os métodos de Grad-CAM, Gradientes Integrados, SHAP e LIME para gerar explicações. Avaliou-se o impacto da robustez na explicabilidade dos agentes por meio de análises qualitativas e quantitativas. No segundo experimento, foram comparadas variações de modelos e cenários para identificar semelhanças e correlações com as recompensas obtidas por cada agente, visando compreender a relação entre o desempenho do agente e as características observadas. Os resultados mostram variações significativas na explicabilidade entre agentes com diferentes níveis de robustez, que podem ser usadas para prever o desempenho do modelo em ambientes desconhecidos. Observou-se também que o desempenho do agente está correlacionado com a similaridade das explicações: agentes cujas explicações se assemelham às de modelos bem-sucedidos têm maior probabilidade de alcançar alto desempenho. Conclui-se, portanto, que a robustez e o desempenho de um agente estão ligados às características aprendidas para solucionar um problema.
Abstract: The advancement of technology and artificial intelligence has driven the use of reinforcement learning algorithms in areas such as education and video games. Despite the success of these applications, it is still unclear what factors agents learn that ensure their high performance. Understanding how these characteristics impact results is essential for increasing user confidence and identifying failures, especially in critical applications. This work investigates the influence of performance and robustness of machine learning models on the features that agents observe when solving problems. The study analyzes whether changes in explainability are noticeable among agents with different levels of robustness, using Explainable Artificial Intelligence methods and whether these changes can predict agents’ performance in environments outside the training set. Two experiments were carried out to conduct the analysis. In the first experiment, agents with different levels of robustness were analyzed using methods such as Grad-CAM, Integrated Gradients, SHAP, and LIME to generate explanations. The impact of robustness on the agents’ explainability was evaluated through qualitative and quantitative analyses. In the second experiment, variations in models and scenarios were compared to identify similarities and correlations with the rewards obtained by each agent, aiming to understand the relationship between the agent’s performance and the observed characteristics. The results show significant variations in explainability among agents with different levels of robustness, which can be used to predict model performance in unknown environments. It was also observed that agent performance is correlated with the similarity of explanations: agents whose explanations resemble those of successful models are more likely to achieve high performance. It is concluded, therefore, that the robustness and performance of an agent are linked to the learned features for solving a problem.
URI: http://repositorio.ufc.br/handle/riufc/81619
Currículo Lattes do(s) Autor(es): http://lattes.cnpq.br/0487992453736849
Currículo Lattes do Orientador: http://lattes.cnpq.br/0866205347972203
Currículo Lattes do Coorientador: http://lattes.cnpq.br/9965458635397780
Tipo de Acesso: Acesso Aberto
Aparece nas coleções:DCOMP - Dissertações defendidas na UFC

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2024_dis_ammsantos.pdf7,69 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.