Please use this identifier to cite or link to this item:
http://repositorio.ufc.br/handle/riufc/81619| Type: | Dissertação |
| Title: | Revelando as relações entre métodos explicativos e desempenho de agentes de aprendizado por reforço |
| Title in English: | Unveiling the relationships between explainability methods and reinforcement learning agent performance |
| Authors: | Santos, Alexandre Magno Monteiro |
| Advisor: | Cavalcante Neto, Joaquim Bento |
| Co-advisor: | Nogueira, Yuri Lenon Barbosa |
| Keywords in Brazilian Portuguese : | Algoritmos de aprendizado por reforço;Inteligência artificial explicável;Desempenho e robustez de agentes |
| Keywords in English : | Reinforcement learning algorithms;Explainable artificial intelligence;Agent performance and robustness |
| Knowledge Areas - CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
| Issue Date: | 2024 |
| Citation: | SANTOS, Alexandre Magno Monteiro. Revelando as relações entre métodos explicativos e desempenho de agentes de aprendizado por reforço. 2024. 73 f. Dissertação (Mestrado em Ciência da Computação) - Universidade Federal do Ceará, Fortaleza, 2024. |
| Abstract in Brazilian Portuguese: | O avanço da tecnologia e da Inteligência Artificial tem impulsionado o uso de algoritmos de aprendizado por reforço em áreas como educação e videogames. Apesar do sucesso dessas aplicações, ainda não está claro quais fatores os agentes aprendem que garantem seu desempenho elevado. Compreender como essas características impactam os resultados é essencial para aumentar a confiança dos usuários e identificar falhas, especialmente em aplicações críticas. Este trabalho investiga a influência do desempenho e da robustez de modelos de aprendizado de máquina nas características que os agentes observam ao resolver problemas. O estudo analisa se as mudanças na explicabilidade são perceptíveis entre agentes com diferentes níveis de robustez, utilizando métodos de Inteligência Artificial Explicável, e se essas alterações podem prever o desempenho dos agentes em ambientes fora do conjunto de treinamento. Para realizar a análise, foram conduzidos dois experimentos. No primeiro, agentes com diferentes níveis de robustez foram analisados usando os métodos de Grad-CAM, Gradientes Integrados, SHAP e LIME para gerar explicações. Avaliou-se o impacto da robustez na explicabilidade dos agentes por meio de análises qualitativas e quantitativas. No segundo experimento, foram comparadas variações de modelos e cenários para identificar semelhanças e correlações com as recompensas obtidas por cada agente, visando compreender a relação entre o desempenho do agente e as características observadas. Os resultados mostram variações significativas na explicabilidade entre agentes com diferentes níveis de robustez, que podem ser usadas para prever o desempenho do modelo em ambientes desconhecidos. Observou-se também que o desempenho do agente está correlacionado com a similaridade das explicações: agentes cujas explicações se assemelham às de modelos bem-sucedidos têm maior probabilidade de alcançar alto desempenho. Conclui-se, portanto, que a robustez e o desempenho de um agente estão ligados às características aprendidas para solucionar um problema. |
| Abstract: | The advancement of technology and artificial intelligence has driven the use of reinforcement learning algorithms in areas such as education and video games. Despite the success of these applications, it is still unclear what factors agents learn that ensure their high performance. Understanding how these characteristics impact results is essential for increasing user confidence and identifying failures, especially in critical applications. This work investigates the influence of performance and robustness of machine learning models on the features that agents observe when solving problems. The study analyzes whether changes in explainability are noticeable among agents with different levels of robustness, using Explainable Artificial Intelligence methods and whether these changes can predict agents’ performance in environments outside the training set. Two experiments were carried out to conduct the analysis. In the first experiment, agents with different levels of robustness were analyzed using methods such as Grad-CAM, Integrated Gradients, SHAP, and LIME to generate explanations. The impact of robustness on the agents’ explainability was evaluated through qualitative and quantitative analyses. In the second experiment, variations in models and scenarios were compared to identify similarities and correlations with the rewards obtained by each agent, aiming to understand the relationship between the agent’s performance and the observed characteristics. The results show significant variations in explainability among agents with different levels of robustness, which can be used to predict model performance in unknown environments. It was also observed that agent performance is correlated with the similarity of explanations: agents whose explanations resemble those of successful models are more likely to achieve high performance. It is concluded, therefore, that the robustness and performance of an agent are linked to the learned features for solving a problem. |
| URI: | http://repositorio.ufc.br/handle/riufc/81619 |
| Author's Lattes: | http://lattes.cnpq.br/0487992453736849 |
| Advisor's Lattes: | http://lattes.cnpq.br/0866205347972203 |
| Co-advisor's Lattes: | http://lattes.cnpq.br/9965458635397780 |
| Access Rights: | Acesso Aberto |
| Appears in Collections: | DCOMP - Dissertações defendidas na UFC |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| 2024_dis_ammsantos.pdf | 7,69 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.