Use este identificador para citar ou linkar para este item:
http://repositorio.ufc.br/handle/riufc/81619| Tipo: | Dissertação |
| Título: | Revelando as relações entre métodos explicativos e desempenho de agentes de aprendizado por reforço |
| Título em inglês: | Unveiling the relationships between explainability methods and reinforcement learning agent performance |
| Autor(es): | Santos, Alexandre Magno Monteiro |
| Orientador: | Cavalcante Neto, Joaquim Bento |
| Coorientador: | Nogueira, Yuri Lenon Barbosa |
| Palavras-chave em português: | Algoritmos de aprendizado por reforço;Inteligência artificial explicável;Desempenho e robustez de agentes |
| Palavras-chave em inglês: | Reinforcement learning algorithms;Explainable artificial intelligence;Agent performance and robustness |
| CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
| Data do documento: | 2024 |
| Citação: | SANTOS, Alexandre Magno Monteiro. Revelando as relações entre métodos explicativos e desempenho de agentes de aprendizado por reforço. 2024. 73 f. Dissertação (Mestrado em Ciência da Computação) - Universidade Federal do Ceará, Fortaleza, 2024. |
| Resumo: | O avanço da tecnologia e da Inteligência Artificial tem impulsionado o uso de algoritmos de aprendizado por reforço em áreas como educação e videogames. Apesar do sucesso dessas aplicações, ainda não está claro quais fatores os agentes aprendem que garantem seu desempenho elevado. Compreender como essas características impactam os resultados é essencial para aumentar a confiança dos usuários e identificar falhas, especialmente em aplicações críticas. Este trabalho investiga a influência do desempenho e da robustez de modelos de aprendizado de máquina nas características que os agentes observam ao resolver problemas. O estudo analisa se as mudanças na explicabilidade são perceptíveis entre agentes com diferentes níveis de robustez, utilizando métodos de Inteligência Artificial Explicável, e se essas alterações podem prever o desempenho dos agentes em ambientes fora do conjunto de treinamento. Para realizar a análise, foram conduzidos dois experimentos. No primeiro, agentes com diferentes níveis de robustez foram analisados usando os métodos de Grad-CAM, Gradientes Integrados, SHAP e LIME para gerar explicações. Avaliou-se o impacto da robustez na explicabilidade dos agentes por meio de análises qualitativas e quantitativas. No segundo experimento, foram comparadas variações de modelos e cenários para identificar semelhanças e correlações com as recompensas obtidas por cada agente, visando compreender a relação entre o desempenho do agente e as características observadas. Os resultados mostram variações significativas na explicabilidade entre agentes com diferentes níveis de robustez, que podem ser usadas para prever o desempenho do modelo em ambientes desconhecidos. Observou-se também que o desempenho do agente está correlacionado com a similaridade das explicações: agentes cujas explicações se assemelham às de modelos bem-sucedidos têm maior probabilidade de alcançar alto desempenho. Conclui-se, portanto, que a robustez e o desempenho de um agente estão ligados às características aprendidas para solucionar um problema. |
| Abstract: | The advancement of technology and artificial intelligence has driven the use of reinforcement learning algorithms in areas such as education and video games. Despite the success of these applications, it is still unclear what factors agents learn that ensure their high performance. Understanding how these characteristics impact results is essential for increasing user confidence and identifying failures, especially in critical applications. This work investigates the influence of performance and robustness of machine learning models on the features that agents observe when solving problems. The study analyzes whether changes in explainability are noticeable among agents with different levels of robustness, using Explainable Artificial Intelligence methods and whether these changes can predict agents’ performance in environments outside the training set. Two experiments were carried out to conduct the analysis. In the first experiment, agents with different levels of robustness were analyzed using methods such as Grad-CAM, Integrated Gradients, SHAP, and LIME to generate explanations. The impact of robustness on the agents’ explainability was evaluated through qualitative and quantitative analyses. In the second experiment, variations in models and scenarios were compared to identify similarities and correlations with the rewards obtained by each agent, aiming to understand the relationship between the agent’s performance and the observed characteristics. The results show significant variations in explainability among agents with different levels of robustness, which can be used to predict model performance in unknown environments. It was also observed that agent performance is correlated with the similarity of explanations: agents whose explanations resemble those of successful models are more likely to achieve high performance. It is concluded, therefore, that the robustness and performance of an agent are linked to the learned features for solving a problem. |
| URI: | http://repositorio.ufc.br/handle/riufc/81619 |
| Currículo Lattes do(s) Autor(es): | http://lattes.cnpq.br/0487992453736849 |
| Currículo Lattes do Orientador: | http://lattes.cnpq.br/0866205347972203 |
| Currículo Lattes do Coorientador: | http://lattes.cnpq.br/9965458635397780 |
| Tipo de Acesso: | Acesso Aberto |
| Aparece nas coleções: | DCOMP - Dissertações defendidas na UFC |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| 2024_dis_ammsantos.pdf | 7,69 MB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.