Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.ufc.br/handle/riufc/69953
Tipo: Dissertação
Título : Ativando λ-justiça: não-discriminação algorítmica em árvores de decisão
Título en inglés: λ-Fairness: Algorithmic non-discrimination in decision Trees
Autor : Silva, Maria de Lourdes Maia
Tutor: Machado, Javam de Castro
Palabras clave : Justiça;Classificação;Inteligência artificial;Pós-processamento;Árvore de decisão
Fecha de publicación : 2022
Citación : SILVA, Maria de Lourdes Maia. Ativando λ-justiça: não-discriminação algorítmica em árvores de decisão. 2022. 73 f. Dissertação (Mestrado em Ciência da Computação) - Universidade Federal do Ceará, Fortaleza, 2022.
Resumen en portugués brasileño: Com o avanço tecnológico, várias entidades optam por usar modelos computacionais para classificar indivíduos, com o objetivo de negar ou conceder um benefício. Por exemplo, em concessões de empréstimo bancário, em que o banco classifica se uma pessoa é apta a receber um empréstimo ou não. Apesar de aplicações de Inteligência Artificial (IA) serem úteis para tomadas de decisão, elas não são livres de discriminação. Quando um algoritmo é treinado com dados historicamente discriminatórios, ou a base de dados é desbalanceada no que diz respeito às características minoritárias, o modelo tende a propagar a discriminação presente nos dados de treinamento. Para classificar indivíduos semelhantes de forma semelhante, ou seja, rotular analogamente as pessoas com habilidades e características similares para a realização de uma tarefa, são necessárias restrições de justiça, que, por sua vez, podem alterar as classificações, prejudicando a acurácia do algoritmo. Neste trabalho, são definidas uma métrica para calcular o quão justo é um modelo e duas propriedades para mitigar o problema gerado pela propagação de discriminação de indivíduos ao mesmo tempo que lidam com o trade-off entre utilidade e justiça. As propriedades são ativadas na etapa de pós-processamento. Além disso, propomos a ativação das propriedades definidas para o modelo de Árvore de Decisão. Os resultados obtidos a partir da aplicação das propriedades de justiça propostas usando Árvore de Decisão atingiram altos níveis de utilidade e justiça.
Abstract: With technological advancements, several entities use computational models to classify individuals to deny or grant a benefit. For example, the bank ranks whether a person can receive a loan in bank loan grants. Although Artificial Intelligence (AI) applications are helpful for decision-making, they are not free from discrimination. When an algorithm is trained with historically discriminatory data or the database is unbalanced concerning minority characteristics, the model tends to propagate the bias present in the training data. To classify similar individuals similarly, that is, to correspondingly label people with similar abilities and characteristics to perform a task, restrictions of fairness are necessary, which, in turn, can change the classifications, impairing accuracy. In this work, we define a metric to measure how fair is a model, and two properties to mitigate the problem generated by the propagation of discrimination of individuals while dealing with the trade-off between utility and fairness. A model achieves the properties in post-processing step. Furthermore, we propose activating the properties defined for the Decision Tree model. The results obtained from the application of the proposed justice properties using the Decision Tree reached high levels of utility and fairness.
URI : http://www.repositorio.ufc.br/handle/riufc/69953
Aparece en las colecciones: DCOMP - Dissertações defendidas na UFC

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
2022_dis_mlmsilva.pdf3,48 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.