Please use this identifier to cite or link to this item: http://repositorio.ufc.br/handle/riufc/69953
Type: Dissertação
Title: Ativando λ-justiça: não-discriminação algorítmica em árvores de decisão
Title in English: λ-Fairness: Algorithmic non-discrimination in decision Trees
Authors: Silva, Maria de Lourdes Maia
Advisor: Machado, Javam de Castro
Keywords: Justiça;Classificação;Inteligência artificial;Pós-processamento;Árvore de decisão
Issue Date: 2022
Citation: SILVA, Maria de Lourdes Maia. Ativando λ-justiça: não-discriminação algorítmica em árvores de decisão. 2022. 73 f. Dissertação (Mestrado em Ciência da Computação) - Universidade Federal do Ceará, Fortaleza, 2022.
Abstract in Brazilian Portuguese: Com o avanço tecnológico, várias entidades optam por usar modelos computacionais para classificar indivíduos, com o objetivo de negar ou conceder um benefício. Por exemplo, em concessões de empréstimo bancário, em que o banco classifica se uma pessoa é apta a receber um empréstimo ou não. Apesar de aplicações de Inteligência Artificial (IA) serem úteis para tomadas de decisão, elas não são livres de discriminação. Quando um algoritmo é treinado com dados historicamente discriminatórios, ou a base de dados é desbalanceada no que diz respeito às características minoritárias, o modelo tende a propagar a discriminação presente nos dados de treinamento. Para classificar indivíduos semelhantes de forma semelhante, ou seja, rotular analogamente as pessoas com habilidades e características similares para a realização de uma tarefa, são necessárias restrições de justiça, que, por sua vez, podem alterar as classificações, prejudicando a acurácia do algoritmo. Neste trabalho, são definidas uma métrica para calcular o quão justo é um modelo e duas propriedades para mitigar o problema gerado pela propagação de discriminação de indivíduos ao mesmo tempo que lidam com o trade-off entre utilidade e justiça. As propriedades são ativadas na etapa de pós-processamento. Além disso, propomos a ativação das propriedades definidas para o modelo de Árvore de Decisão. Os resultados obtidos a partir da aplicação das propriedades de justiça propostas usando Árvore de Decisão atingiram altos níveis de utilidade e justiça.
Abstract: With technological advancements, several entities use computational models to classify individuals to deny or grant a benefit. For example, the bank ranks whether a person can receive a loan in bank loan grants. Although Artificial Intelligence (AI) applications are helpful for decision-making, they are not free from discrimination. When an algorithm is trained with historically discriminatory data or the database is unbalanced concerning minority characteristics, the model tends to propagate the bias present in the training data. To classify similar individuals similarly, that is, to correspondingly label people with similar abilities and characteristics to perform a task, restrictions of fairness are necessary, which, in turn, can change the classifications, impairing accuracy. In this work, we define a metric to measure how fair is a model, and two properties to mitigate the problem generated by the propagation of discrimination of individuals while dealing with the trade-off between utility and fairness. A model achieves the properties in post-processing step. Furthermore, we propose activating the properties defined for the Decision Tree model. The results obtained from the application of the proposed justice properties using the Decision Tree reached high levels of utility and fairness.
URI: http://www.repositorio.ufc.br/handle/riufc/69953
Appears in Collections:DCOMP - Dissertações defendidas na UFC

Files in This Item:
File Description SizeFormat 
2022_dis_mlmsilva.pdf3,48 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.