Use este identificador para citar ou linkar para este item: http://repositorio.ufc.br/handle/riufc/69953
Tipo: Dissertação
Título: Ativando λ-justiça: não-discriminação algorítmica em árvores de decisão
Título em inglês: λ-Fairness: Algorithmic non-discrimination in decision Trees
Autor(es): Silva, Maria de Lourdes Maia
Orientador: Machado, Javam de Castro
Palavras-chave: Justiça;Classificação;Inteligência artificial;Pós-processamento;Árvore de decisão
Data do documento: 2022
Citação: SILVA, Maria de Lourdes Maia. Ativando λ-justiça: não-discriminação algorítmica em árvores de decisão. 2022. 73 f. Dissertação (Mestrado em Ciência da Computação) - Universidade Federal do Ceará, Fortaleza, 2022.
Resumo: Com o avanço tecnológico, várias entidades optam por usar modelos computacionais para classificar indivíduos, com o objetivo de negar ou conceder um benefício. Por exemplo, em concessões de empréstimo bancário, em que o banco classifica se uma pessoa é apta a receber um empréstimo ou não. Apesar de aplicações de Inteligência Artificial (IA) serem úteis para tomadas de decisão, elas não são livres de discriminação. Quando um algoritmo é treinado com dados historicamente discriminatórios, ou a base de dados é desbalanceada no que diz respeito às características minoritárias, o modelo tende a propagar a discriminação presente nos dados de treinamento. Para classificar indivíduos semelhantes de forma semelhante, ou seja, rotular analogamente as pessoas com habilidades e características similares para a realização de uma tarefa, são necessárias restrições de justiça, que, por sua vez, podem alterar as classificações, prejudicando a acurácia do algoritmo. Neste trabalho, são definidas uma métrica para calcular o quão justo é um modelo e duas propriedades para mitigar o problema gerado pela propagação de discriminação de indivíduos ao mesmo tempo que lidam com o trade-off entre utilidade e justiça. As propriedades são ativadas na etapa de pós-processamento. Além disso, propomos a ativação das propriedades definidas para o modelo de Árvore de Decisão. Os resultados obtidos a partir da aplicação das propriedades de justiça propostas usando Árvore de Decisão atingiram altos níveis de utilidade e justiça.
Abstract: With technological advancements, several entities use computational models to classify individuals to deny or grant a benefit. For example, the bank ranks whether a person can receive a loan in bank loan grants. Although Artificial Intelligence (AI) applications are helpful for decision-making, they are not free from discrimination. When an algorithm is trained with historically discriminatory data or the database is unbalanced concerning minority characteristics, the model tends to propagate the bias present in the training data. To classify similar individuals similarly, that is, to correspondingly label people with similar abilities and characteristics to perform a task, restrictions of fairness are necessary, which, in turn, can change the classifications, impairing accuracy. In this work, we define a metric to measure how fair is a model, and two properties to mitigate the problem generated by the propagation of discrimination of individuals while dealing with the trade-off between utility and fairness. A model achieves the properties in post-processing step. Furthermore, we propose activating the properties defined for the Decision Tree model. The results obtained from the application of the proposed justice properties using the Decision Tree reached high levels of utility and fairness.
URI: http://www.repositorio.ufc.br/handle/riufc/69953
Aparece nas coleções:DCOMP - Dissertações defendidas na UFC

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2022_dis_mlmsilva.pdf3,48 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.