Please use this identifier to cite or link to this item: http://www.repositorio.ufc.br/handle/riufc/57947
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorMarques Júnior, William Paiva-
dc.contributor.authorRibeiro, Ana Lídia Lira-
dc.date.accessioned2021-04-23T13:00:22Z-
dc.date.available2021-04-23T13:00:22Z-
dc.date.issued2021-
dc.identifier.citationRIBEIRO, Ana Lídia Lira. Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatórios. 2021. 61 f. Monografia (Graduação em Direito) - Faculdade de Direito, Universidade Federal do Ceará, Fortaleza, 2021.pt_BR
dc.identifier.urihttp://www.repositorio.ufc.br/handle/riufc/57947-
dc.description.abstractInvestigate the existence of bias in artificial intelligence algorithms and the possibility of the LGPD being a normative instrument in order to mitigate the discriminatory bias in the decision-making of these systems. To do so, it was sought to, first of all, explain what is artificial intelligence, elucidating how its most important technologies work and the relevance of big data in this area. Afterwards, due to the polysemy of the word, it became necessary to delimit the approached concept of discriminination, along with an analysis of the existing normatives on the brazilian legal order that conceptualize it. After the initial concepts, it was explained what is an algorithm and, then, it was presented different examples of the occurrence of bias in the automated decision-making systems. Finally, it was conceptualized what is meant by algorithmic discrimination and in what ways an algorithm can become biased. Subsequently, the LGPD was analyzed about the data subject safeguards laid out in the legislation that help mitigate discriminatory biases in algorithms, and then the limits of these safeguards were looked at. The methodology used is exploratory and qualitative, based on bibliographic research, using articles, monographs, international documents, and master's dissertations, as well as documentary research, with articles of law and other normative acts. It was concluded that artificial intelligence algorithms are not neutral, since they can make discriminatory decisions through biases in their systems. Furthermore, the LGPD, besides instigating deeper discussions about the problematic approached so that, in the future, it will be possible to create a regulamentation focused on artificial intelligence, shows itself to be a good instrument to mitigate these biases to the extent that it brings indications legally imposed on developers and companies the obligation to produce deeper investigations and audits in order to analyze the true discriminatory potential of their systems and ensure results that are in compliance with the legislation.pt_BR
dc.language.isopt_BRpt_BR
dc.subjectDiscriminaçãopt_BR
dc.subjectAlgoritmospt_BR
dc.subjectInteligência Artificialpt_BR
dc.subjectLGPDpt_BR
dc.subjectDecisões automatizadaspt_BR
dc.titleDiscriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatóriospt_BR
dc.typeTCCpt_BR
dc.description.abstract-ptbrInvestiga-se a existência de discriminação em algoritmos de inteligência artificial e a possibilidade da LGPD ser um instrumento normativo a fim de mitigar os vieses discriminatórios na tomada de decisão desses sistemas. Para tanto, buscou-se primeiramente explicar o que se entende por inteligência artificial, elucidando como funcionam suas principais tecnologias e a relevância do big data nesta seara. Posteriormente, tendo em vista a polissemia da palavra, fez-se necessário delimitar o conceito de discriminação abordado, juntamente com uma análise das normativas existentes no ordenamento jurídico brasileiro que a conceituam. Após os conceitos iniciais, explicou-se o que é um algoritmo e, então, apresentou-se diferentes exemplos da ocorrência de discriminações nos sistemas de decisão automatizada. Enfim, conceituou-se o que se entende por discriminação algorítmica e de quais formas um algoritmo pode se tornar enviesado. Posteriormente, analisou-se a LGPD acerca das garantias dos titulares de dados dispostas na legislação que ajudam a mitigar os vieses discriminatórios nos algoritmos e, após, observou-se os limites dessas garantias. A metodologia utilizada é exploratória e qualitativa, a partir da pesquisa bibliográfica, utilizando-se artigos, trabalhos monográficos, documentos internacionais e dissertações de mestrado, além de pesquisa documental, com artigos de lei e outros atos normativos. Concluiu-se que os algoritmos de inteligência artificial não são neutros, visto que eles podem tomar decisões discriminatórias por meio de vieses em seus sistemas. Ademais, a LGPD, além de suscitar discussões mais aprofundadas a respeito da problemática abordada para que, futuramente, seja possível criar-se uma regulamentação voltada para a inteligência artificial, mostra-se um bom instrumento mitigador desses vieses a medida em que traz nos indicativos juridicamente impostos aos desenvolvedores e empresas a obrigação de produzirem investigações e auditorias mais profundas a fim de analisarem o verdadeiro potencial discriminatório de seus sistemas e assegurar resultados que estejam em conformidade com a legislação.pt_BR
Appears in Collections:DIREITO - Monografias

Files in This Item:
File Description SizeFormat 
2021_tcc_allribeiro.pdf641,12 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.