Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.ufc.br/handle/riufc/81270
Tipo: TCC
Título : Um benchmark para avaliação de grandes modelos de linguagem no português usando questões do exame nacional do ensino médio
Autor : Rodrigues, Carlos Gabriel de Castro
Tutor: Magalhães, Regis Pires
Co-asesor: Rêgo, Luis Gustavo Coutinho do
Palabras clave en portugués brasileño: grandes modelos de linguagem;benchmark;avaliação
Áreas de Conocimiento - CNPq: CNPQ: CIÊNCIAS EXATAS E DA TERRA: CIÊNCIA DA COMPUTAÇÃO
Fecha de publicación : 2025
Citación : RODRIGUES, Carlos Gabriel de Castro. Um benchmark para avaliação de grandes modelos de linguagem no português usando questões do exame nacional do ensino médio. 2025. 59 f. Trabalho de Conclusão de Curso (Graduação em Ciência da Computação) - Campus de Quixadá, Universidade Federal do Ceará, Quixadá, 2025.
Resumen en portugués brasileño: Grandes Modelos de Linguagem (LLMs) têm se tornado fundamentais para diversas aplicações, incluindo inteligência artificial, processamento de linguagem natural e sistemas de automação. No entanto, a avaliação de seu desempenho em português ainda apresenta desafios, uma vez que a maioria dos benchmarks disponíveis está focada no inglês. Este trabalho propõe um benchmark para a avaliação de LLMs na língua portuguesa, utilizando questões de múltipla escolha extraídas do Exame Nacional do Ensino Médio (ENEM) de diferentes anos. O objetivo é medir a acurácia dos modelos e sua aderência às instruções explícitas nos prompts. Para isso, foram testados diversos modelos de código aberto, avaliando sua acurácia e conformidade na formatação das respostas. Os resultados indicam que há variações significativas no desempenho dos modelos, evidenciando a necessidade de aprimoramento na adaptação para o português. Além disso, o estudo contribui para a criação de metodologias mais eficazes de avaliação e desenvolvimento de LLMs para a língua portuguesa.
Abstract: Large Language Models (LLMs) have become fundamental to many applications, including artificial intelligence, natural language processing and automation systems. However, evaluating their performance in Portuguese still presents challenges, since most of the available benchmarks are focused on English. This paper proposes a benchmark for evaluating LLMs in Portuguese, using multiple-choice questions taken from the National High School Exam (ENEM) from different years. The aim is to measure the accuracy of the models and their adherence to the explicit instructions in the prompts. To this end, several open source models were tested, evaluating their accuracy and compliance in the formatting of the answers. The results indicate that there are significant variations in the performance of the models, highlighting the need to improve their adaptation into Portuguese. In addition, the study contributes to the creation of more effective methodologies for evaluating and developing LLMs for the Portuguese language.
URI : http://repositorio.ufc.br/handle/riufc/81270
Lattes del tutor: http://lattes.cnpq.br/7195981513707548
Lattes del co-asesor: http://lattes.cnpq.br/4359553644291293
Derechos de acceso: Acesso Aberto
Aparece en las colecciones: CIÊNCIA DA COMPUTAÇÃO-QUIXADÁ - Monografias

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
2025_tcc_cgcrodrigue (1).pdf727,95 kBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.