Use este identificador para citar ou linkar para este item: http://repositorio.ufc.br/handle/riufc/81270
Tipo: TCC
Título: Um benchmark para avaliação de grandes modelos de linguagem no português usando questões do exame nacional do ensino médio
Autor(es): Rodrigues, Carlos Gabriel de Castro
Orientador: Magalhães, Regis Pires
Coorientador: Rêgo, Luis Gustavo Coutinho do
Palavras-chave em português: grandes modelos de linguagem;benchmark;avaliação
CNPq: CNPQ: CIÊNCIAS EXATAS E DA TERRA: CIÊNCIA DA COMPUTAÇÃO
Data do documento: 2025
Citação: RODRIGUES, Carlos Gabriel de Castro. Um benchmark para avaliação de grandes modelos de linguagem no português usando questões do exame nacional do ensino médio. 2025. 59 f. Trabalho de Conclusão de Curso (Graduação em Ciência da Computação) - Campus de Quixadá, Universidade Federal do Ceará, Quixadá, 2025.
Resumo: Grandes Modelos de Linguagem (LLMs) têm se tornado fundamentais para diversas aplicações, incluindo inteligência artificial, processamento de linguagem natural e sistemas de automação. No entanto, a avaliação de seu desempenho em português ainda apresenta desafios, uma vez que a maioria dos benchmarks disponíveis está focada no inglês. Este trabalho propõe um benchmark para a avaliação de LLMs na língua portuguesa, utilizando questões de múltipla escolha extraídas do Exame Nacional do Ensino Médio (ENEM) de diferentes anos. O objetivo é medir a acurácia dos modelos e sua aderência às instruções explícitas nos prompts. Para isso, foram testados diversos modelos de código aberto, avaliando sua acurácia e conformidade na formatação das respostas. Os resultados indicam que há variações significativas no desempenho dos modelos, evidenciando a necessidade de aprimoramento na adaptação para o português. Além disso, o estudo contribui para a criação de metodologias mais eficazes de avaliação e desenvolvimento de LLMs para a língua portuguesa.
Abstract: Large Language Models (LLMs) have become fundamental to many applications, including artificial intelligence, natural language processing and automation systems. However, evaluating their performance in Portuguese still presents challenges, since most of the available benchmarks are focused on English. This paper proposes a benchmark for evaluating LLMs in Portuguese, using multiple-choice questions taken from the National High School Exam (ENEM) from different years. The aim is to measure the accuracy of the models and their adherence to the explicit instructions in the prompts. To this end, several open source models were tested, evaluating their accuracy and compliance in the formatting of the answers. The results indicate that there are significant variations in the performance of the models, highlighting the need to improve their adaptation into Portuguese. In addition, the study contributes to the creation of more effective methodologies for evaluating and developing LLMs for the Portuguese language.
URI: http://repositorio.ufc.br/handle/riufc/81270
Currículo Lattes do Orientador: http://lattes.cnpq.br/7195981513707548
Currículo Lattes do Coorientador: http://lattes.cnpq.br/4359553644291293
Tipo de Acesso: Acesso Aberto
Aparece nas coleções:CIÊNCIA DA COMPUTAÇÃO-QUIXADÁ - Monografias

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2025_tcc_cgcrodrigue (1).pdf727,95 kBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.