Use este identificador para citar ou linkar para este item:
http://repositorio.ufc.br/handle/riufc/81270| Tipo: | TCC |
| Título: | Um benchmark para avaliação de grandes modelos de linguagem no português usando questões do exame nacional do ensino médio |
| Autor(es): | Rodrigues, Carlos Gabriel de Castro |
| Orientador: | Magalhães, Regis Pires |
| Coorientador: | Rêgo, Luis Gustavo Coutinho do |
| Palavras-chave em português: | grandes modelos de linguagem;benchmark;avaliação |
| CNPq: | CNPQ: CIÊNCIAS EXATAS E DA TERRA: CIÊNCIA DA COMPUTAÇÃO |
| Data do documento: | 2025 |
| Citação: | RODRIGUES, Carlos Gabriel de Castro. Um benchmark para avaliação de grandes modelos de linguagem no português usando questões do exame nacional do ensino médio. 2025. 59 f. Trabalho de Conclusão de Curso (Graduação em Ciência da Computação) - Campus de Quixadá, Universidade Federal do Ceará, Quixadá, 2025. |
| Resumo: | Grandes Modelos de Linguagem (LLMs) têm se tornado fundamentais para diversas aplicações, incluindo inteligência artificial, processamento de linguagem natural e sistemas de automação. No entanto, a avaliação de seu desempenho em português ainda apresenta desafios, uma vez que a maioria dos benchmarks disponíveis está focada no inglês. Este trabalho propõe um benchmark para a avaliação de LLMs na língua portuguesa, utilizando questões de múltipla escolha extraídas do Exame Nacional do Ensino Médio (ENEM) de diferentes anos. O objetivo é medir a acurácia dos modelos e sua aderência às instruções explícitas nos prompts. Para isso, foram testados diversos modelos de código aberto, avaliando sua acurácia e conformidade na formatação das respostas. Os resultados indicam que há variações significativas no desempenho dos modelos, evidenciando a necessidade de aprimoramento na adaptação para o português. Além disso, o estudo contribui para a criação de metodologias mais eficazes de avaliação e desenvolvimento de LLMs para a língua portuguesa. |
| Abstract: | Large Language Models (LLMs) have become fundamental to many applications, including artificial intelligence, natural language processing and automation systems. However, evaluating their performance in Portuguese still presents challenges, since most of the available benchmarks are focused on English. This paper proposes a benchmark for evaluating LLMs in Portuguese, using multiple-choice questions taken from the National High School Exam (ENEM) from different years. The aim is to measure the accuracy of the models and their adherence to the explicit instructions in the prompts. To this end, several open source models were tested, evaluating their accuracy and compliance in the formatting of the answers. The results indicate that there are significant variations in the performance of the models, highlighting the need to improve their adaptation into Portuguese. In addition, the study contributes to the creation of more effective methodologies for evaluating and developing LLMs for the Portuguese language. |
| URI: | http://repositorio.ufc.br/handle/riufc/81270 |
| Currículo Lattes do Orientador: | http://lattes.cnpq.br/7195981513707548 |
| Currículo Lattes do Coorientador: | http://lattes.cnpq.br/4359553644291293 |
| Tipo de Acesso: | Acesso Aberto |
| Aparece nas coleções: | CIÊNCIA DA COMPUTAÇÃO-QUIXADÁ - Monografias |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| 2025_tcc_cgcrodrigue (1).pdf | 727,95 kB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.