Use este identificador para citar ou linkar para este item: http://repositorio.ufc.br/handle/riufc/82820
Tipo: TCC
Título: Avaliação comparativa de modelos de IA especializados na geração de código: um estudo com LLMs populares da Hugging Face
Autor(es): Lima, João Lucas de Oliveira
Orientador: Carvalho, Sidartha Azevedo Lobo de
Palavras-chave em português: inteligência artificial;programação;benchmarking
CNPq: CIÊNCIAS EXATAS E DA TERRA: CIÊNCIA DA COMPUTAÇÃO: METODOLOGIA E TÉCNICAS DA COMPUTAÇÃO: ENGENHARIA DE SOFTWARE
Data do documento: 2025
Citação: LIMA, João Lucas de Oliveira. Avaliação comparativa de modelos de IA especializados na geração de código: um estudo com LLMs populares da Hugging Face. 2025. 77 f. (Graduação em Engenharia de Software) - Campus de Quixadá, Universidade Federal do Ceará, Quixadá, 2025.
Resumo: Este trabalho realiza uma comparação entre Large Language Models/Modelos de Linguagem de Grande Escala (LLMs) especializados em geração de código, disponíveis na plataforma Hugging Face: codegen-350M-mono, Qwen2. 5-Coder-0. 5B-Instruct, deepseek-coder-1. 3bbase, tiny_starcoder_py e replit-code-v1-3b. Utilizando a ferramenta lm-evaluation-harness, os modelos foram avaliados com benchmarks padronizados, considerando métricas como pass@1, acc, json_validity e schema_compliance, com o objetivo de medir sua eficácia em tarefas de programação funcional e geração de dados estruturados. A metodologia incluiu execução automatizada em um ambiente controlado (Google Colab), coleta de resultados e análise estatística. Os experimentos mostraram que o modelo replit-code-v1-3b teve o melhor desempenho geral, seguido pelo deepseek-coder-1. 3b-base, especialmente em tarefas que exigem precisão semântica e conformidade com estruturas JSON. A pesquisa conclui que modelos mais robustos e ajustados para tarefas específicas têm maior aplicabilidade em contextos reais de desenvolvimento de software, indicando que devem ser preferidos em ambientes que exigem alta qualidade e confiabilidade.
Abstract: This study presents a comparative evaluation of LLMs specialized in code generation, available on the Hugging Face platform: codegen-350M-mono, Qwen2.5-Coder-0.5B-Instruct, deepseekcoder-1.3b-base, tiny_starcoder_py, and replit-code-v1-3b. Using the lm-evaluation-harness tool, the models were assessed through standardized benchmarks, considering metrics such as pass@1, acc, json_validity, and schema_compliance, aiming to measure their effectiveness in functional programming tasks and structured data generation. The methodology involved automated execution in a controlled environment (Google Colab), result collection, and statistical analysis. Experimental results showed that the replit-code-v1-3b model achieved the best overall performance, followed by deepseek-coder-1.3b-base, particularly in tasks requiring semantic accuracy and compliance with JSON structures. The study concludes that more robust models, fine-tuned for specific tasks, show greater applicability in real-world software development scenarios, indicating they should be preferred in environments demanding high quality and reliability.
URI: http://repositorio.ufc.br/handle/riufc/82820
Currículo Lattes do Orientador: http://lattes.cnpq.br/9163574470590664
Tipo de Acesso: Acesso Aberto
Aparece nas coleções:ENGENHARIA DE SOFTWARE - QUIXADÁ - TCC

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2025_tcc_jlolima.pdf6,94 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.