Please use this identifier to cite or link to this item:
http://repositorio.ufc.br/handle/riufc/82820| Type: | TCC |
| Title: | Avaliação comparativa de modelos de IA especializados na geração de código: um estudo com LLMs populares da Hugging Face |
| Authors: | Lima, João Lucas de Oliveira |
| Advisor: | Carvalho, Sidartha Azevedo Lobo de |
| Keywords in Brazilian Portuguese : | inteligência artificial;programação;benchmarking |
| Knowledge Areas - CNPq: | CIÊNCIAS EXATAS E DA TERRA: CIÊNCIA DA COMPUTAÇÃO: METODOLOGIA E TÉCNICAS DA COMPUTAÇÃO: ENGENHARIA DE SOFTWARE |
| Issue Date: | 2025 |
| Citation: | LIMA, João Lucas de Oliveira. Avaliação comparativa de modelos de IA especializados na geração de código: um estudo com LLMs populares da Hugging Face. 2025. 77 f. (Graduação em Engenharia de Software) - Campus de Quixadá, Universidade Federal do Ceará, Quixadá, 2025. |
| Abstract in Brazilian Portuguese: | Este trabalho realiza uma comparação entre Large Language Models/Modelos de Linguagem de Grande Escala (LLMs) especializados em geração de código, disponíveis na plataforma Hugging Face: codegen-350M-mono, Qwen2. 5-Coder-0. 5B-Instruct, deepseek-coder-1. 3bbase, tiny_starcoder_py e replit-code-v1-3b. Utilizando a ferramenta lm-evaluation-harness, os modelos foram avaliados com benchmarks padronizados, considerando métricas como pass@1, acc, json_validity e schema_compliance, com o objetivo de medir sua eficácia em tarefas de programação funcional e geração de dados estruturados. A metodologia incluiu execução automatizada em um ambiente controlado (Google Colab), coleta de resultados e análise estatística. Os experimentos mostraram que o modelo replit-code-v1-3b teve o melhor desempenho geral, seguido pelo deepseek-coder-1. 3b-base, especialmente em tarefas que exigem precisão semântica e conformidade com estruturas JSON. A pesquisa conclui que modelos mais robustos e ajustados para tarefas específicas têm maior aplicabilidade em contextos reais de desenvolvimento de software, indicando que devem ser preferidos em ambientes que exigem alta qualidade e confiabilidade. |
| Abstract: | This study presents a comparative evaluation of LLMs specialized in code generation, available on the Hugging Face platform: codegen-350M-mono, Qwen2.5-Coder-0.5B-Instruct, deepseekcoder-1.3b-base, tiny_starcoder_py, and replit-code-v1-3b. Using the lm-evaluation-harness tool, the models were assessed through standardized benchmarks, considering metrics such as pass@1, acc, json_validity, and schema_compliance, aiming to measure their effectiveness in functional programming tasks and structured data generation. The methodology involved automated execution in a controlled environment (Google Colab), result collection, and statistical analysis. Experimental results showed that the replit-code-v1-3b model achieved the best overall performance, followed by deepseek-coder-1.3b-base, particularly in tasks requiring semantic accuracy and compliance with JSON structures. The study concludes that more robust models, fine-tuned for specific tasks, show greater applicability in real-world software development scenarios, indicating they should be preferred in environments demanding high quality and reliability. |
| URI: | http://repositorio.ufc.br/handle/riufc/82820 |
| Advisor's Lattes: | http://lattes.cnpq.br/9163574470590664 |
| Access Rights: | Acesso Aberto |
| Appears in Collections: | ENGENHARIA DE SOFTWARE - QUIXADÁ - TCC |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| 2025_tcc_jlolima.pdf | 6,94 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.