Use este identificador para citar ou linkar para este item:
http://repositorio.ufc.br/handle/riufc/82820| Tipo: | TCC |
| Título: | Avaliação comparativa de modelos de IA especializados na geração de código: um estudo com LLMs populares da Hugging Face |
| Autor(es): | Lima, João Lucas de Oliveira |
| Orientador: | Carvalho, Sidartha Azevedo Lobo de |
| Palavras-chave em português: | inteligência artificial;programação;benchmarking |
| CNPq: | CIÊNCIAS EXATAS E DA TERRA: CIÊNCIA DA COMPUTAÇÃO: METODOLOGIA E TÉCNICAS DA COMPUTAÇÃO: ENGENHARIA DE SOFTWARE |
| Data do documento: | 2025 |
| Citação: | LIMA, João Lucas de Oliveira. Avaliação comparativa de modelos de IA especializados na geração de código: um estudo com LLMs populares da Hugging Face. 2025. 77 f. (Graduação em Engenharia de Software) - Campus de Quixadá, Universidade Federal do Ceará, Quixadá, 2025. |
| Resumo: | Este trabalho realiza uma comparação entre Large Language Models/Modelos de Linguagem de Grande Escala (LLMs) especializados em geração de código, disponíveis na plataforma Hugging Face: codegen-350M-mono, Qwen2. 5-Coder-0. 5B-Instruct, deepseek-coder-1. 3bbase, tiny_starcoder_py e replit-code-v1-3b. Utilizando a ferramenta lm-evaluation-harness, os modelos foram avaliados com benchmarks padronizados, considerando métricas como pass@1, acc, json_validity e schema_compliance, com o objetivo de medir sua eficácia em tarefas de programação funcional e geração de dados estruturados. A metodologia incluiu execução automatizada em um ambiente controlado (Google Colab), coleta de resultados e análise estatística. Os experimentos mostraram que o modelo replit-code-v1-3b teve o melhor desempenho geral, seguido pelo deepseek-coder-1. 3b-base, especialmente em tarefas que exigem precisão semântica e conformidade com estruturas JSON. A pesquisa conclui que modelos mais robustos e ajustados para tarefas específicas têm maior aplicabilidade em contextos reais de desenvolvimento de software, indicando que devem ser preferidos em ambientes que exigem alta qualidade e confiabilidade. |
| Abstract: | This study presents a comparative evaluation of LLMs specialized in code generation, available on the Hugging Face platform: codegen-350M-mono, Qwen2.5-Coder-0.5B-Instruct, deepseekcoder-1.3b-base, tiny_starcoder_py, and replit-code-v1-3b. Using the lm-evaluation-harness tool, the models were assessed through standardized benchmarks, considering metrics such as pass@1, acc, json_validity, and schema_compliance, aiming to measure their effectiveness in functional programming tasks and structured data generation. The methodology involved automated execution in a controlled environment (Google Colab), result collection, and statistical analysis. Experimental results showed that the replit-code-v1-3b model achieved the best overall performance, followed by deepseek-coder-1.3b-base, particularly in tasks requiring semantic accuracy and compliance with JSON structures. The study concludes that more robust models, fine-tuned for specific tasks, show greater applicability in real-world software development scenarios, indicating they should be preferred in environments demanding high quality and reliability. |
| URI: | http://repositorio.ufc.br/handle/riufc/82820 |
| Currículo Lattes do Orientador: | http://lattes.cnpq.br/9163574470590664 |
| Tipo de Acesso: | Acesso Aberto |
| Aparece nas coleções: | ENGENHARIA DE SOFTWARE - QUIXADÁ - TCC |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| 2025_tcc_jlolima.pdf | 6,94 MB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.