Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.ufc.br/handle/riufc/82820
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorCarvalho, Sidartha Azevedo Lobo de-
dc.contributor.authorLima, João Lucas de Oliveira-
dc.date.accessioned2025-10-01T15:06:45Z-
dc.date.available2025-10-01T15:06:45Z-
dc.date.issued2025-
dc.identifier.citationLIMA, João Lucas de Oliveira. Avaliação comparativa de modelos de IA especializados na geração de código: um estudo com LLMs populares da Hugging Face. 2025. 77 f. (Graduação em Engenharia de Software) - Campus de Quixadá, Universidade Federal do Ceará, Quixadá, 2025.pt_BR
dc.identifier.urihttp://repositorio.ufc.br/handle/riufc/82820-
dc.description.abstractThis study presents a comparative evaluation of LLMs specialized in code generation, available on the Hugging Face platform: codegen-350M-mono, Qwen2.5-Coder-0.5B-Instruct, deepseekcoder-1.3b-base, tiny_starcoder_py, and replit-code-v1-3b. Using the lm-evaluation-harness tool, the models were assessed through standardized benchmarks, considering metrics such as pass@1, acc, json_validity, and schema_compliance, aiming to measure their effectiveness in functional programming tasks and structured data generation. The methodology involved automated execution in a controlled environment (Google Colab), result collection, and statistical analysis. Experimental results showed that the replit-code-v1-3b model achieved the best overall performance, followed by deepseek-coder-1.3b-base, particularly in tasks requiring semantic accuracy and compliance with JSON structures. The study concludes that more robust models, fine-tuned for specific tasks, show greater applicability in real-world software development scenarios, indicating they should be preferred in environments demanding high quality and reliability.pt_BR
dc.language.isopt_BRpt_BR
dc.rightsAcesso Abertopt_BR
dc.titleAvaliação comparativa de modelos de IA especializados na geração de código: um estudo com LLMs populares da Hugging Facept_BR
dc.typeTCCpt_BR
dc.description.abstract-ptbrEste trabalho realiza uma comparação entre Large Language Models/Modelos de Linguagem de Grande Escala (LLMs) especializados em geração de código, disponíveis na plataforma Hugging Face: codegen-350M-mono, Qwen2. 5-Coder-0. 5B-Instruct, deepseek-coder-1. 3bbase, tiny_starcoder_py e replit-code-v1-3b. Utilizando a ferramenta lm-evaluation-harness, os modelos foram avaliados com benchmarks padronizados, considerando métricas como pass@1, acc, json_validity e schema_compliance, com o objetivo de medir sua eficácia em tarefas de programação funcional e geração de dados estruturados. A metodologia incluiu execução automatizada em um ambiente controlado (Google Colab), coleta de resultados e análise estatística. Os experimentos mostraram que o modelo replit-code-v1-3b teve o melhor desempenho geral, seguido pelo deepseek-coder-1. 3b-base, especialmente em tarefas que exigem precisão semântica e conformidade com estruturas JSON. A pesquisa conclui que modelos mais robustos e ajustados para tarefas específicas têm maior aplicabilidade em contextos reais de desenvolvimento de software, indicando que devem ser preferidos em ambientes que exigem alta qualidade e confiabilidade.pt_BR
dc.subject.ptbrinteligência artificialpt_BR
dc.subject.ptbrprogramaçãopt_BR
dc.subject.ptbrbenchmarkingpt_BR
dc.subject.cnpqCIÊNCIAS EXATAS E DA TERRA: CIÊNCIA DA COMPUTAÇÃO: METODOLOGIA E TÉCNICAS DA COMPUTAÇÃO: ENGENHARIA DE SOFTWAREpt_BR
local.advisor.latteshttp://lattes.cnpq.br/9163574470590664pt_BR
Aparece en las colecciones: ENGENHARIA DE SOFTWARE - QUIXADÁ - TCC

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
2025_tcc_jlolima.pdf6,94 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.