Por favor, use este identificador para citar o enlazar este ítem:
http://repositorio.ufc.br/handle/riufc/82820Registro completo de metadatos
| Campo DC | Valor | Lengua/Idioma |
|---|---|---|
| dc.contributor.advisor | Carvalho, Sidartha Azevedo Lobo de | - |
| dc.contributor.author | Lima, João Lucas de Oliveira | - |
| dc.date.accessioned | 2025-10-01T15:06:45Z | - |
| dc.date.available | 2025-10-01T15:06:45Z | - |
| dc.date.issued | 2025 | - |
| dc.identifier.citation | LIMA, João Lucas de Oliveira. Avaliação comparativa de modelos de IA especializados na geração de código: um estudo com LLMs populares da Hugging Face. 2025. 77 f. (Graduação em Engenharia de Software) - Campus de Quixadá, Universidade Federal do Ceará, Quixadá, 2025. | pt_BR |
| dc.identifier.uri | http://repositorio.ufc.br/handle/riufc/82820 | - |
| dc.description.abstract | This study presents a comparative evaluation of LLMs specialized in code generation, available on the Hugging Face platform: codegen-350M-mono, Qwen2.5-Coder-0.5B-Instruct, deepseekcoder-1.3b-base, tiny_starcoder_py, and replit-code-v1-3b. Using the lm-evaluation-harness tool, the models were assessed through standardized benchmarks, considering metrics such as pass@1, acc, json_validity, and schema_compliance, aiming to measure their effectiveness in functional programming tasks and structured data generation. The methodology involved automated execution in a controlled environment (Google Colab), result collection, and statistical analysis. Experimental results showed that the replit-code-v1-3b model achieved the best overall performance, followed by deepseek-coder-1.3b-base, particularly in tasks requiring semantic accuracy and compliance with JSON structures. The study concludes that more robust models, fine-tuned for specific tasks, show greater applicability in real-world software development scenarios, indicating they should be preferred in environments demanding high quality and reliability. | pt_BR |
| dc.language.iso | pt_BR | pt_BR |
| dc.rights | Acesso Aberto | pt_BR |
| dc.title | Avaliação comparativa de modelos de IA especializados na geração de código: um estudo com LLMs populares da Hugging Face | pt_BR |
| dc.type | TCC | pt_BR |
| dc.description.abstract-ptbr | Este trabalho realiza uma comparação entre Large Language Models/Modelos de Linguagem de Grande Escala (LLMs) especializados em geração de código, disponíveis na plataforma Hugging Face: codegen-350M-mono, Qwen2. 5-Coder-0. 5B-Instruct, deepseek-coder-1. 3bbase, tiny_starcoder_py e replit-code-v1-3b. Utilizando a ferramenta lm-evaluation-harness, os modelos foram avaliados com benchmarks padronizados, considerando métricas como pass@1, acc, json_validity e schema_compliance, com o objetivo de medir sua eficácia em tarefas de programação funcional e geração de dados estruturados. A metodologia incluiu execução automatizada em um ambiente controlado (Google Colab), coleta de resultados e análise estatística. Os experimentos mostraram que o modelo replit-code-v1-3b teve o melhor desempenho geral, seguido pelo deepseek-coder-1. 3b-base, especialmente em tarefas que exigem precisão semântica e conformidade com estruturas JSON. A pesquisa conclui que modelos mais robustos e ajustados para tarefas específicas têm maior aplicabilidade em contextos reais de desenvolvimento de software, indicando que devem ser preferidos em ambientes que exigem alta qualidade e confiabilidade. | pt_BR |
| dc.subject.ptbr | inteligência artificial | pt_BR |
| dc.subject.ptbr | programação | pt_BR |
| dc.subject.ptbr | benchmarking | pt_BR |
| dc.subject.cnpq | CIÊNCIAS EXATAS E DA TERRA: CIÊNCIA DA COMPUTAÇÃO: METODOLOGIA E TÉCNICAS DA COMPUTAÇÃO: ENGENHARIA DE SOFTWARE | pt_BR |
| local.advisor.lattes | http://lattes.cnpq.br/9163574470590664 | pt_BR |
| Aparece en las colecciones: | ENGENHARIA DE SOFTWARE - QUIXADÁ - TCC | |
Ficheros en este ítem:
| Fichero | Descripción | Tamaño | Formato | |
|---|---|---|---|---|
| 2025_tcc_jlolima.pdf | 6,94 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.