Use este identificador para citar ou linkar para este item:
http://repositorio.ufc.br/handle/riufc/85300| Tipo: | Dissertação |
| Título: | Análise de desempenho da quantização em soluções de aprendizado dividido federado |
| Título em inglês: | Performance analysis of quantization in split federated learning solutions |
| Autor(es): | Sales, Claro Henrique Silva |
| Orientador: | Carvalho Junior, Francisco Heron de |
| Palavras-chave em português: | Aprendizado profundo;Aprendizado dividido federado;Quantização |
| Palavras-chave em inglês: | Deep learning;Split federated learning;Quantization |
| CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
| Data do documento: | 2025 |
| Citação: | SALES, Claro Henrique Silva. Análise de desempenho da quantização em soluções de aprendizado dividido federado. 2026. 65 f. Dissertação (Mestrado em Ciência da Computação) - Universidade Federal do Ceará, Fortaleza, 2025. |
| Resumo: | O presente trabalho aborda o Aprendizado Dividido Federado (ADF), uma técnica que permite o treino de modelos de redes neurais artificiais entre diferentes entidades sem o compartilhamento direto de seus dados, preservando a privacidade. Ao particionar o modelo entre o cliente e o servidor, o ADF também ajuda a reduzir a carga computacional no lado do cliente. Apesar de suas vantagens, utilizar essa solução ainda é um desafio em ambientes computacionalmente limitados, como dispositivos móveis e IoT, especialmente do lado do cliente. Este trabalho analisa o desempenho do uso de quantização, uma técnica que reduz a precisão numérica dos parâmetros e das ativações de redes neurais, para reduzir os custos computacionais no cliente durante a inferência em soluções de ADF. Para isso, um estudo empírico foi conduzido em um ambiente na nuvem, utilizando os modelos VGG11, ResNet18 e MobileNetV2, bem como variações IID e não-IID do conjunto de dados CIFAR-10. Comparam-se os esquemas de Quantização Pós-Treino (QPT) e de Treino Consciente de Quantização (TCQ) com o modelo de precisão completa. Os resultados demonstram que os ganhos e as perdas da quantização estão diretamente ligados à arquitetura, à escolha da camada de corte e à quantização do modelo do cliente. A quantização do modelo do cliente acelerou, em média, a etapa de propagação do cliente em 4,3. A redução no consumo de memória esteve entre 26% a 56%, enquanto a redução do consumo de rede se manteve em 75% para todos os casos. A perda na acurácia também está ligada à arquitetura: enquanto os modelos VGG11 e ResNet18 mantiveram a perda de acurácia menor que 2%, a QPT na arquitetura MobileNetV2 obteve perdas de acurácia de até 22,7%, tornando o uso de TCQ essencial. |
| Abstract: | This paper addresses Split Federated Learning (SFL), a technique that enables artificial neural network models to be trained across multiple entities without directly sharing their data, thereby preserving data privacy. By partitioning the model between the client and the server, SFL also helps to reduce the computational load on the client side. However, despite its advantages, using this solution remains challenging in computationally constrained environments, such as mobile devices and IoT devices, especially on the client side. This work analyzes the performance of quantization, a technique that reduces the numerical precision of neural network parameters and activations to lower computational costs for clients during inference in SFL solutions. To this end, an empirical study was conducted in a cloud environment using the VGG11, ResNet18, and MobileNetV2 models over IID and non-IID variations of the CIFAR-10 dataset. The Post-Training Quantization (PTQ) and Quantization-Aware Training (QAT) schemes are compared with the full-precision model. The results demonstrate that the gains and losses from quantization are directly linked to the architecture, the choice of the cut layer, and the data distribution. Quantizing the client model accelerated the client’s forward pass by 4.3 on average. The reduction in memory consumption ranged from 26% to 56%, while the decrease in network consumption remained at 75% for all cases. The accuracy loss is also linked to the architecture: while the VGG11 and ResNet18 models maintained an accuracy loss of less than 2%, PTQ on the MobileNetV2 architecture led to losses of up to 22.7%, underscoring the need for QAT. |
| URI: | http://repositorio.ufc.br/handle/riufc/85300 |
| ORCID do(s) Autor(es): | https://orcid.org/0000-0003-2752-1298 |
| Currículo Lattes do(s) Autor(es): | http://lattes.cnpq.br/9558592625667751 |
| Currículo Lattes do Orientador: | https://lattes.cnpq.br/4164818158160492 |
| Tipo de Acesso: | Acesso Aberto |
| Aparece nas coleções: | DCOMP - Dissertações defendidas na UFC |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| 2025_dis_chssales.pdf | 678,54 kB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.