Use este identificador para citar ou linkar para este item: http://repositorio.ufc.br/handle/riufc/85300
Tipo: Dissertação
Título: Análise de desempenho da quantização em soluções de aprendizado dividido federado
Título em inglês: Performance analysis of quantization in split federated learning solutions
Autor(es): Sales, Claro Henrique Silva
Orientador: Carvalho Junior, Francisco Heron de
Palavras-chave em português: Aprendizado profundo;Aprendizado dividido federado;Quantização
Palavras-chave em inglês: Deep learning;Split federated learning;Quantization
CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
Data do documento: 2025
Citação: SALES, Claro Henrique Silva. Análise de desempenho da quantização em soluções de aprendizado dividido federado. 2026. 65 f. Dissertação (Mestrado em Ciência da Computação) - Universidade Federal do Ceará, Fortaleza, 2025.
Resumo: O presente trabalho aborda o Aprendizado Dividido Federado (ADF), uma técnica que permite o treino de modelos de redes neurais artificiais entre diferentes entidades sem o compartilhamento direto de seus dados, preservando a privacidade. Ao particionar o modelo entre o cliente e o servidor, o ADF também ajuda a reduzir a carga computacional no lado do cliente. Apesar de suas vantagens, utilizar essa solução ainda é um desafio em ambientes computacionalmente limitados, como dispositivos móveis e IoT, especialmente do lado do cliente. Este trabalho analisa o desempenho do uso de quantização, uma técnica que reduz a precisão numérica dos parâmetros e das ativações de redes neurais, para reduzir os custos computacionais no cliente durante a inferência em soluções de ADF. Para isso, um estudo empírico foi conduzido em um ambiente na nuvem, utilizando os modelos VGG11, ResNet18 e MobileNetV2, bem como variações IID e não-IID do conjunto de dados CIFAR-10. Comparam-se os esquemas de Quantização Pós-Treino (QPT) e de Treino Consciente de Quantização (TCQ) com o modelo de precisão completa. Os resultados demonstram que os ganhos e as perdas da quantização estão diretamente ligados à arquitetura, à escolha da camada de corte e à quantização do modelo do cliente. A quantização do modelo do cliente acelerou, em média, a etapa de propagação do cliente em 4,3. A redução no consumo de memória esteve entre 26% a 56%, enquanto a redução do consumo de rede se manteve em 75% para todos os casos. A perda na acurácia também está ligada à arquitetura: enquanto os modelos VGG11 e ResNet18 mantiveram a perda de acurácia menor que 2%, a QPT na arquitetura MobileNetV2 obteve perdas de acurácia de até 22,7%, tornando o uso de TCQ essencial.
Abstract: This paper addresses Split Federated Learning (SFL), a technique that enables artificial neural network models to be trained across multiple entities without directly sharing their data, thereby preserving data privacy. By partitioning the model between the client and the server, SFL also helps to reduce the computational load on the client side. However, despite its advantages, using this solution remains challenging in computationally constrained environments, such as mobile devices and IoT devices, especially on the client side. This work analyzes the performance of quantization, a technique that reduces the numerical precision of neural network parameters and activations to lower computational costs for clients during inference in SFL solutions. To this end, an empirical study was conducted in a cloud environment using the VGG11, ResNet18, and MobileNetV2 models over IID and non-IID variations of the CIFAR-10 dataset. The Post-Training Quantization (PTQ) and Quantization-Aware Training (QAT) schemes are compared with the full-precision model. The results demonstrate that the gains and losses from quantization are directly linked to the architecture, the choice of the cut layer, and the data distribution. Quantizing the client model accelerated the client’s forward pass by 4.3 on average. The reduction in memory consumption ranged from 26% to 56%, while the decrease in network consumption remained at 75% for all cases. The accuracy loss is also linked to the architecture: while the VGG11 and ResNet18 models maintained an accuracy loss of less than 2%, PTQ on the MobileNetV2 architecture led to losses of up to 22.7%, underscoring the need for QAT.
URI: http://repositorio.ufc.br/handle/riufc/85300
ORCID do(s) Autor(es): https://orcid.org/0000-0003-2752-1298
Currículo Lattes do(s) Autor(es): http://lattes.cnpq.br/9558592625667751
Currículo Lattes do Orientador: https://lattes.cnpq.br/4164818158160492
Tipo de Acesso: Acesso Aberto
Aparece nas coleções:DCOMP - Dissertações defendidas na UFC

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2025_dis_chssales.pdf678,54 kBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.