Use este identificador para citar ou linkar para este item: http://repositorio.ufc.br/handle/riufc/80918
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorBezerra, Jeandro de Mesquita-
dc.contributor.authorSilva, Davi Bezerra Yada da-
dc.date.accessioned2025-05-20T14:24:00Z-
dc.date.available2025-05-20T14:24:00Z-
dc.date.issued2025-
dc.identifier.citationSILVA, Davi Bezerra Yada da. Aplicação de privacidade diferencial na detecção de ataques em internet das coisas. 2025. 57 f. Trabalho de Conclusão de Curso (Graduação em Redes de Computadores)-Campus de Quixadá, Universidade Federal do Ceará, Quixadá, 2025.pt_BR
dc.identifier.urihttp://repositorio.ufc.br/handle/riufc/80918-
dc.description.abstractThe increasing adoption of the Internet of Things expands security challenges, especially in the use of deep learning for attack detection, as these models are susceptible to sensitive data leaks. This work investigates the application of Differential Privacy as a defense against membership inference attacks, which exploit trained models to recover information from the data used in learning. For this purpose, a differentially private neural classifier was implemented using tinyml, allowing its execution on edge devices with limited resources. The experiments showed that while the baseline model achieved 99% accuracy, the application of DP reduced this value to up to 64%, depending on the level of noise added. However, differential privacy significantly decreased the effectiveness of the inference attack, reducing its accuracy from 70% to 52% in the most restrictive scenarios. Furthermore, tinyml optimization enabled execution up to 10 times faster, reducing memory consumption from 8.35 MB to just 0.05 MB. These findings reinforce the feasibility of differential privacy as a strategy to mitigate leakage risks in deep learning models applied to IoT network security, highlighting an important trade-off between privacy and performance.pt_BR
dc.language.isopt_BRpt_BR
dc.rightsAcesso Abertopt_BR
dc.titleAplicação de privacidade diferencial na detecção de ataques em internet das coisaspt_BR
dc.typeTCCpt_BR
dc.description.abstract-ptbrA crescente adoção da Internet das Coisas amplia desafios de segurança, especialmente no uso de aprendizado profundo para detecção de ataques, uma vez que esses modelos estão suscetíveis a vazamentos de dados sensíveis. Este trabalho investiga a aplicação de Privacidade Diferencial como defesa contra ataques de inferência de associação, que exploram modelos treinados para recuperar informações dos dados utilizados no aprendizado. Para isso, foi implementado um classificador neural diferencialmente privado utilizando tinyml, permitindo sua execução em dispositivos de borda com recursos limitados. Os experimentos mostraram que, enquanto o modelo baseline obteve 99% de acurácia, a aplicação de PD reduziu esse valor para até 64%, dependendo do nível de ruído adicionado. No entanto, a privacidade diferencial diminuiu significativamente a eficácia do ataque de inferência, reduzindo sua acurácia de 70% para 52% nos cenários mais restritivos. Além disso, a otimização via tinyml permitiu uma execução até 10 vezes mais rápida, reduzindo o consumo de memória de 8,35 MB para apenas 0,05 MB. Esses achados reforçam a viabilidade da privacidade diferencial como estratégia para mitigar riscos de vazamento em modelos de aprendizado profundo aplicados à segurança de redes de Internet das Coisas, destacando um importante trade-off entre privacidade e desempenho.pt_BR
dc.subject.ptbrprivacidade diferencialpt_BR
dc.subject.ptbrinternet das coisaspt_BR
dc.subject.ptbrdetecção de ataquespt_BR
dc.subject.cnpqCNPQ: CIÊNCIAS EXATAS E DA TERRApt_BR
local.advisor.orcidhttps://orcid.org/0000-0002-4435-7277pt_BR
local.advisor.latteshttp://lattes.cnpq.br/8443091736542183pt_BR
Aparece nas coleções:REDES DE COMPUTADORES - QUIXADÁ - Monografias

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2025_tcc_dbysilva.pdf1,25 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.