Please use this identifier to cite or link to this item: http://repositorio.ufc.br/handle/riufc/78667
Type: Dissertação
Title: APES-SOFT: uma abordagem eficiente em classificação de objetos 3D em nuvens de pontos com redes neurais convolucionais
Authors: Silva, Iágson Carlos Lima
Advisor: Rebouças Filho, Pedro Pedrosa
Co-advisor: Sousa, Pedro Henrique Feijó de
Keywords in Brazilian Portuguese : Redes neurais (Computação);Nuvens de ponto;Sistemas de computação;Testes de desempenho
Keywords in English : Neural Networks (Computing);Point clouds;Computing systems;Performance tests
Issue Date: 2024
Citation: REBOUÇAS FILHO, Pedro Pedrosa. APES-SOFT: uma abordagem eficiente em classificação de objetos 3D em nuvens de pontos com redes neurais convolucionais. 2024, 87 f. Dissertação (Mestrado em Engenharia Elétrica) - Centro de Tecnologia, Universidade Federal do Ceará. 2024.
Abstract in Brazilian Portuguese: Este trabalho propõe um método eficiente para a classificação de objetos 3D em nuvens de pontos, utilizando Convolutional Neural Networks (CNNs). O objetivo principal é propor uma rede neural, chamada APES-Soft, para aprimorar o desempenho computacional e a eficiência na classificação de objetos 3D em nuvens de pontos, baseada na análise de ablação da rede Attention-based Point cloud Edge Sampling (APES). A abordagem adotada envolve identificar as características mais relevantes para a classificação através da análise de ablação. Para isso, foram realizados três cenários distintos (Cenário I, Cenário II, e Cenário III), cada um ajustando diferentes aspectos da arquitetura da rede, a fim de definir o melhor candidato a ser proposto como APES-Soft. Os cenários foram conduzidos com rigorosa avaliação, incluindo testes estatísticos além das métricas tradicionais de classificação. Os resultados revelaram que o Cenário II se destaca como uma escolha eficaz para a classificação de objetos 3D em nuvens de pontos, obtendo maior acurácia entre os cenários, atingindo 93,8% e apresentando métricas superiores em comparação com os Cenários I e III, APES (Global) e APES (Local), atingindo a precisão 93,7%, sensibilidade 93,8%, F1-Score 93,7%, Matthews Correlation Coefficient (MCC) 93,5% e Índice Jaccard 89,2%, além de ser equivalente com os melhores trabalhos relacionados como CurveNet e DeltaConv. Além disso, em termos de desempenho computacional, o Cenário II apresentou uma redução de tempo significativa em relação a quase todos cenários, exigindo apenas 20,35 horas de treinamento, enquanto obteve uma redução do consumo de memória de 21,89% durante o treinamento do modelo. Os testes estatísticos, incluindo Analysis of Variance (ANOVA), Tukey’s Honestly Significant Difference (HSD), Teste de Kruskal-Wallis e Teste de Friedman, foram realizados para validar o modelo e comparar as diferenças entre os métodos propostos. Os resultados desses testes indicaram que as diferenças observadas entre os métodos não foram estatisticamente significativas, sugerindo uma equivalência estatística entre eles. Este estudo não apenas contribui para o avanço da classificação de objetos 3D, mas também oferece percepções valiosas sobre as características essenciais para uma classificação precisa em nuvens de pontos. Além disso, proporciona uma compreensão mais profunda do balanceamento entre eficiência computacional e desempenho do modelo, aspecto crucial para a viabilidade prática em diversas aplicações
Abstract: This work proposes an efficient method for the classification of 3D objects in point clouds using CNNs. The main objective is to propose a neural network called APES-Soft to enhance computational performance and efficiency in classifying 3D objects in point clouds based on the ablation analysis of the APES network. The adopted approach involves identifying the most relevant features for classification through ablation analysis. For this purpose, three distinct scenarios were conducted (Scenario I, Scenario II, and Scenario III), each adjusting diferente aspects of the network architecture to define the best candidate to be proposed as APES-Soft. The scenarios were conducted with rigorous evaluation, including statistical tests and traditional classification metrics. The results revealed that Scenario II stands out as an effective choice for the classification of 3D objects in point clouds, achieving higher accuracy among the scenarios, reaching 93.8% and presenting superior metrics compared to Scenarios I and III, APES (Global), and APES (Local), achieving a precision of 93.7%, the sensitivity of 93.8%, F1-Score of 93.7%, MCC of 93.5%, and Jaccard Index of 89.2%, besides being equivalent to the best-related works such as CurveNet and DeltaConv. Additionally, regarding computational performance, Scenario II showed a significant reduction in time compared to almost all scenarios, requiring only 20.35 hours of training while obtaining a memory consumption reduction of 21.89% during model training. Statistical tests, including ANOVA, Tukey’s HSD, Kruskal-Wallis Test, and Friedman Test, were performed to validate the model and compare the differences between the proposed methods. The results of these tests indicated that the observed differences between the methods were not statistically significant, suggesting a statistical equivalence among them. This study contributes to advancing 3D object classification and offers valuable insights into the essential features for accurate classification in point clouds. Moreover, it provides a deeper understanding of the balance between computational efficiency and model performance, a crucial aspect for practical viability in various applications
URI: http://repositorio.ufc.br/handle/riufc/78667
Author's ORCID: https://orcid.org/0009-0005-3595-6680
Author's Lattes: https://lattes.cnpq.br/9050828669767700
Advisor's ORCID: https://orcid.org/0000-0002-1878-5489
Advisor's Lattes: http://lattes.cnpq.br/4347965302097614
Co-advisor's Lattes: http://lattes.cnpq.br/3010717002306266
Access Rights: Acesso Aberto
Appears in Collections:DEEL - Dissertações defendidas na UFC

Files in This Item:
File Description SizeFormat 
2024_dis_iclsilva.pdf4,31 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.