Use este identificador para citar ou linkar para este item: http://repositorio.ufc.br/handle/riufc/65199
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorRebouças Filho, Pedro Pedrosa-
dc.contributor.authorSilva, Francisco Hércules dos Santos-
dc.date.accessioned2022-04-20T14:21:24Z-
dc.date.available2022-04-20T14:21:24Z-
dc.date.issued2022-
dc.identifier.citationSILVA, Francisco Hércules dos Santos. Uma abordagem para Reconhecimento de Objetos em 3D a partir de nuvens de pontos capturadas com LiDAR utilizando Aprendizagem Profunda. 2022. 61f. Dissertação (Mestrado m Engenharia Elétrica) – Universidade Federal do Ceará, Centro de Tecnologia, Programa de Pós-graduação em Engenharia Elétrica, Fortaleza, 2022.pt_BR
dc.identifier.urihttp://www.repositorio.ufc.br/handle/riufc/65199-
dc.description.abstractThis work proposes the use of Deep Learning in recognition of 3D objects captured with Light Detection and Ranging (LiDAR), including a pre-processing step. In addition, it uses a real- world dataset that contains three classes. The pre-processing step is proposed to normalize the number of points of each captured cloud, bypassing the dimensionality discrepancies between the proposed dataset and the existing sets in the literature, such as ModelNet. Thus, cross-validation with three partitions is performed in the classification stage, aiming to measure the performance of the networks in different evaluation metrics from different arrangements of the set. In the first experiment with ten selected networks, the best performing network was RS-CNN, reaching 98.64% of average accuracy, being, however, one of the slowest, with an average time of 21.58 ms for each cloud, while the fastest network was LDGCNN reaching 25μs of average time with an accuracy of 92.50%. In the second experiment, the Lidar3DNetV1 network was optimized and compared with the original network, where a significant performance improvement was observed while maintaining similar evaluation metrics, reaching 84.80% accuracy in one of the tests subsets with 180 μ s average processing time.pt_BR
dc.language.isopt_BRpt_BR
dc.subjectLiDARpt_BR
dc.subjectAprendizagem profundapt_BR
dc.subjectNuvem de pontospt_BR
dc.subjectPré-processamentopt_BR
dc.subjectValidação cruzadapt_BR
dc.titleUma abordagem para Reconhecimento de Objetos em 3D a partir de nuvens de pontos capturadas com LiDAR utilizando Aprendizagem Profundapt_BR
dc.typeDissertaçãopt_BR
dc.description.abstract-ptbrEste trabalho propõe o uso de Aprendizagem Profunda no reconhecimento de objetos 3D capturados com Light Detection and Ranging (LiDAR), incluindo uma etapa de pré-processamento. Além disso, utiliza um conjunto de dados do mundo real que contém três classes. A etapa de pré-processamento é proposta para normalizar a quantidade de pontos de cada nuvem capturada, contornando as discrepâncias de dimensionalidade entre o conjunto de dados proposto e os conjuntos existentes na literatura, como o ModelNet. Assim, uma validação cruzada com três partições é realizada na etapa de classificação, visando mensurar os desempenhos das redes em diferentes métricas de avaliação a partir de diferentes arranjos do conjunto. Em um primeiro experimento com dez redes selecionadas a rede de melhor desempenho foi a RS-CNN atingindo 98,64% de acurácia média, sendo, entretanto, umas das mais lentas, com tempo médio de 21,58 ms para cada nuvem, enquanto que a rede mais rápida foi a LDGCNN atingindo 25μs de tempo médio com uma acurácia de 92,50%. Já no segundo experimento a rede Lidar3DNetV1 foi otimizada e comparada com a rede original, onde se observou significativa melhora de desempenho e mantendo métricas de avaliação semelhantes, atingindo 84,80% de acurácia em um dos subconjuntos de teste com 180 μs de tempo médio de processamento.pt_BR
Aparece nas coleções:DEEL - Dissertações defendidas na UFC

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2022_dis_fhssilva.pdf1,74 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.