Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.ufc.br/handle/riufc/52214
Tipo: Dissertação
Título : Revisitando a estimação do número de neurônios ocultos da rede MLP usando análise de componentes principais baseada em Kernel
Autor : Ponte, Jackson Uchoa
Tutor: Barreto, Guilherme de Alencar
Palabras clave : Teleinformática;Redes neurais (Computação);Multilayer perceptrons;Pattern classification;Model building;Kernel methods
Fecha de publicación : 2020
Citación : PONTE, J. U. Revisitando a estimação do número de neurônios ocultos da rede MLP usando análise de componentes principais baseada em Kernel. 2020. 59 f. Dissertação (Mestrado em Engenharia de Teleinformática) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2020.
Resumen en portugués brasileño: A rede perceptron multicamadas (MLP, multilayer perceptron) é uma importante arquitetura clássica de redes neurais artificiais, que encontra aplicação em diversos problemas complexos de classificação de padrões e aproximação de funções. Apesar do seu amplo uso, sabe-se que o desempenho da rede MLP é fortemente dependente do número de neurônios ocultos escolhido, sendo a estimação deste hiperparâmetro responsável por boa parte do tempo gasto no projeto dessa topologia de rede neural. Isto posto, nesta dissertação é introduzida uma nova técnica para estimar de forma rápida o número de neurônios ocultos da rede MLP com uma camada oculta usando KPCA (kernel principal componentes analysis). Esta técnica é aplicada a três conjuntos de variáveis de estado, a saber, (i) saídas dos neurônios ocultos, (ii) erros retropropagados, e (iii) gradientes locais dos erros retropropagados, com o objetivo de reduzir o nível de redundância da informação carregada por estas variáveis. Uma avaliação comparativa abrangente do método proposto usando quatro conjuntos de dados reais e um conjunto artificial é levada a cabo nesta dissertação tendo como alvo problemas de classificação de padrões e aproximação de funções. Os resultados alcançados ora reportados indicam claramente um desempenho superior da técnica proposta em comparação a uma versão anteriormente proposta que usa técnicas lineares.
Abstract: The multilayer perceptron (MLP) neural network is an important classical architecture of artificial neural networks that finds application in many complex pattern classification and function approximation problems. Despite its wide use, it is known that the performance of the MLP network is strongly dependent on the number of hidden neurons, and the estimation of this hyperparameter is responsible for much of the time spent such topology. In this work we introduced a new technique for quickly estimating the number of hidden neurons in the MLP network using KPCA (Kernel Principal Components Analysis). This technique is applied to three sets of state variables, (i) hidden neuron outputs, (ii) back-propagated errors, and (iii) local gradients back-propagated errors, with the aim of reducing the information redundancy on these variables. A comprehensive comparative evaluation of the proposed method using four real datasets and one synthetic dataset is carried out targeting pattern classification and function approximation problems. The results achieved clearly indicate a superior performance of the proposed technique compared to a previously proposed version that uses linear techniques.
URI : http://www.repositorio.ufc.br/handle/riufc/52214
Aparece en las colecciones: DETE - Dissertações defendidas na UFC

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
2020_dis_juponte.pdf935,7 kBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.