Please use this identifier to cite or link to this item:
http://repositorio.ufc.br/handle/riufc/52214
Type: | Dissertação |
Title: | Revisitando a estimação do número de neurônios ocultos da rede MLP usando análise de componentes principais baseada em Kernel |
Authors: | Ponte, Jackson Uchoa |
Advisor: | Barreto, Guilherme de Alencar |
Keywords: | Teleinformática;Redes neurais (Computação);Multilayer perceptrons;Pattern classification;Model building;Kernel methods |
Issue Date: | 2020 |
Citation: | PONTE, J. U. Revisitando a estimação do número de neurônios ocultos da rede MLP usando análise de componentes principais baseada em Kernel. 2020. 59 f. Dissertação (Mestrado em Engenharia de Teleinformática) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2020. |
Abstract in Brazilian Portuguese: | A rede perceptron multicamadas (MLP, multilayer perceptron) é uma importante arquitetura clássica de redes neurais artificiais, que encontra aplicação em diversos problemas complexos de classificação de padrões e aproximação de funções. Apesar do seu amplo uso, sabe-se que o desempenho da rede MLP é fortemente dependente do número de neurônios ocultos escolhido, sendo a estimação deste hiperparâmetro responsável por boa parte do tempo gasto no projeto dessa topologia de rede neural. Isto posto, nesta dissertação é introduzida uma nova técnica para estimar de forma rápida o número de neurônios ocultos da rede MLP com uma camada oculta usando KPCA (kernel principal componentes analysis). Esta técnica é aplicada a três conjuntos de variáveis de estado, a saber, (i) saídas dos neurônios ocultos, (ii) erros retropropagados, e (iii) gradientes locais dos erros retropropagados, com o objetivo de reduzir o nível de redundância da informação carregada por estas variáveis. Uma avaliação comparativa abrangente do método proposto usando quatro conjuntos de dados reais e um conjunto artificial é levada a cabo nesta dissertação tendo como alvo problemas de classificação de padrões e aproximação de funções. Os resultados alcançados ora reportados indicam claramente um desempenho superior da técnica proposta em comparação a uma versão anteriormente proposta que usa técnicas lineares. |
Abstract: | The multilayer perceptron (MLP) neural network is an important classical architecture of artificial neural networks that finds application in many complex pattern classification and function approximation problems. Despite its wide use, it is known that the performance of the MLP network is strongly dependent on the number of hidden neurons, and the estimation of this hyperparameter is responsible for much of the time spent such topology. In this work we introduced a new technique for quickly estimating the number of hidden neurons in the MLP network using KPCA (Kernel Principal Components Analysis). This technique is applied to three sets of state variables, (i) hidden neuron outputs, (ii) back-propagated errors, and (iii) local gradients back-propagated errors, with the aim of reducing the information redundancy on these variables. A comprehensive comparative evaluation of the proposed method using four real datasets and one synthetic dataset is carried out targeting pattern classification and function approximation problems. The results achieved clearly indicate a superior performance of the proposed technique compared to a previously proposed version that uses linear techniques. |
URI: | http://www.repositorio.ufc.br/handle/riufc/52214 |
Appears in Collections: | DETE - Dissertações defendidas na UFC |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
2020_dis_juponte.pdf | 935,7 kB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.