Use este identificador para citar ou linkar para este item: http://repositorio.ufc.br/handle/riufc/52214
Tipo: Dissertação
Título: Revisitando a estimação do número de neurônios ocultos da rede MLP usando análise de componentes principais baseada em Kernel
Autor(es): Ponte, Jackson Uchoa
Orientador: Barreto, Guilherme de Alencar
Palavras-chave: Teleinformática;Redes neurais (Computação);Multilayer perceptrons;Pattern classification;Model building;Kernel methods
Data do documento: 2020
Citação: PONTE, J. U. Revisitando a estimação do número de neurônios ocultos da rede MLP usando análise de componentes principais baseada em Kernel. 2020. 59 f. Dissertação (Mestrado em Engenharia de Teleinformática) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2020.
Resumo: A rede perceptron multicamadas (MLP, multilayer perceptron) é uma importante arquitetura clássica de redes neurais artificiais, que encontra aplicação em diversos problemas complexos de classificação de padrões e aproximação de funções. Apesar do seu amplo uso, sabe-se que o desempenho da rede MLP é fortemente dependente do número de neurônios ocultos escolhido, sendo a estimação deste hiperparâmetro responsável por boa parte do tempo gasto no projeto dessa topologia de rede neural. Isto posto, nesta dissertação é introduzida uma nova técnica para estimar de forma rápida o número de neurônios ocultos da rede MLP com uma camada oculta usando KPCA (kernel principal componentes analysis). Esta técnica é aplicada a três conjuntos de variáveis de estado, a saber, (i) saídas dos neurônios ocultos, (ii) erros retropropagados, e (iii) gradientes locais dos erros retropropagados, com o objetivo de reduzir o nível de redundância da informação carregada por estas variáveis. Uma avaliação comparativa abrangente do método proposto usando quatro conjuntos de dados reais e um conjunto artificial é levada a cabo nesta dissertação tendo como alvo problemas de classificação de padrões e aproximação de funções. Os resultados alcançados ora reportados indicam claramente um desempenho superior da técnica proposta em comparação a uma versão anteriormente proposta que usa técnicas lineares.
Abstract: The multilayer perceptron (MLP) neural network is an important classical architecture of artificial neural networks that finds application in many complex pattern classification and function approximation problems. Despite its wide use, it is known that the performance of the MLP network is strongly dependent on the number of hidden neurons, and the estimation of this hyperparameter is responsible for much of the time spent such topology. In this work we introduced a new technique for quickly estimating the number of hidden neurons in the MLP network using KPCA (Kernel Principal Components Analysis). This technique is applied to three sets of state variables, (i) hidden neuron outputs, (ii) back-propagated errors, and (iii) local gradients back-propagated errors, with the aim of reducing the information redundancy on these variables. A comprehensive comparative evaluation of the proposed method using four real datasets and one synthetic dataset is carried out targeting pattern classification and function approximation problems. The results achieved clearly indicate a superior performance of the proposed technique compared to a previously proposed version that uses linear techniques.
URI: http://www.repositorio.ufc.br/handle/riufc/52214
Aparece nas coleções:DETE - Dissertações defendidas na UFC

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2020_dis_juponte.pdf935,7 kBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.