Use este identificador para citar ou linkar para este item: http://repositorio.ufc.br/handle/riufc/29815
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorBarreto, Guilherme de Alencar-
dc.contributor.authorFreire, Ananda Lima-
dc.date.accessioned2018-02-21T12:23:51Z-
dc.date.available2018-02-21T12:23:51Z-
dc.date.issued2015-
dc.identifier.citationFREIRE, Ananda Lima. On the efficient design of extreme learning machines using intrinsic plasticity and evolutionary computation approaches. 2015. 221 f. Tese (Doutorado em Engenharia de Teleinformática)–Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2015.pt_BR
dc.identifier.urihttp://www.repositorio.ufc.br/handle/riufc/29815-
dc.description.abstractThe Extreme Learning Machine (ELM) has become a very popular neural network ar- chitecture due to its universal function approximation property and fast training, which is accomplished by setting randomly the hidden neurons’ weights and biases. Although it offers a good generalization performance with little time consumption, it also offers considerable challenges. One of them is related to the classical problem of defining the network size, which influences the ability to learn the model and will overfit if it is too large or underfit if it is too small. Another is related to the random selection of input-to-hidden- layer weights that may produce an ill-conditioned hidden layer output matrix, which derails the solution for the linear system used to train the output weights. This leads to a solution with a high norm that becomes very sensitive to any contamination present in the data. Based on these challenges, this work provides two contributions to the ELM network design principles. The first one, named R-ELM/BIP, combines the maximization of the hidden layer’s information transmission, through Batch Intrinsic Plasticity, with outlier-robust estimation of the output weights. This method generates a reliable solution in the presence of corrupted data with a good generalization capability and small output weight norms. The second method, named Adaptive Number of Hidden Neurons Approach (ANHNA), is defined as a general solution encoding that allows populational metaheuristics to evolve a close to optimal architecture for ELM networks combined with activation function’s parameter optimization, without losing the ELM’s main feature: the random mapping from input to hidden space. Comprehensive evaluations of the proposed approaches are performed using regression datasets available in public repositories, as well as using a new set of data generated for learning visuomotor coordination of humanoid robots.pt_BR
dc.language.isoenpt_BR
dc.subjectTeleinformáticapt_BR
dc.subjectAprendizagem profundapt_BR
dc.subjectInteligência computacionalpt_BR
dc.subjectRedes neuraispt_BR
dc.subjectRobustnesspt_BR
dc.subjectMetaheuristicspt_BR
dc.subjectExtreme learning machinept_BR
dc.titleOn the efficient design of extreme learning machines using intrinsic plasticity and evolutionary computation approachespt_BR
dc.typeTesept_BR
dc.description.abstract-ptbrA rede Máquina de Aprendizado Extremo (Extreme Learning Machine- ELM) tornou- se uma arquitetura neural bastante popular devido a sua propriedade de aproximadora universal de funções e ao rápido treinamento, dado pela seleção aleatória dos pesos e limiares dos neurônios ocultos. Apesar de sua boa capacidade de generalização, há ainda desafios consideráveis a superar. Um deles refere-se ao clássico problema de se determinar o numero de neurônios ocultos, o que influencia na capacidade de aprendizagem do modelo, levando a um sobreajustamento, se esse numero for muito grande, ou a um subajustamento, caso contrário. Outro desafio está relacionado à seleção aleatória dos pesos da camada oculta, que pode produzir uma matriz de ativações mal-condicionadas, dificultando sensivelmente a solução do sistema linear constrúído para treinar os pesos da camada de saída. Tal situação leva a soluções com normas muito elevadas e, consequentemente, numericamente instáveis. Baseado nesses desafios, este trabalho oferece duas contribuições orientadas a um projeto eficiente da rede ELM. A primeira, denominada R-ELM/BIP, combina a versão batch de um método de aprendizado recente chamado Plasticidade Intrínseca com a técnica de estimação robusta conhecida como estimação M. Esta proposta fornece solução confiável na presença de outliers, juntamente com boa capacidade de generalização e pesos de saída com normas reduzidas. A segunda contribuição, denominada Adaptive Number of Hidden Neurons Approach (ANHNA), está orientada para a seleção automática de um modelo de rede ELM usando metaheuríısticas. A ideia subjacente consiste em definir uma codificação geral para o indivíduo de uma população que possa ser usada por diferentes metaheurísticas populacionais, tais como Evolução Diferencial e Enxame de Partículas. A abordagem proposta permite que estas metaheurísticas produzam soluções otimizadas para os vários parâmetros da rede ELM, incluindo o numero de neurônios ocultos e as inclinações e limiares das funções de ativação dos mesmos, sem perder a principal característica da rede ELM: o mapeamento aleatório do espaço da camada oculta. Avaliações abrangentes das abordagens propostas são realizadas usando conjuntos de dados para regressão disponíveis em repositórios públicos, bem como um novo conjunto de dados gerado para o aprendizado da coordenação visuomotora de robôs humanoides.pt_BR
Aparece nas coleções:DETE - Teses defendidas na UFC

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2015_tese_alfreire.pdf4,43 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.