Use este identificador para citar ou linkar para este item: http://repositorio.ufc.br/handle/riufc/61137
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorGomes, João Paulo Pordeus-
dc.contributor.authorOliveira, Saulo Anderson Freitas de-
dc.date.accessioned2021-10-13T14:59:03Z-
dc.date.available2021-10-13T14:59:03Z-
dc.date.issued2021-
dc.identifier.citationOLIVEIRA, Saulo Anderson Freitas de. On model complexity reduction in instance-based learners. 2021. 106 f. Tese (Doutorado em Ciência da Computação) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2021.pt_BR
dc.identifier.urihttp://www.repositorio.ufc.br/handle/riufc/61137-
dc.description.abstractInstance-based learners habitually adopt instance selection techniques to reduce complexity and avoiding overfitting. Such learners’ most recent and well-known formulations seek to impose some sparsity in their training and prediction structure alongside regularization to meet such a result. Due to the variety of such instance-based learners, we will draw attention to the Least-Squares Support Vector Machines and Minimal Learning Machines because they embody additional information beyond the stored instances so they can perform predictions. Later, in this thesis, we formulate variants that constrain candidate solutions within a specific functional space where overfitting is avoided, and model complexity is reduced. In the Least-Squares Support Vector Machines context, this thesis follows the pruning fashion by adopting the Class-Corner Instance Selection. Such an approach focuses on describing the class-corner relationship among the samples on the dataset to penalize the ones close to the corners. As for the Minimal Learning Machine model, this thesis introduces a new proposal called the Lightweight Minimal Learning Machine. It adopts regularization in the complexity term to penalize each sample’s learning, resulting in a direct method. Usually, this penalization goes in alongside the term error. This thesis describes strategies based on random and observed linearity conditions related to the data for regression tasks. And, as for classification tasks, this thesis employs the before-mentioned class-corner idea to regularize them. Thus, resulting in the ones close to the corners suffering more penalization. By adopting such a methodology, we reduced the number of computations inherent in the original proposal’s multilateration process without requiring any instance selection criterion, yielding a faster model for out-of-sample prediction. Additionally, another remarkable feature is that it derives a unique solution when other formulations rely on overdetermined systems.pt_BR
dc.language.isoenpt_BR
dc.subjectInstance selectionpt_BR
dc.subjectMinimal learning machinept_BR
dc.subjectRegularizationpt_BR
dc.subjectLeast-squares support vector machinept_BR
dc.titleOn model complexity reduction in instance-based learnerspt_BR
dc.typeTesept_BR
dc.contributor.co-advisorRocha Neto, Ajalmar Rêgo da-
dc.description.abstract-ptbrOs algoritmos de aprendizagem com base em instâncias normalmente adotam técnicas de seleção de instâncias para reduzir a complexidade e evitar o sobreajuste. As formulações mais recentes e conhecidas de tais algoritmos buscam obter alguma esparsidade em sua estrutura de treinamento e predição junto com a regularização para atingir tal resultado. Devido à variedade de algoritmos com base em instâncias, nesta tese, daremos atenção para as Máquinas de Vetores de Suporte de Mínimos Quadrados e Máquinas de Aprendizagem Mínimas porque ambas incorporam informações adicionais além das instâncias armazenadas para que possam realizar predições. Posteriormente, nesta tese, formulamos variantes que restringem as soluções candidatas dentro de um espaço funcional específico onde o sobreajuste é evitado e a complexidade do modelo é reduzida. No contexto de Máquinas de Vetores de Suporte de Mínimos Quadrados, esta tese segue o método de poda, adotando um algoritmo de seleção de instâncias com base em canto de classe. Essa abordagem se concentra em descrever a relação de canto de classe entre as amostras no conjunto de dados para penalizar as demais amostras próximas aos cantos. Quanto às Máquinas de Aprendizagem Mínimas, esta tese apresenta uma nova proposta denominada Máquina de Aprendizagem Mínima de Pesos Leves. Essa nova proposta adota a regularização no termo de complexidade para penalizar o aprendizado de cada amostra, resultando em um método direto, já que normalmente essa penalização acompanha o termo erro. Esta tese descreve estratégias com base em condições aleatórias e características lineares da função alvo relacionadas aos dados para tarefas de regressão. E, quanto à tarefas de classificação, esta tese emprega a ideia de canto de classe mencionada anteriormente para regularizá-las. Assim, resultando em que as amostras próximas aos cantos sofram mais penalização. Ao adotar essa metodologia, reduzimos o número de cálculos inerentes ao processo de multilateração da proposta original sem exigir nenhum critério de seleção de instância, gerando um modelo mais rápido para predições. Além disso, outra característica notável é que é derivada uma solução única, enquanto que outras formulações dependem de sistemas sobredeterminados.pt_BR
dc.title.enOn model complexity reduction in instance-based learnerspt_BR
Aparece nas coleções:DCOMP - Teses defendidas na UFC

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2021_tese_safoliveira.pdf5,91 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.