Por favor, use este identificador para citar o enlazar este ítem:
http://repositorio.ufc.br/handle/riufc/61137
Tipo: | Tese |
Título : | On model complexity reduction in instance-based learners |
Título en inglés: | On model complexity reduction in instance-based learners |
Autor : | Oliveira, Saulo Anderson Freitas de |
Tutor: | Gomes, João Paulo Pordeus |
Co-asesor: | Rocha Neto, Ajalmar Rêgo da |
Palabras clave : | Instance selection;Minimal learning machine;Regularization;Least-squares support vector machine |
Fecha de publicación : | 2021 |
Citación : | OLIVEIRA, Saulo Anderson Freitas de. On model complexity reduction in instance-based learners. 2021. 106 f. Tese (Doutorado em Ciência da Computação) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2021. |
Resumen en portugués brasileño: | Os algoritmos de aprendizagem com base em instâncias normalmente adotam técnicas de seleção de instâncias para reduzir a complexidade e evitar o sobreajuste. As formulações mais recentes e conhecidas de tais algoritmos buscam obter alguma esparsidade em sua estrutura de treinamento e predição junto com a regularização para atingir tal resultado. Devido à variedade de algoritmos com base em instâncias, nesta tese, daremos atenção para as Máquinas de Vetores de Suporte de Mínimos Quadrados e Máquinas de Aprendizagem Mínimas porque ambas incorporam informações adicionais além das instâncias armazenadas para que possam realizar predições. Posteriormente, nesta tese, formulamos variantes que restringem as soluções candidatas dentro de um espaço funcional específico onde o sobreajuste é evitado e a complexidade do modelo é reduzida. No contexto de Máquinas de Vetores de Suporte de Mínimos Quadrados, esta tese segue o método de poda, adotando um algoritmo de seleção de instâncias com base em canto de classe. Essa abordagem se concentra em descrever a relação de canto de classe entre as amostras no conjunto de dados para penalizar as demais amostras próximas aos cantos. Quanto às Máquinas de Aprendizagem Mínimas, esta tese apresenta uma nova proposta denominada Máquina de Aprendizagem Mínima de Pesos Leves. Essa nova proposta adota a regularização no termo de complexidade para penalizar o aprendizado de cada amostra, resultando em um método direto, já que normalmente essa penalização acompanha o termo erro. Esta tese descreve estratégias com base em condições aleatórias e características lineares da função alvo relacionadas aos dados para tarefas de regressão. E, quanto à tarefas de classificação, esta tese emprega a ideia de canto de classe mencionada anteriormente para regularizá-las. Assim, resultando em que as amostras próximas aos cantos sofram mais penalização. Ao adotar essa metodologia, reduzimos o número de cálculos inerentes ao processo de multilateração da proposta original sem exigir nenhum critério de seleção de instância, gerando um modelo mais rápido para predições. Além disso, outra característica notável é que é derivada uma solução única, enquanto que outras formulações dependem de sistemas sobredeterminados. |
Abstract: | Instance-based learners habitually adopt instance selection techniques to reduce complexity and avoiding overfitting. Such learners’ most recent and well-known formulations seek to impose some sparsity in their training and prediction structure alongside regularization to meet such a result. Due to the variety of such instance-based learners, we will draw attention to the Least-Squares Support Vector Machines and Minimal Learning Machines because they embody additional information beyond the stored instances so they can perform predictions. Later, in this thesis, we formulate variants that constrain candidate solutions within a specific functional space where overfitting is avoided, and model complexity is reduced. In the Least-Squares Support Vector Machines context, this thesis follows the pruning fashion by adopting the Class-Corner Instance Selection. Such an approach focuses on describing the class-corner relationship among the samples on the dataset to penalize the ones close to the corners. As for the Minimal Learning Machine model, this thesis introduces a new proposal called the Lightweight Minimal Learning Machine. It adopts regularization in the complexity term to penalize each sample’s learning, resulting in a direct method. Usually, this penalization goes in alongside the term error. This thesis describes strategies based on random and observed linearity conditions related to the data for regression tasks. And, as for classification tasks, this thesis employs the before-mentioned class-corner idea to regularize them. Thus, resulting in the ones close to the corners suffering more penalization. By adopting such a methodology, we reduced the number of computations inherent in the original proposal’s multilateration process without requiring any instance selection criterion, yielding a faster model for out-of-sample prediction. Additionally, another remarkable feature is that it derives a unique solution when other formulations rely on overdetermined systems. |
URI : | http://www.repositorio.ufc.br/handle/riufc/61137 |
Aparece en las colecciones: | DCOMP - Teses defendidas na UFC |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
2021_tese_safoliveira.pdf | 5,91 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.