Please use this identifier to cite or link to this item: http://repositorio.ufc.br/handle/riufc/76900
Type: Tese
Title: Uma arquitetura autonômica para alocação preditiva de recursos no gerenciamento de capacidade em nuvem utilizando redes neurais
Title in English: An autonomous architecture for predictive resource allocation in cloud capacity management using neural networks
Authors: Amaral, Janete Pereira do
Advisor: Souza, José Neuman de
Co-advisor: Lima, Alberto Sampaio
Keywords in Brazilian Portuguese : Computação em nuvem;Stacked Long Short-Term Memory;Computação autonômica em nuvem;Gerenciamento de Capacidade em Nuvem;Business-driven information technology management
Keywords in English : Cloud computing;Stacked long Short-Term Memory;Cloud autonomic computing;Capacity planning;Business-driven information technology management
Knowledge Areas - CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
Issue Date: 2023
Citation: AMARAL, Janete Pereira do. Uma arquitetura autonômica para alocação preditiva de recursos no gerenciamento de capacidade em nuvem utilizando redes neurais. 2023. 181 f. Tese (Doutorado em Ciência da Computação) - Universidade Federal do Ceará, Fortaleza, 2023.
Abstract in Brazilian Portuguese: A computação em nuvem tem sido apontada como uma solução para o uso racional de recursos da Tecnologia da Informação. Os provedores de serviços em nuvem oferecem ambientes compartilhados que podem ser dimensionados para atender aos requisitos flutuantes de seus clientes. O desafio imposto é a utilização de mecanismos capazes de otimizar o uso dos recursos e, simultaneamente, garantir que o desempenho desses serviços continue atendendo às métricas Quality of Experience (QoE), Quality of Service (QoS), bem como aos Service Level Indicators (SLI) e aos respectivos Service Level Agreements (SLA) estabelecidos. Os provedores necessitam oferecer mecanismos autonômicos para promover a escalabilidade dos recursos em tempo hábil, ao tempo em que os clientes precisam confiar no desempenho e nos custos envolvidos nas negociações. No processo de Gerenciamento de Capacidade em Nuvem, diversas abordagens preditivas de escalonamento de recursos já foram propostas para superar as limitações das abordagens reativas convencionais. Entretanto, tais abordagens ainda não demostraram resultados satisfatórios, em termos de custo, desempenho e autonomia. Esta pesquisa propõe uma Arquitetura Autonômica para Alocação Preditiva de Recursos no Gerenciamento de Capacidade em Nuvem utilizando Redes Neurais que combina características reativas e preditivas para o escalonamento de recursos. Para suportar o provisionamento preditivo de recursos, foi utilizado Recurrent Neural Networks (RNNs) na arquitetura Stacked Long Short-Term Memory, buscando suplantar os resultados já alcançados. Na abordagem autonômica, adotou-se o modelo MAPE-K, recorrendo aos princípios da Autonomic Cloud Computing (ACC). Visando demonstrar a viabilidade da proposta foi elaborado um estudo de caso utilizando traces experimentais. Na avaliação da acurácia da predição utilizou-se um comparativo entre a rede LSTM clássica e a rede Stacked LSTM. Para análise operacional foi proposta uma arquitetura autonômica utilizando o modelo preditivo. Os resultados obtidos demonstraram a viabilidade da proposta, trazendo como benefício a utilização das Stacked LSTMs na predição do provisionamento de recursos em nuvem. Como trabalhos futuros, pretende-se implementar a arquitetura em uma ferramenta operacional, em código livre, para apoiar provedores de serviços de pequeno e médio porte e permitir o planejamento de capacidade no processo de migração para nuvem.
Abstract: Cloud computing has been identified as a solution for the rational use of Information Technology resources. Cloud service providers offer shared environments that can scale to meet their customers' fluctuating requirements. The challenge imposed is the use of mechanisms capable of optimizing the use of resources and, simultaneously, ensuring that the performance of these services continues to meet the Quality of Experience (QoE), Quality of Service (QoS) metrics, as well as the Service Level Indicators (SLI) and the respective Service Level Agreements (SLA) established. Providers need to offer autonomic mechanisms to promote resource scalability promptly, while customers need to trust the performance and costs involved in negotiations. In the Cloud Resource Management process, several predictive resource scheduling approaches have already been proposed to overcome the limitations of conventional reactive techniques. However, such methods have yet to demonstrate satisfactory cost, performance, and autonomy results. This research proposes an Autonomic Cloud Resource Management Model that combines reactive and predictive features for resource scheduling. To support the predictive provisioning of resources, Recurrent Neural Networks (RNNs) were used in the Stacked Long Short-Term Memory architecture, seeking to overcome the results already achieved. The MAPE-K model was adopted in the autonomic approach, using the principles of Autonomic Cloud Computing (ACC). A case study was elaborated using experimental traces to demonstrate the proposal's viability. In evaluating the model's accuracy, a comparison between the classic LSTM network and different configurations of the Stacked LSTM network was used. A prototype was implemented using components of cloud infrastructure simulators to analyze the operational viability. The obtained results demonstrated the feasibility of the proposal, bringing as a benefit the use of Stacked LSTMs in predicting the provisioning of cloud resources. As future work, it is intended to evolve the prototype into an operational tool, in open source, to support small and medium-sized service providers and allow capacity planning in the cloud migration process.
URI: http://repositorio.ufc.br/handle/riufc/76900
Author's Lattes: http://lattes.cnpq.br/2735748704923562
Advisor's Lattes: http://lattes.cnpq.br/3614256141054800
Co-advisor's Lattes: http://lattes.cnpq.br/2149928021922564
Access Rights: Acesso Aberto
Appears in Collections:DCOMP - Teses defendidas na UFC

Files in This Item:
File Description SizeFormat 
2023_tese_jpamaral.pdf3,11 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.