Use este identificador para citar ou linkar para este item: http://repositorio.ufc.br/handle/riufc/76900
Tipo: Tese
Título: Uma arquitetura autonômica para alocação preditiva de recursos no gerenciamento de capacidade em nuvem utilizando redes neurais
Título em inglês: An autonomous architecture for predictive resource allocation in cloud capacity management using neural networks
Autor(es): Amaral, Janete Pereira do
Orientador: Souza, José Neuman de
Coorientador: Lima, Alberto Sampaio
Palavras-chave em português: Computação em nuvem;Stacked Long Short-Term Memory;Computação autonômica em nuvem;Gerenciamento de Capacidade em Nuvem;Business-driven information technology management
Palavras-chave em inglês: Cloud computing;Stacked long Short-Term Memory;Cloud autonomic computing;Capacity planning;Business-driven information technology management
CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
Data do documento: 2023
Citação: AMARAL, Janete Pereira do. Uma arquitetura autonômica para alocação preditiva de recursos no gerenciamento de capacidade em nuvem utilizando redes neurais. 2023. 181 f. Tese (Doutorado em Ciência da Computação) - Universidade Federal do Ceará, Fortaleza, 2023.
Resumo: A computação em nuvem tem sido apontada como uma solução para o uso racional de recursos da Tecnologia da Informação. Os provedores de serviços em nuvem oferecem ambientes compartilhados que podem ser dimensionados para atender aos requisitos flutuantes de seus clientes. O desafio imposto é a utilização de mecanismos capazes de otimizar o uso dos recursos e, simultaneamente, garantir que o desempenho desses serviços continue atendendo às métricas Quality of Experience (QoE), Quality of Service (QoS), bem como aos Service Level Indicators (SLI) e aos respectivos Service Level Agreements (SLA) estabelecidos. Os provedores necessitam oferecer mecanismos autonômicos para promover a escalabilidade dos recursos em tempo hábil, ao tempo em que os clientes precisam confiar no desempenho e nos custos envolvidos nas negociações. No processo de Gerenciamento de Capacidade em Nuvem, diversas abordagens preditivas de escalonamento de recursos já foram propostas para superar as limitações das abordagens reativas convencionais. Entretanto, tais abordagens ainda não demostraram resultados satisfatórios, em termos de custo, desempenho e autonomia. Esta pesquisa propõe uma Arquitetura Autonômica para Alocação Preditiva de Recursos no Gerenciamento de Capacidade em Nuvem utilizando Redes Neurais que combina características reativas e preditivas para o escalonamento de recursos. Para suportar o provisionamento preditivo de recursos, foi utilizado Recurrent Neural Networks (RNNs) na arquitetura Stacked Long Short-Term Memory, buscando suplantar os resultados já alcançados. Na abordagem autonômica, adotou-se o modelo MAPE-K, recorrendo aos princípios da Autonomic Cloud Computing (ACC). Visando demonstrar a viabilidade da proposta foi elaborado um estudo de caso utilizando traces experimentais. Na avaliação da acurácia da predição utilizou-se um comparativo entre a rede LSTM clássica e a rede Stacked LSTM. Para análise operacional foi proposta uma arquitetura autonômica utilizando o modelo preditivo. Os resultados obtidos demonstraram a viabilidade da proposta, trazendo como benefício a utilização das Stacked LSTMs na predição do provisionamento de recursos em nuvem. Como trabalhos futuros, pretende-se implementar a arquitetura em uma ferramenta operacional, em código livre, para apoiar provedores de serviços de pequeno e médio porte e permitir o planejamento de capacidade no processo de migração para nuvem.
Abstract: Cloud computing has been identified as a solution for the rational use of Information Technology resources. Cloud service providers offer shared environments that can scale to meet their customers' fluctuating requirements. The challenge imposed is the use of mechanisms capable of optimizing the use of resources and, simultaneously, ensuring that the performance of these services continues to meet the Quality of Experience (QoE), Quality of Service (QoS) metrics, as well as the Service Level Indicators (SLI) and the respective Service Level Agreements (SLA) established. Providers need to offer autonomic mechanisms to promote resource scalability promptly, while customers need to trust the performance and costs involved in negotiations. In the Cloud Resource Management process, several predictive resource scheduling approaches have already been proposed to overcome the limitations of conventional reactive techniques. However, such methods have yet to demonstrate satisfactory cost, performance, and autonomy results. This research proposes an Autonomic Cloud Resource Management Model that combines reactive and predictive features for resource scheduling. To support the predictive provisioning of resources, Recurrent Neural Networks (RNNs) were used in the Stacked Long Short-Term Memory architecture, seeking to overcome the results already achieved. The MAPE-K model was adopted in the autonomic approach, using the principles of Autonomic Cloud Computing (ACC). A case study was elaborated using experimental traces to demonstrate the proposal's viability. In evaluating the model's accuracy, a comparison between the classic LSTM network and different configurations of the Stacked LSTM network was used. A prototype was implemented using components of cloud infrastructure simulators to analyze the operational viability. The obtained results demonstrated the feasibility of the proposal, bringing as a benefit the use of Stacked LSTMs in predicting the provisioning of cloud resources. As future work, it is intended to evolve the prototype into an operational tool, in open source, to support small and medium-sized service providers and allow capacity planning in the cloud migration process.
URI: http://repositorio.ufc.br/handle/riufc/76900
Currículo Lattes do(s) Autor(es): http://lattes.cnpq.br/2735748704923562
Currículo Lattes do Orientador: http://lattes.cnpq.br/3614256141054800
Currículo Lattes do Coorientador: http://lattes.cnpq.br/2149928021922564
Tipo de Acesso: Acesso Aberto
Aparece nas coleções:DCOMP - Teses defendidas na UFC

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2023_tese_jpamaral.pdf3,11 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.