Por favor, use este identificador para citar o enlazar este ítem:
http://repositorio.ufc.br/handle/riufc/76900
Tipo: | Tese |
Título : | Uma arquitetura autonômica para alocação preditiva de recursos no gerenciamento de capacidade em nuvem utilizando redes neurais |
Título en inglés: | An autonomous architecture for predictive resource allocation in cloud capacity management using neural networks |
Autor : | Amaral, Janete Pereira do |
Tutor: | Souza, José Neuman de |
Co-asesor: | Lima, Alberto Sampaio |
Palabras clave en portugués brasileño: | Computação em nuvem;Stacked Long Short-Term Memory;Computação autonômica em nuvem;Gerenciamento de Capacidade em Nuvem;Business-driven information technology management |
Palabras clave en inglés: | Cloud computing;Stacked long Short-Term Memory;Cloud autonomic computing;Capacity planning;Business-driven information technology management |
Áreas de Conocimiento - CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
Fecha de publicación : | 2023 |
Citación : | AMARAL, Janete Pereira do. Uma arquitetura autonômica para alocação preditiva de recursos no gerenciamento de capacidade em nuvem utilizando redes neurais. 2023. 181 f. Tese (Doutorado em Ciência da Computação) - Universidade Federal do Ceará, Fortaleza, 2023. |
Resumen en portugués brasileño: | A computação em nuvem tem sido apontada como uma solução para o uso racional de recursos da Tecnologia da Informação. Os provedores de serviços em nuvem oferecem ambientes compartilhados que podem ser dimensionados para atender aos requisitos flutuantes de seus clientes. O desafio imposto é a utilização de mecanismos capazes de otimizar o uso dos recursos e, simultaneamente, garantir que o desempenho desses serviços continue atendendo às métricas Quality of Experience (QoE), Quality of Service (QoS), bem como aos Service Level Indicators (SLI) e aos respectivos Service Level Agreements (SLA) estabelecidos. Os provedores necessitam oferecer mecanismos autonômicos para promover a escalabilidade dos recursos em tempo hábil, ao tempo em que os clientes precisam confiar no desempenho e nos custos envolvidos nas negociações. No processo de Gerenciamento de Capacidade em Nuvem, diversas abordagens preditivas de escalonamento de recursos já foram propostas para superar as limitações das abordagens reativas convencionais. Entretanto, tais abordagens ainda não demostraram resultados satisfatórios, em termos de custo, desempenho e autonomia. Esta pesquisa propõe uma Arquitetura Autonômica para Alocação Preditiva de Recursos no Gerenciamento de Capacidade em Nuvem utilizando Redes Neurais que combina características reativas e preditivas para o escalonamento de recursos. Para suportar o provisionamento preditivo de recursos, foi utilizado Recurrent Neural Networks (RNNs) na arquitetura Stacked Long Short-Term Memory, buscando suplantar os resultados já alcançados. Na abordagem autonômica, adotou-se o modelo MAPE-K, recorrendo aos princípios da Autonomic Cloud Computing (ACC). Visando demonstrar a viabilidade da proposta foi elaborado um estudo de caso utilizando traces experimentais. Na avaliação da acurácia da predição utilizou-se um comparativo entre a rede LSTM clássica e a rede Stacked LSTM. Para análise operacional foi proposta uma arquitetura autonômica utilizando o modelo preditivo. Os resultados obtidos demonstraram a viabilidade da proposta, trazendo como benefício a utilização das Stacked LSTMs na predição do provisionamento de recursos em nuvem. Como trabalhos futuros, pretende-se implementar a arquitetura em uma ferramenta operacional, em código livre, para apoiar provedores de serviços de pequeno e médio porte e permitir o planejamento de capacidade no processo de migração para nuvem. |
Abstract: | Cloud computing has been identified as a solution for the rational use of Information Technology resources. Cloud service providers offer shared environments that can scale to meet their customers' fluctuating requirements. The challenge imposed is the use of mechanisms capable of optimizing the use of resources and, simultaneously, ensuring that the performance of these services continues to meet the Quality of Experience (QoE), Quality of Service (QoS) metrics, as well as the Service Level Indicators (SLI) and the respective Service Level Agreements (SLA) established. Providers need to offer autonomic mechanisms to promote resource scalability promptly, while customers need to trust the performance and costs involved in negotiations. In the Cloud Resource Management process, several predictive resource scheduling approaches have already been proposed to overcome the limitations of conventional reactive techniques. However, such methods have yet to demonstrate satisfactory cost, performance, and autonomy results. This research proposes an Autonomic Cloud Resource Management Model that combines reactive and predictive features for resource scheduling. To support the predictive provisioning of resources, Recurrent Neural Networks (RNNs) were used in the Stacked Long Short-Term Memory architecture, seeking to overcome the results already achieved. The MAPE-K model was adopted in the autonomic approach, using the principles of Autonomic Cloud Computing (ACC). A case study was elaborated using experimental traces to demonstrate the proposal's viability. In evaluating the model's accuracy, a comparison between the classic LSTM network and different configurations of the Stacked LSTM network was used. A prototype was implemented using components of cloud infrastructure simulators to analyze the operational viability. The obtained results demonstrated the feasibility of the proposal, bringing as a benefit the use of Stacked LSTMs in predicting the provisioning of cloud resources. As future work, it is intended to evolve the prototype into an operational tool, in open source, to support small and medium-sized service providers and allow capacity planning in the cloud migration process. |
URI : | http://repositorio.ufc.br/handle/riufc/76900 |
Lattes del autor: | http://lattes.cnpq.br/2735748704923562 |
Lattes del tutor: | http://lattes.cnpq.br/3614256141054800 |
Lattes del co-asesor: | http://lattes.cnpq.br/2149928021922564 |
Derechos de acceso: | Acesso Aberto |
Aparece en las colecciones: | DCOMP - Teses defendidas na UFC |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
2023_tese_jpamaral.pdf | 3,11 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.