Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.ufc.br/handle/riufc/75618
Tipo: Dissertação
Título : Aprendizado por reforço profundo aplicado ao problema de alocação de veículos dinâmico e estocástico
Título en inglés: Deep reinforcement learning applied to the dynamic and stochastic vehicle allocation problem
Autor : Cordeiro, Francisco Edyvalberty Alenquer
Tutor: Pitombeira Neto, Anselmo Ramalho
Palabras clave en portugués brasileño: Otimização matemática;Simulação de eventos discretos;Aprendizado por reforço;Redes neurais (Computação);Q-learning;Processo de decisão semimarkoviano
Palabras clave en inglés: Mathematical optimization;Discrete event simulation;Reinforcement learning;Neural networks (Computer science);Q-learning;Semi-Markov decision process
Áreas de Conocimiento - CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::MATEMATICA::MATEMATICA APLICADA
Fecha de publicación : 20-dic-2023
Citación : CORDEIRO, Francisco Edyvalberty Alenquer. Aprendizado por reforço profundo aplicado ao problema de alocação de veículos dinâmico e estocástico. 2023. 106 f. Dissertação (Mestrado em Modelagem e Métodos Quantitativos) – Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2023.
Resumen en portugués brasileño: O problema de alocação de veículos dinâmico e estocástico consiste em decidir quais veículos atribuir a solicitações que surgem de maneira aleatória no tempo e no espaço. Este desafio abrange diversas situações práticas, como o transporte de cargas por caminhões, sistemas de atendimento de emergência e serviços de transporte por aplicativo. Neste estudo, o problema foi modelado como um processo de decisão semimarkoviano, permitindo tratar o tempo como uma variável contínua. Nessa abordagem, os momentos de decisão coincidem com eventos discretos, cujas durações são aleatórias. A aplicação dessa estratégia baseada em eventos resulta em uma significativa redução do espaço de decisões, diminuindo a complexidade dos problemas de alocação envolvidos. Além disso, mostra-se mais adequada para situações práticas quando comparada com os modelos de tempo discreto frequentemente utilizados na literatura. Para validar a abordagem proposta, foi desenvolvido um simulador de eventos discretos e realizado o treinamento de dois agentes tomadores de decisão utilizando o algoritmo de aprendizado por reforço chamado Double Deep Q-Learning. Os experimentos numéricos foram conduzidos em cenários realistas de Nova York, e os resultados da abordagem proposta foram comparados com heurísticas comumente empregadas na prática, evidenciando melhorias substanciais, incluindo a redução de até 50% nos tempos médios de espera em comparação com as demais políticas testadas.
Abstract: The dynamic and stochastic vehicle allocation problem involves deciding which vehicles to assign to requests that arise randomly in time and space. This challenge includes various practical scenarios, such as the transportation of goods by trucks, emergency response systems, and app- based transportation services. In this study, the problem was modeled as a semi-Markov decision process, allowing the treatment of time as a continuous variable. In this approach, decision moments coincide with discrete events with random durations. The use of this event-based strategy results in a significant reduction in decision space, thereby reducing the complexity of the allocation problems involved. Furthermore, it proves to be more suitable for practical situations when compared to discrete-time models often used in the literature. To validate the proposed approach, a discrete event simulator was developed, and two decision-making agents were trained using the reinforcement learning algorithm called Double Deep Q-Learning. Numerical experiments were conducted in realistic scenarios in New York, and the results of the proposed approach were compared with commonly employed heuristics, demonstrating substantial improvements, including up to a 50% reduction in average waiting times compared to other tested policies.
URI : http://repositorio.ufc.br/handle/riufc/75618
Lattes del autor: http://lattes.cnpq.br/9677872188319644
ORCID del tutor: 0000-0001-9234-8917
Lattes del tutor: http://lattes.cnpq.br/5661587413564713
Derechos de acceso: Acesso Aberto
Aparece en las colecciones: DEMA - Dissertações defendidas na UFC

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
2023_dis_feacordeiro.pdfDissertação Edy Alenquer13,84 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.