Use este identificador para citar ou linkar para este item: http://repositorio.ufc.br/handle/riufc/75618
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorPitombeira Neto, Anselmo Ramalho-
dc.contributor.authorCordeiro, Francisco Edyvalberty Alenquer-
dc.date.accessioned2024-01-05T13:25:12Z-
dc.date.available2024-01-05T13:25:12Z-
dc.date.issued2023-12-20-
dc.identifier.citationCORDEIRO, Francisco Edyvalberty Alenquer. Aprendizado por reforço profundo aplicado ao problema de alocação de veículos dinâmico e estocástico. 2023. 106 f. Dissertação (Mestrado em Modelagem e Métodos Quantitativos) – Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2023.pt_BR
dc.identifier.urihttp://repositorio.ufc.br/handle/riufc/75618-
dc.description.abstractThe dynamic and stochastic vehicle allocation problem involves deciding which vehicles to assign to requests that arise randomly in time and space. This challenge includes various practical scenarios, such as the transportation of goods by trucks, emergency response systems, and app- based transportation services. In this study, the problem was modeled as a semi-Markov decision process, allowing the treatment of time as a continuous variable. In this approach, decision moments coincide with discrete events with random durations. The use of this event-based strategy results in a significant reduction in decision space, thereby reducing the complexity of the allocation problems involved. Furthermore, it proves to be more suitable for practical situations when compared to discrete-time models often used in the literature. To validate the proposed approach, a discrete event simulator was developed, and two decision-making agents were trained using the reinforcement learning algorithm called Double Deep Q-Learning. Numerical experiments were conducted in realistic scenarios in New York, and the results of the proposed approach were compared with commonly employed heuristics, demonstrating substantial improvements, including up to a 50% reduction in average waiting times compared to other tested policies.pt_BR
dc.language.isopt_BRpt_BR
dc.rightsAcesso Abertopt_BR
dc.titleAprendizado por reforço profundo aplicado ao problema de alocação de veículos dinâmico e estocásticopt_BR
dc.typeDissertaçãopt_BR
dc.description.abstract-ptbrO problema de alocação de veículos dinâmico e estocástico consiste em decidir quais veículos atribuir a solicitações que surgem de maneira aleatória no tempo e no espaço. Este desafio abrange diversas situações práticas, como o transporte de cargas por caminhões, sistemas de atendimento de emergência e serviços de transporte por aplicativo. Neste estudo, o problema foi modelado como um processo de decisão semimarkoviano, permitindo tratar o tempo como uma variável contínua. Nessa abordagem, os momentos de decisão coincidem com eventos discretos, cujas durações são aleatórias. A aplicação dessa estratégia baseada em eventos resulta em uma significativa redução do espaço de decisões, diminuindo a complexidade dos problemas de alocação envolvidos. Além disso, mostra-se mais adequada para situações práticas quando comparada com os modelos de tempo discreto frequentemente utilizados na literatura. Para validar a abordagem proposta, foi desenvolvido um simulador de eventos discretos e realizado o treinamento de dois agentes tomadores de decisão utilizando o algoritmo de aprendizado por reforço chamado Double Deep Q-Learning. Os experimentos numéricos foram conduzidos em cenários realistas de Nova York, e os resultados da abordagem proposta foram comparados com heurísticas comumente empregadas na prática, evidenciando melhorias substanciais, incluindo a redução de até 50% nos tempos médios de espera em comparação com as demais políticas testadas.pt_BR
dc.title.enDeep reinforcement learning applied to the dynamic and stochastic vehicle allocation problempt_BR
dc.subject.ptbrOtimização matemáticapt_BR
dc.subject.ptbrSimulação de eventos discretospt_BR
dc.subject.ptbrAprendizado por reforçopt_BR
dc.subject.ptbrRedes neurais (Computação)pt_BR
dc.subject.ptbrQ-learningpt_BR
dc.subject.ptbrProcesso de decisão semimarkovianopt_BR
dc.subject.enMathematical optimizationpt_BR
dc.subject.enDiscrete event simulationpt_BR
dc.subject.enReinforcement learningpt_BR
dc.subject.enNeural networks (Computer science)pt_BR
dc.subject.enQ-learningpt_BR
dc.subject.enSemi-Markov decision processpt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::MATEMATICA::MATEMATICA APLICADApt_BR
local.author.latteshttp://lattes.cnpq.br/9677872188319644pt_BR
local.advisor.orcid0000-0001-9234-8917pt_BR
local.advisor.latteshttp://lattes.cnpq.br/5661587413564713pt_BR
local.date.available2023-12-21-
Aparece nas coleções:DEMA - Dissertações defendidas na UFC

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2023_dis_feacordeiro.pdfDissertação Edy Alenquer13,84 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.