Use este identificador para citar ou linkar para este item:
http://repositorio.ufc.br/handle/riufc/75618
Registro completo de metadados
Campo DC | Valor | Idioma |
---|---|---|
dc.contributor.advisor | Pitombeira Neto, Anselmo Ramalho | - |
dc.contributor.author | Cordeiro, Francisco Edyvalberty Alenquer | - |
dc.date.accessioned | 2024-01-05T13:25:12Z | - |
dc.date.available | 2024-01-05T13:25:12Z | - |
dc.date.issued | 2023-12-20 | - |
dc.identifier.citation | CORDEIRO, Francisco Edyvalberty Alenquer. Aprendizado por reforço profundo aplicado ao problema de alocação de veículos dinâmico e estocástico. 2023. 106 f. Dissertação (Mestrado em Modelagem e Métodos Quantitativos) – Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2023. | pt_BR |
dc.identifier.uri | http://repositorio.ufc.br/handle/riufc/75618 | - |
dc.description.abstract | The dynamic and stochastic vehicle allocation problem involves deciding which vehicles to assign to requests that arise randomly in time and space. This challenge includes various practical scenarios, such as the transportation of goods by trucks, emergency response systems, and app- based transportation services. In this study, the problem was modeled as a semi-Markov decision process, allowing the treatment of time as a continuous variable. In this approach, decision moments coincide with discrete events with random durations. The use of this event-based strategy results in a significant reduction in decision space, thereby reducing the complexity of the allocation problems involved. Furthermore, it proves to be more suitable for practical situations when compared to discrete-time models often used in the literature. To validate the proposed approach, a discrete event simulator was developed, and two decision-making agents were trained using the reinforcement learning algorithm called Double Deep Q-Learning. Numerical experiments were conducted in realistic scenarios in New York, and the results of the proposed approach were compared with commonly employed heuristics, demonstrating substantial improvements, including up to a 50% reduction in average waiting times compared to other tested policies. | pt_BR |
dc.language.iso | pt_BR | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.title | Aprendizado por reforço profundo aplicado ao problema de alocação de veículos dinâmico e estocástico | pt_BR |
dc.type | Dissertação | pt_BR |
dc.description.abstract-ptbr | O problema de alocação de veículos dinâmico e estocástico consiste em decidir quais veículos atribuir a solicitações que surgem de maneira aleatória no tempo e no espaço. Este desafio abrange diversas situações práticas, como o transporte de cargas por caminhões, sistemas de atendimento de emergência e serviços de transporte por aplicativo. Neste estudo, o problema foi modelado como um processo de decisão semimarkoviano, permitindo tratar o tempo como uma variável contínua. Nessa abordagem, os momentos de decisão coincidem com eventos discretos, cujas durações são aleatórias. A aplicação dessa estratégia baseada em eventos resulta em uma significativa redução do espaço de decisões, diminuindo a complexidade dos problemas de alocação envolvidos. Além disso, mostra-se mais adequada para situações práticas quando comparada com os modelos de tempo discreto frequentemente utilizados na literatura. Para validar a abordagem proposta, foi desenvolvido um simulador de eventos discretos e realizado o treinamento de dois agentes tomadores de decisão utilizando o algoritmo de aprendizado por reforço chamado Double Deep Q-Learning. Os experimentos numéricos foram conduzidos em cenários realistas de Nova York, e os resultados da abordagem proposta foram comparados com heurísticas comumente empregadas na prática, evidenciando melhorias substanciais, incluindo a redução de até 50% nos tempos médios de espera em comparação com as demais políticas testadas. | pt_BR |
dc.title.en | Deep reinforcement learning applied to the dynamic and stochastic vehicle allocation problem | pt_BR |
dc.subject.ptbr | Otimização matemática | pt_BR |
dc.subject.ptbr | Simulação de eventos discretos | pt_BR |
dc.subject.ptbr | Aprendizado por reforço | pt_BR |
dc.subject.ptbr | Redes neurais (Computação) | pt_BR |
dc.subject.ptbr | Q-learning | pt_BR |
dc.subject.ptbr | Processo de decisão semimarkoviano | pt_BR |
dc.subject.en | Mathematical optimization | pt_BR |
dc.subject.en | Discrete event simulation | pt_BR |
dc.subject.en | Reinforcement learning | pt_BR |
dc.subject.en | Neural networks (Computer science) | pt_BR |
dc.subject.en | Q-learning | pt_BR |
dc.subject.en | Semi-Markov decision process | pt_BR |
dc.subject.cnpq | CNPQ::CIENCIAS EXATAS E DA TERRA::MATEMATICA::MATEMATICA APLICADA | pt_BR |
local.author.lattes | http://lattes.cnpq.br/9677872188319644 | pt_BR |
local.advisor.orcid | 0000-0001-9234-8917 | pt_BR |
local.advisor.lattes | http://lattes.cnpq.br/5661587413564713 | pt_BR |
local.date.available | 2023-12-21 | - |
Aparece nas coleções: | DEMA - Dissertações defendidas na UFC |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
2023_dis_feacordeiro.pdf | Dissertação Edy Alenquer | 13,84 MB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.