Processos de decisões de Markov

dc.contributor.advisor1Kapp, Rafael Augusto dos Santos
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/2872257628868649por
dc.contributor.authorBellobraydic, Gabrielle
dc.date.accessioned2024-10-29T17:57:14Z
dc.date.available2024-10-29T17:57:14Z
dc.date.issued2024-02-08
dc.description.abstractThis study explores Sequential Markov Decision Models, or Markov Decision Processes (MDPs), which are used for sequential decision-making in stochastic environments. With practical applications in areas like marketing and inventory management, MDPs help optimize adaptive decisions, such as advertising campaigns and inventory restocking, reducing costs and enhancing customer experience. The research is structured into chapters that provide a gradual approach to the topic. The first chapter introduces a probability foundation, essential for understanding Markov Processes. The second chapter focuses on Markov Chains, fundamental to comprehending MDPs. Subsequent chapters delve into non-homogeneous aspects of Markov Processes, detailing temporal variations and variable rewards, enabling the modeling of diverse phenomena. The work includes theoretical and practical examples to illustrate concepts and explores topics such as absorbing states and stopping problems in MDPs, making theory application more accessible and enhancing reader comprehension.eng
dc.description.resumoEste trabalho explora os Modelos de Decisão de Markov Sequencial, ou Processos de Decisão de Markov (MDPs), que são utilizados para decisões sequenciais em ambientes estocásticos. Com aplicações práticas em áreas como marketing e gerenciamento de estoque, os MDPs ajudam a otimizar decisões adaptativas, como campanhas publicitárias e reposição de estoques, reduzindo custos e melhorando a experiência do cliente. A pesquisa é estruturada em capítulos que oferecem uma abordagem gradual ao tema. No primeiro capítulo, apresenta-se uma base em probabilidade, essencial para a compreensão dos Processos de Markov. O segundo capítulo foca nas Cadeias de Markov, fundamentais para entender os MDPs. Nos capítulos seguintes, aprofunda-se em aspectos não homogêneos dos Processos de Markov, detalhando variações temporais e recompensas variáveis, que permitem a modelagem de fenômenos diversos. O trabalho inclui exemplos teóricos e práticos para ilustrar os conceitos, além de explorar temas como estados absorventes e problemas de parada em MDPs, facilitando a aplicação prática e o entendimento da teoria para o leitor.por
dc.description.sponsorshipNão recebi financiamentopor
dc.identifier.citationBELLOBRAYDIC, Gabrielle. Processos de decisões de Markov. 2024. Trabalho de Conclusão de Curso (Graduação em Matemática) – Universidade Federal de São Carlos, São Carlos, 2024. Disponível em: https://repositorio.ufscar.br/handle/20.500.14289/20886.*
dc.identifier.urihttps://repositorio.ufscar.br/handle/20.500.14289/20886
dc.language.isoporpor
dc.publisherUniversidade Federal de São Carlospor
dc.publisher.addressCâmpus São Carlospor
dc.publisher.courseMatemática - MLpor
dc.publisher.initialsUFSCarpor
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/br/*
dc.subjectProcessos de decisão de Markovpor
dc.subjectCadeias de Markovpor
dc.subjectModelagem estocásticapor
dc.subjectMarkov decision processespor
dc.subjectMarkov chainseng
dc.subjectStochastic modelingeng
dc.subject.cnpqCIENCIAS EXATAS E DA TERRA::MATEMATICApor
dc.titleProcessos de decisões de Markovpor
dc.title.alternativeMarkov decision processeseng
dc.typeTCCpor

Arquivos

Pacote Original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
Monografia-TCC2-Gabrielle Bellobraydic (Versão final).pdf
Tamanho:
850.74 KB
Formato:
Adobe Portable Document Format
Descrição:

Coleções