Processos de decisões de Markov
| dc.contributor.advisor1 | Kapp, Rafael Augusto dos Santos | |
| dc.contributor.advisor1Lattes | http://lattes.cnpq.br/2872257628868649 | por |
| dc.contributor.author | Bellobraydic, Gabrielle | |
| dc.date.accessioned | 2024-10-29T17:57:14Z | |
| dc.date.available | 2024-10-29T17:57:14Z | |
| dc.date.issued | 2024-02-08 | |
| dc.description.abstract | This study explores Sequential Markov Decision Models, or Markov Decision Processes (MDPs), which are used for sequential decision-making in stochastic environments. With practical applications in areas like marketing and inventory management, MDPs help optimize adaptive decisions, such as advertising campaigns and inventory restocking, reducing costs and enhancing customer experience. The research is structured into chapters that provide a gradual approach to the topic. The first chapter introduces a probability foundation, essential for understanding Markov Processes. The second chapter focuses on Markov Chains, fundamental to comprehending MDPs. Subsequent chapters delve into non-homogeneous aspects of Markov Processes, detailing temporal variations and variable rewards, enabling the modeling of diverse phenomena. The work includes theoretical and practical examples to illustrate concepts and explores topics such as absorbing states and stopping problems in MDPs, making theory application more accessible and enhancing reader comprehension. | eng |
| dc.description.resumo | Este trabalho explora os Modelos de Decisão de Markov Sequencial, ou Processos de Decisão de Markov (MDPs), que são utilizados para decisões sequenciais em ambientes estocásticos. Com aplicações práticas em áreas como marketing e gerenciamento de estoque, os MDPs ajudam a otimizar decisões adaptativas, como campanhas publicitárias e reposição de estoques, reduzindo custos e melhorando a experiência do cliente. A pesquisa é estruturada em capítulos que oferecem uma abordagem gradual ao tema. No primeiro capítulo, apresenta-se uma base em probabilidade, essencial para a compreensão dos Processos de Markov. O segundo capítulo foca nas Cadeias de Markov, fundamentais para entender os MDPs. Nos capítulos seguintes, aprofunda-se em aspectos não homogêneos dos Processos de Markov, detalhando variações temporais e recompensas variáveis, que permitem a modelagem de fenômenos diversos. O trabalho inclui exemplos teóricos e práticos para ilustrar os conceitos, além de explorar temas como estados absorventes e problemas de parada em MDPs, facilitando a aplicação prática e o entendimento da teoria para o leitor. | por |
| dc.description.sponsorship | Não recebi financiamento | por |
| dc.identifier.citation | BELLOBRAYDIC, Gabrielle. Processos de decisões de Markov. 2024. Trabalho de Conclusão de Curso (Graduação em Matemática) – Universidade Federal de São Carlos, São Carlos, 2024. Disponível em: https://repositorio.ufscar.br/handle/20.500.14289/20886. | * |
| dc.identifier.uri | https://repositorio.ufscar.br/handle/20.500.14289/20886 | |
| dc.language.iso | por | por |
| dc.publisher | Universidade Federal de São Carlos | por |
| dc.publisher.address | Câmpus São Carlos | por |
| dc.publisher.course | Matemática - ML | por |
| dc.publisher.initials | UFSCar | por |
| dc.rights | Attribution-NonCommercial-NoDerivs 3.0 Brazil | * |
| dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/br/ | * |
| dc.subject | Processos de decisão de Markov | por |
| dc.subject | Cadeias de Markov | por |
| dc.subject | Modelagem estocástica | por |
| dc.subject | Markov decision processes | por |
| dc.subject | Markov chains | eng |
| dc.subject | Stochastic modeling | eng |
| dc.subject.cnpq | CIENCIAS EXATAS E DA TERRA::MATEMATICA | por |
| dc.title | Processos de decisões de Markov | por |
| dc.title.alternative | Markov decision processes | eng |
| dc.type | TCC | por |
Arquivos
Pacote Original
1 - 1 de 1
Carregando...
- Nome:
- Monografia-TCC2-Gabrielle Bellobraydic (Versão final).pdf
- Tamanho:
- 850.74 KB
- Formato:
- Adobe Portable Document Format
- Descrição: