Institución | Facultad de Cs. Físicas y Matemáticas | |
---|---|---|
Disponible desde | Otoño 2009 | |
Cursos Asociados | Otras realizaciones de este Curso | |
Objetivos | El principal objetivo del curso es obtener una mejor comprensión de las metodologías para la toma de decisiones en situaciones de incertidumbre. | |
Descripción | Este curso esta compuesto de tres grandes partes: I) Programación dinámica II) Procesos estocásticos III) Teoría de Filas de Espera y Simulación El programa detalladoes el siguiente: Capítulo 1: Análisis de Decisiones * Introducción. * Relación información-incertidumbre: Teorema de Bayes; El valor de la información. * Criterio del Valor Esperado. * Árboles de Decisión. Capítulo 2: Programación Dinámica * Caracterización de problemas de programación dinámica. * Programación dinámica determinística. * Programación dinámica probabilística. * Ejemplos de aplicaciones. Capítulo 3: Cadenas de Markov * Introducción a los Procesos Estocásticos. * Cadenas de Markov: Caracterización; Clasificación; Teoremas límites. * Cadenas de Markov con Beneficios. * Modelos de decisión markovianos. Capítulo 4: Procesos Estocásticos en Tiempo Continuo * Procesos de Poisson: Definición y propiedades; Suma y división. * Cadenas de Markov en tiempo continuo. * Procesos de Nacimiento y Muerte. Capítulo 5: Fenómenos de Espera * Introducción a los problemas de espera. * Modelo M/M/1: Distribución del tiempo de espera; Efectividad; Largo de cola y tiempo de espera; Fórmula de Little. * Otros modelos markovianos: M/M/1/K; M/M/C; Servicio dependiente del estado; Llegadas en batch. * Sistemas markovianos compuestos. * Sistemas no markovianos (Caso M/G/1). Capítulo 6: Simulación * Introducción: Representación de eventos aleatorios; Simulación de Montecarlo. * Enfoques de simulación. * Análisis de resultados y validación de modelos. |
|
Programa del Curso | 2007_1_IN44A.pdf | |
Compartir |