Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Optimización Clase 22: Cadenas de Markov Profesor: José Manuel Izquierdo Puntos de análisis Optimización, Cadenas de Markov , Junio-2018 2 • Proceso aleatorio • El futuro depende de decisiones que afectan el estado de las variables de estado, sin importar el comportamiento en el pasado de las variables a estudiar • El estado futuro del comportamiento de una variable dependerá si esta contempla un proceso de absorción o un proceso sin absorción de estado (Ergódico) Proceso de Markov: Proceso matemático que busca determinar el estado o condición en el cual se van a encontrar las variables de estudio en un proceso futuro. Este proceso futuro dependerá únicamente de las condiciones o decisiones que se tomen paso a paso, las cuales quedan determinadas en la matriz de transición. Ejemplos de Procesos de Markov Optimización, Cadenas de Markov , Junio-2018 3 Procesos de Markov Ergódicos (No absorbentes) • Cambio de marca o productos • Pronósticos del Tiempo • Sistemas de Apuestas Online • Sistemas Financieros (Teoría de Mercados Eficientes, Eugene Fama) • Sistemas de rankeo de páginas web: Google Procesos de Markov de Tipo Absorbentes • Promoción o despidos de empleados en una empresa • Asignación de Riesgos de Crédito • Secuenciación del ADN https://www.youtube.com/watch?v=cDf7rZ7eO78 Procesos de Markov: Repaso Algebra Lineal Optimización, Cadenas de Markov , Junio-2018 4 � = ��,� ��,���,� ��,� � = �,� �,� �,� �,� � · � = ��,� · �,� + ��,� · �,� ��,� · �,� + ��,� · �,� ��,� · �,� + ��,� · �,� ��,� · �,� + ��,� · �,� � · � ≠ � · � ��,� · �,� + ��,� · �,� ��,� · �,� + ��,� · �,���,� · �,� + ��,� · �,� ��,� · �,� + ��,� · �,� ≠ �,� · ��,� + �,� · ��,� �,� · ��,� + �,� · ��,� �,� · ��,� + �,� · ��,� �,� · ��,� + �,� · ��,� �� = � · � = ��,� ��,���,� ��,� · ��,� ��,� ��,� ��,� = ��,� · ��,� + ��,� · ��,� ��,� · ��,� + ��,� · ��,� ��,� · ��,� + ��,� · ��,� ��,� · ��,� + ��,� · ��,� � = � · �� = ��,� ��,���,� ��,� · ��,� · ��,� + ��,� · ��,� ��,� · ��,� + ��,� · ��,� ��,� · ��,� + ��,� · ��,� ��,� · ��,� + ��,� · ��,� � = ��,� ��,� ��, ��,� ��,� ��, � ,� � ,� � , � = �,� �,� �, �,� �,� �, ,� ,� , � · � = ��,� · �,� + ��,� · �,� + ��, · ,� ��,� · �,� + ��,� · �,� + ��, · ,� ��,� · �, + ��,� · �, + ��, · , ��,� · �,� + ��,� · �,� + ��, · ,� ��,� · �,� + ��,� · �,� + ��, · ,� ��,� · �, + ��,� · �, + ��, · , � ,� · �,� + � ,� · �,� + � , · ,� � ,� · �,� + � ,� · �,� + � , · ,� � ,� · �, + � ,� · �, + � , · , Ejemplo de Proceso de Markov Ergódico: Guerra de las Colas Optimización, Cadenas de Markov , Junio-2018 5 Usted ha de determinar el espacio necesario en las máquinas de refrigeración del casino de la universidad, para lo cual dispone de 2 bebidas cola: Coca-Cola y Pepsi. Luego de realizar una encuesta de preferencia, los alumnos le manifestaron que aquellos que en la última vez habían consumido Coca-Cola un 90% volvería a preferir Coca-Cola y solo un 10% se cambiarían a Pepsi, mientras que aquellos que contestaron la encuesta mencionando que la última vez que consumieron Pepsi, un 95% volvería a consumir Pepsi y sólo un 5% se cambiaría a Coca-Cola. Su misión es determinar cuánto espacio de las vitrinas refrigeradas estarán ocupadas con Coca-Cola y cuánto espacio estará ocupado por Pepsi. Ejemplo de Proceso de Markov Ergódico Optimización, Cadenas de Markov , Junio-2018 6 Proceso de Markov Ergódico: Guerra de las Colas Optimización, Cadenas de Markov , Junio-2018 7 Diagrama de Markov 0,9 0,1 0,05 0,95 Matriz de Preferencia de Consumidores: Matriz de Transición � ��,� = 1 � = 1 → � � ��� Proceso de Markov Ergódico: Guerra de las Colas Optimización, Cadenas de Markov , Junio-2018 8 Probabilidad de que 1 consumidor de Coca-Cola consuma Coca-Cola en el segundo período ���,�� 2 = 0,9 · 0,9 + 0,1 · 0,05 = 0,81 + 0,005 = 0,815 �� = 0,9 0,10,05 0,95 · 0,9 0,1 0,05 0,95 �� = �, !" 0,1850,092 0,908 �� = ##�$ �, !" 0,185 0,092 0,908 ## �$ Proceso de Markov Ergódico: Guerra de las Colas Optimización, Cadenas de Markov , Junio-2018 9 Probabilidad de que 1 consumidor de Pepsi consuma Coca-Cola en el segundo período �� = 0,9 0,10,05 0,95 · 0,9 0,1 0,05 0,95 �� = 0,815 0,185�, �%&" 0,908 �'(,�� 2 = 0,05 · 0,9 + 0,95 · 0,05 = 0,045 + 0,0475 = 0,0925 �� = ##�$ 0,815 0,185 �, �%&" 0,908 ## �$ Proceso de Markov Ergódico: Guerra de las Colas Optimización, Cadenas de Markov , Junio-2018 10 Probabilidad de que 1 consumidor de Coca-Cola consuma Coca-Cola en el tercer período � = � · �� = 0,9 0,10,05 0,95 · 0,815 0,185 0,0925 0,908 = ## �$ �, +,- 0,257 0,129 0,871 ���,�� 3 = 0,9 · 0,9 · 0,9 + 0,9 · 0,1 · 0,05 0,1 · 0,05 · 0,9 + 0,1 · 0,95 · 0,05 = 0,729 + 0,0045 + 0,0045 + 0,00475 = 0,743 � = 0,9 0,10,05 0,95 · 0,9 0,1 0,05 0,95 · 0,9 0,1 0,05 0,95 ## �$ Proceso de Markov Ergódico: Guerra de las Colas Optimización, Cadenas de Markov , Junio-2018 11 Probabilidad de que 1 consumidor de Coca-Cola consuma Pepsi en el tercer período � = 0,9 0,10,05 0,95 · 0,9 0,1 0,05 0,95 · 0,9 0,1 0,05 0,95 � = ##�$ 0,743 �, &"+ 0,129 0,871 ���,'( 3 = 0,9 · 0,9 · 0,1 + 0,9 · 0,1 · 0,95 0,1 · 0,05 · 0,1 + 0,1 · 0,95 · 0,95 = 0,081 + 0,086 + 0,0005 + 0,090 = 0,257 ## �$ Proceso de Markov Ergódico: Guerra de las Colas Optimización, Cadenas de Markov , Junio-2018 12 Análisis de Largo Plazo ���,�� 10 = 0,467 ���,'( 10 = 0,535 �'(,�� 10 = 0,267 �'(,'( 10 = 0,732 ��0 = 0,467 0,5350,267 0,732 ���,�� 25 = 0,345 ���,'( 25 = 0,655 �'(,�� 25 = 0,328 �'(,'( 25 = 0, 672 ��1 = 0,345 0,6550,328 0,672 ���,�� 40 = 0,334 ���,'( 40 = 0,666 �'(,�� 40 = 0,333 �'(,'( 40 = 0, 667 �20 = 0,334 0,6660,333 0,667 ���,�� 50 = 0,333 ���,'( 50 = 0,666 �'(,�� 50 = 0,333 �'(,'( 50 = 0, 667 �10 = 0,333 0,6660,333 0,667 En base al análisis de Cadenas de Markov en el largo plazo se puede concluir que la demanda esperada de consumo de Coca-Cola sea 1/3 mientas que para Pepsi sea de 2/3, esto implica que para un dispensador de bebidas cola debiese tener 1/3 de su espacio lleno con Coca-Cola y 2/3 del espacio lleno con Pepsi, de manera de satisfacer de mejor manera la desmanda por bebidas cola de los clientes. �10 = ##�$ 0,333 0,666 0,333 0,667 ## �$ Ejemplo de Proceso de Markov: Guerra de las Colas Optimización, Cadenas de Markov , Junio-2018 13 Ejemplo de Proceso de Markov: Guerra de las Colas Optimización, Cadenas de Markov , Junio-2018 14 Ejemplo de Proceso de Markov: Guerra de las Colas Optimización, Cadenas de Markov , Junio-2018 15 Ejemplo de Proceso de Markov: Guerra de las Colas Optimización, Cadenas de Markov , Junio-2018 16 Ejemplo de Proceso de Markov: Guerra de las Colas Optimización, Cadenas de Markov , Junio-2018 17 Ejemplo de Proceso de Markov: Programas de Fidelización Optimización, Cadenas de Markov , Junio-2018 18 Proceso de Markov Absorbente: Recursos Humanos Ejercicio desarrollado por profesor Marco Caserta, IE Business School Optimización, Cadenas de Markov , Junio-2018 19 Usted ha egresado exitosamente de la carrera de Ingeniería Comercial en la U. Andes y se encuentra postulando a un trabajo en la Consultora GIR como analista Junior. Antes de tener la entrevista con el gerente de recursos humanos, un amigo que se encuentra trabajando en GIR Consultores le mencionó que en la actualidad existe un 70% de probabilidad de que un Analista Junior mantenga su posición durante el próximo año, 20% de posibilidad de ser ascendido a Analista Senior y un 10% de ser despedido. Por otro lado un Analista Senior tiene un 80% de posibilidad de mantenerse en ese cargo, un 10% de posibilidad de ser ascendido como Socio de la firma (Partner) y un 10% de posibilidad de ser despedido. Finalmente un Socio o (Partner) de la firma tiene un 95% de posibilidad de mantenerse en el cargoy un 5% de posibilidad de Jubilarse o Retirarse. Consiente de esta información usted ha decidido hacer sus cálculos basados en un proceso de Markov de manera de poder responder Cuantitativamente a la clásica pregunta de selección de personal “Y como te vez te ves en esta empresa después de 3 años, y de la misma manera cómo vez tu futuro en esta empresa al cabo de 10 años” Proceso de Markov Absorbente: Recursos Humanos Optimización, Cadenas de Markov , Junio-2018 20 Diagrama de Markov Matriz de Transición J S P D R J 0,7 0,2 0 0,1 0 S 0 0,8 0,1 0,1 0 P 0 0 0,95 0 0,05 D 0 0 0 1 0 R 0 0 0 0 1 � ��,� = 1 � = 1 → � � ��� Proceso de Markov Absorbente: Recursos Humanos Optimización, Cadenas de Markov , Junio-2018 21 Proceso de Markov Absorbente: Recursos Humanos Optimización, Cadenas de Markov , Junio-2018 22 Que expectativa profesional que tiene un analista recién contratado al cabo de 3 años � = � · � · � = � · �� = 0,7 0,2 0 0,1 0 0 0,8 0,1 0,1 0 0 0 0 0 0 0 0,95 0 0,05 0 1 0 0 0 1 · 0,7 0,2 0 0,1 0 0 0,8 0,1 0,1 0 0 0 0 0 0 0 0,95 0 0,05 0 1 0 0 0 1 · 0,7 0,2 0 0,1 0 0 0,8 0,1 0,1 0 0 0 0 0 0 0 0,95 0 0,05 0 1 0 0 0 1 = 0,7 0,2 0 0,1 0 0 0,8 0,1 0,1 0 0 0 0 0 0 0 0,95 0 0,05 0 1 0 0 0 1 · 0,490 0,300 0,020 0,190 0,000 0,000 0,640 0,175 0,180 0,005 0,000 0,000 0,000 0,000 0,000 0,000 0,903 0,000 0,098 0,000 1,000 0, 000 0,000 0,000 1,000 Se puede determinar después de realizar un proceso de Markov que con un 34,3% de probabilidad seguirá ejerciendo su cargo como analista Junior, existe un 33,8% de probabilidad de que estar ejerciendo profesionalmente como analista Senior, un 4,9% de probabilidad de estar ejerciendo profesionalmente como Socio (Partner), un 26,9% de probabilidad de que sea despedido dentro de tres años y un 1,0% de que habiendo alcanzado la condición de Jubilación. = 3 $ � 4 5 �, -,- �, -- �, �,% �, &6% �, �!� 0,000 0,512 0,230 0,244 0,014 0,000 0,000 0,000 0,000 0,000 0,000 0,857 0,000 0,143 0,000 1,000 0, 000 0,000 0,000 1,000 3 $ � 4 5 Proceso de Markov Absorbente: Recursos Humanos Optimización, Cadenas de Markov , Junio-2018 23 Que expectativa profesional que tiene un analista recién contratado al cabo de 10 años ��0 = � · �7 = 0,7 0,2 0 0,1 0 0 0,8 0,1 0,1 0 0 0 0 0 0 0 0,95 0 0,05 0 1 0 0 0 1 · 0,0404 0,1877 0,1895 0,5459 0,0366 0,0000 0,1342 0,3307 0,4329 0,1022 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,6302 0,0000 0,3698 0,0000 1,0000 0,0000 0,0000 0,0000 1,0000 = 3 $ � 4 5 �, �& & �, !" - �, !% �, "6 + �, �,6� 0,0000 0,1074 0,3276 0,4463 0,1187 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,5987 0,0000 0,4013 0,0000 1,0000 0,0000 0,0000 0,0000 1,0000 Se puede determinar después de realizar un proceso de Markov al cabo de 10 años que con un 2,82% de probabilidad seguirá ejerciendo su cargo como analista Junior, existe un 15,83% de probabilidad de que sea ascendido a Senior y que ejerza profesionalmente en esa condición, un 19,88% de probabilidad de que ejerza profesionalmente en condición de Socio (Partner) , un 56,87% de probabilidad de que halla sido despedido al cabo de diez años y un 4,6% de que haberse jubilado después de haber ingresado a la empresa hace 10. En resumen existe un 38,5% de probabilidad de seguir trabajando en la empresa en algún cargo (0,0282+0,1583+0,1988) y un 61,5% de probabilidad de no seguir trabajando en la empresa (0,5687+0,0460) = 1 - (0,0282+0,1583+0,1988). 3 $ � 4 5 Proceso de Markov Absorbente: Recursos Humanos Optimización, Cadenas de Markov , Junio-2018 24 Que expectativa profesional que tiene un analista en el muy largo plazo �10 =· 0,0000 0,0000 0,0410 0,6667 0,2923 0,0000 0,0000 0,0513 0,5000 0,4487 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0769 0,0000 0,9231 0,0000 1,0000 0,0000 0,0000 0,0000 1,0000 Se puede determinar que en el largo plazo cualquier trabajador que un día inició sus labores en la empresa tarde o temprano va a terminar siendo “absorbido/devorado” por los nodos absorbentes de la cadena de Markov. De esta manera un Analista Junior tiene una posibilidad de un 66,7% de terminar siendo despedido y un 33,3% de probabilidad de llegar a jubilarse en la empresa. Por su parte un analista Senior tiene un 50% de ser despedido a lo largo de su carrera profesional en la empresa y un 50% de retirase por jubilación. Finalmente el analista que entró como socio a la empresa se jubilará. �81 =· 0,0000 0,0000 0,0114 0,6667 0,3220 0,0000 0,0000 0,0142 0,5000 0,4858 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0213 0,0000 0,9787 0,0000 1,0000 0,0000 0,0000 0,0000 1,0000 ��00 =· 0,0000 0,0000 0,0032 0,6667 0,3202 0,0000 0,0000 0,0039 0,5000 0,4961 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0059 0,0000 0,9941 0,0000 1,0000 0,0000 0,0000 0,0000 1,0000 ��00 =· 0,0000 0,0000 0,0000 �, 666+ �, ---- 0,0000 0,0000 0,0000 �, "��� �, "��� 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,9999 0,0000 1,0000 0,0000 0,0000 0,0000 1,0000 Proceso de Markov Absorbente: Riesgo de Crédito Optimización, Cadenas de Markov , Junio-2018 25 Usted se encuentra trabajando en la Gerencia de Riesgo de Crédito de Banco Amigo y le han solicitado estudiar un crédito a Cencosud por US$ 200 Millones a un plazo de 3 años y otro crédito por US$ 500 Millones a 7 años plazo ambos en formato bullet (sólo paga capital al final del periodos). En la actualidad Cencosud cuenta con Categoría de Riesgo en moneda Internacional de BBB y en la Gerencia de Riesgo de Banco Amigo utilizan metodología de Riesgo de Crédito bajo Estándares Standard&Poors. Determine la probabilidad de que al cabo de 3 y 7 años Cencosud entre en un proceso de Reprogramación de Pasivos (CCC) o simplemente de declare en Cesación de Pagos (Default). Proceso de Markov Absorbente: Riesgo de Crédito Optimización, Cadenas de Markov , Junio-2018 26 AAA AA A BBB BB B CCC D AAA 0,736 0,25 0 0,014 0 0 0 0 AA 0,013 0,843 0,144 0 0 0 0 0 A 0,001 0,011 0,923 0,054 0 0,011 0 0 BBB 0 0 0,029 0,903 0,039 0,029 0 0 BB 0 0 0 0,056 0,827 0,058 0,031 0,028 B 0 0 0,001 0,001 0,063 0,823 0,071 0,041 CCC 0 0 0 0 0,005 0,295 0,379 0,321 D 0 0 0 0 0 0 0 1 Proceso de Markov Absorbente: Riesgo de Crédito Optimización, Cadenas de Markov , Junio-2018 27 � = 0,736 0,250 0,000 0,014 0,000 0,000 0,000 0,000 0,013 0,843 0,144 0,000 0,000 0,000 0,000 0,000 0,001 0,000 0,000 0,000 0,000 0,000 0,011 0,000 0,000 0,000 0,000 0,000 0,923 0,054 0,000 0,011 0,000 0,000 0,029 0,903 0,039 0,029 0,000 0,000 0,000 0,001 0,000 0,000 0,056 0,001 0,000 0,000 0,827 0,063 0,005 0,000 0,058 0,832 0,295 0,000 0,031 0,071 0,379 0,000 0,028 0,032 0,321 1,000 � = ��� �� � ��� �� � # 4 0,406 0,469 0,091 0,030 0,001 0,001 0,000 0,000 0,025 0,611 0,338 0,021 0,001 0,001 0,000 0,000 0,002 0,001 0,000 0,000 0,000 0,000 0,026 0,001 0,000 0,000 0,000 0,000 0,795 0,135 0,008 0,030 0,002 0,001 0,073 0,747 0,093 0,073 0,007 0,007 0,005 0,003 0,001 0,000 0,126 0,011 0,002 0,000 0,581 0,131 0,044 0,000 0,143 0,610 0,342 0,000 0,045 0,086 0,088 0,000 0,105 0,136 0,523 1,000 Al finalizar el tercer año existe un 0,71% de probabilidad de que Cencosud alcance una condición CCC que implica reestructuración de pasivos y un 0,74% de alcanzar dentro de un plazo de tres años una condición de Cesación de Pagos o Default. ��� �� � ��� �� � # 4 Proceso de Markov Absorbente: Riesgo de Crédito Optimización, Cadenas de Markov , Junio-2018 28 �8 = ��� �� � ��� �� � # 4 0,137 0,452 0,320 0,069 0,007 0,012 0,001 0,002 0,025 0,344 0,501 0,095 0,009 0,022 0,002 0,003 0,004 0,001 0,000 0,000 0,000 0,000 0,041 0,004 0,001 0,000 0,000 0,000 0,613 0,227 0,034 0,060 0,007 0,015 0,122 0,537 0,140 0,123 0,019 0,052 0,020 0,006 0,002 0,000 0,175 0,039 0,015 0,000 0,325 0,161 0,078 0,000 0,194 0,376 0,218 0,000 0,042 0,060 0,035 0,000 0,238 0,357 0,653 1,000 Al finalizar el séptimoaño existe un 1,9% de probabilidad de que Cencosud alcance una condición CCC que implica reestructuración de pasivos y un 5,2% de alcanzar después de siete años una condición de Cesación de Pagos o Default. ��� �� � ��� �� � # 4 Proceso de Markov Absorbente: Riesgo de Crédito Optimización, Cadenas de Markov , Junio-2018 29 �9�:;<�=> = ��� �� � ��� �� � # 4 0,000 0,000 0,000 0,000 0,000 0,000 0,000 1,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 1,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 1,000 0,000 0,000 0,000 0,000 0,000 1,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 1,000 1,000 1,000 1,000 En el largo Plazo finalmente el nodo absorbente del Default terminar absorbiendo “Devorando” a las transiciones, con lo cual tarde o temprano Cencosud entrará en Default ��� �� � ��� �� � # 4 Optimización Clase 22: Cadenas de Markov Anexo de Ejercicios Ejercicios proceso de Markov: Partidos Políticos Optimización, Cadenas de Markov , Junio-2018 31 Suponga un país donde existen sólo dos partidos políticos: Conservadores y Liberales. Un Conservador, con un 80% de probabilidad en la próxima elección seguirá votando Conservador (con un 20% votará Liberal). Un Liberal en cambio, con un 90% seguirá siendo Liberal y con un 10% votará Conservador en la próxima elección. a. Dibuje el grafo de la cadena de Markov que modela esta situación señalando claramente las probabilidades de cada arco. b. Escriba la matriz de transición. c. Si en la actualidad se sabe que 75% de los votantes son Conservadores y 25% son Liberales. Señale el padrón electoral para la siguiente y subsiguiente elección. d. Señale el padrón electoral de largo plazo. Partidos Políticos: Solución Optimización, Cadenas de Markov , Junio-2018 32 a. Dibuje el grafo de la cadena de Markov que modela esta situación señalando claramente las probabilidades de cada arco. b. Escriba la matriz de transición. #?�@ABC�D?B E�CAB�F #?�@ABC�D?B 0,8 0,2 E� AB�F 0,1 0,9 Partidos Políticos: Solución Optimización, Cadenas de Markov , Junio-2018 33 c. Si en la actualidad se sabe que 75% de los votantes son Conservadores y 25% son Liberales. Señale el padrón electoral para la siguiente y subsiguiente elección. 0,75 0,25 · 0,8 0,20,1 0,9 = 0,75 · 0,8 + 0,25 · 0,1 0,75 · 0,2 + 0,25 · 0,9 = 0,625 0,375 En la siguiente elección el 62,75% será Conservador y el 37,5% Liberal. 0,625 0,375 · 0,8 0,20,1 0,9 = 0,5375 0,4625 En la subsiguiente elección el 53,75% será Conservador y el 46,25% Liberal. Partidos Políticos: Solución Optimización, Cadenas de Markov , Junio-2018 34 d. Señale el padrón electoral de largo plazo. G� G� · 0,8 0,20,1 0,9 = G� G� 0,8G� + 0,1G� = G� Sabemos también que necesariamente: G� + G� = 1 G� G� = 13 2 3 Luego, en el largo plazo, el 33,3% votará Conservador mientras que el 66,7% votará Liberal. Ejercicios proceso de Markov: Salud Pública Optimización, Cadenas de Markov , Junio-2018 35 Un estudio utilizó cadenas de Markov para estimar pronóstico de un paciente para una extraña enfermedad desconocida, donde se concluyó lo siguiente para los pacientes enfermos: Un paciente sin síntomas seguirá sin síntomas con un 30% de probabilidad, con un 50% mostrará síntomas y con un 20% fallecerá producto de un ataque fulminante. Un paciente con síntomas seguirá en esa condición con un 50% de probabilidad y con un 50% fallecerá de un ataque fulminante (sin tratamiento un paciente con síntomas seguirá mostrándolos). En base a lo anterior se pide: a) Dibuje el grafo asociado a la Cadena de Markov y escriba la matriz de transición respectiva. b) Calcule para un paciente que hoy está sin síntomas (t=0) la probabilidad de supervivencia en t=2. c) Señale la matriz de transición para el largo plazo (��) para n grande. Salud Pública: Solución Optimización, Cadenas de Markov , Junio-2018 36 a) Dibuje el grafo asociado a la Cadena de Markov y escriba la matriz de transición respectiva. Estados: Sin síntomas (SS), Con Síntomas (CS) y Fallecido (F) $�� $��H. #?� $��H. J�FFAK�D? $�� $��H?L�@ 0,3 0,5 0,2 #?� $��H?L�@ J�FFAK�D? 0 0 0,5 0,5 0 1 Salud Pública: Solución Optimización, Cadenas de Markov , Junio-2018 37 b) Calcule para un paciente que hoy está sin síntomas (t=0) la probabilidad de supervivencia en t=2. �� = 0,3 0,5 0,2 0 0,5 0,5 0 0 1 0,3 0,5 0,2 0 0,5 0,5 0 0 1 = 0,09 0,4 0,51 0 0,25 0,75 0 0 1 La probabilidad de que esté fallecido es de 51%, luego la probabilidad de sobrevivir será de 49%. c) Señale la matriz de transición para el largo plazo (��) para n grande. Dado que el estado Fallecido es absorbente, no importa donde comencemos, siempre terminaremos en dicho estado, luego: �� = 0 0 1 0 0 1 0 0 1 Ejercicios proceso de Markov: Pasión por el futbol Optimización, Cadenas de Markov , Junio-2018 38 “El fanatismo por el futbol es algo que se lleva en la sangre”, decía el reconocido comentarista de futbol y premio nacional de periodismo Julio Martinez Pradanos. Aplicando este concepto en la vida real, una encuesta ha determinado que la adhesión a un equipo de futbol se transmite de generación en generación, donde se ha podido medir que si un padre es hincha de Colo Colo, existe un 90% de posibilidad de que su hijo siga siendo hincha de Colo Colo, mientras que existe un 3% de posibilidad de que su hijo cambie de parecer y se convierta en hincha de Universidad de Chile y un 7% de posibilidad de que se convierta en hincha de Santiago Wanderers. La misma encuesta determinó que si el padre es hincha de la Universidad de Chile, existe un 80% de posibilidad de que su hijo sea hincha de Universidad de Chile, un 15% que su hijo se vuelva hincha de Colo Colo y un 5% de que su hijo sea hincha de Santiago Wanderers. Finalmente si el padre es seguidor de Santiago Wanderers, existe un 85% de posibilidad de que su hijo sea hincha de SW, un 10% de que sea hincha de Colo Colo y un 5% que sea hincha de Universidad de Chile. Conforme a lo anterior se pide lo siguiente: a. Determine la matriz de transición y diagrama de Markov para desarrollar un modelo b. ¿Cuál es la probabilidad de que un nieto (t=2) NO SEA hincha de Universidad de Chile si su abuelo (t=0) era hincha de Colo Colo? ¿Cuál es la probabilidad de que un nieto sea hincha de Santiago Wandereres si su abuelo era hincha de la Universidad de Chile? c. Si la encuesta del Futbol indicaba que en t=0 la cantidad de hinchas de Colo Colo, Universidad de Chile y Santiago Wanderers eran de 130, 70 y 25 respectivamente, qué cantidad de hinchas esperarían tener cada equipo al cabo de 2 generaciones (t = 2) d. Cuál es el equilibrio de largo plazo para la hinchada del futbol Chileno Pasión por el futbol: Solución Optimización, Cadenas de Markov , Junio-2018 39 a. Determine la matriz de transición y diagrama de Markov para desarrollar un modelo J = ## M#N $O 0,90 0,03 0,07 0,15 0,80 0,05 0,10 0,05 0,85 ## M#N $O Pasión por el futbol: Solución Optimización, Cadenas de Markov , Junio-2018 40 b. ¿Cuál es la probabilidad de que un nieto (t=2) NO SEA hincha de Universidad de Chile si su abuelo (t=0) era hincha de Colo Colo? ¿Cuál es la probabilidad de que un nieto sea hincha de Santiago Wandereres si su abuelo era hincha de la Universidad de Chile? J� = ## M#N $O 0,8215 0,0545 0,1240 0,2600 0,6470 0,0930 0,1825 0,0855 0,7320 Para que un nieto no sea de la Universidad de Chile dado que su abuelo es de Colo Colo es simplemente hacer (1-UCH/CC) = 1-0,0545 = 0,946 o también es la posibilidad de que sea de Colo Colo más la posibilidad de que sea de Wanderers = 0,8215 + 0,124 = 0,946. La probabilidad de que un nieto sea hincha de Santiago Wanderers si su abuelo era hincha de Universidadde Chile es de 0,093 ## M#N $O Pasión por el futbol: Solución Optimización, Cadenas de Markov , Junio-2018 41 c. Si la encuesta del Futbol indicaba que en t=0 la cantidad de hinchas de Colo Colo, Universidad de Chile y Santiago Wanderers eran de 130, 70 y 25 respectivamente, qué cantidad de hinchas esperarían tener cada equipo al cabo de 2 generaciones (t = 2) 130 70 25 0,90 0,03 0,07 0,15 0,80 0,05 0,10 0,05 0,85 = 130 61,15 33,85 130 61,15 33,85 0,90 0,03 0,07 0,15 0,80 0,05 0,10 0,05 0,85 = 129,56 54,51 40,93 La participación de la hinchada sería 129,56 (130) de Colo Colo, 54,51 (55) de la Universidad de Chile y 40,93 (41) de Santiago Wanderers o también se puede hacer los siguiente: 130 70 25 0,8215 0,0545 0,1240 0,2600 0,6470 0,0930 0,1825 0,0855 0,7320 = 129,56 54,51 40,93 ## M#N $O ## M#N $O ## M#N $O Pasión por el futbol: Solución Optimización, Cadenas de Markov , Junio-2018 42 d. Cuál es el equilibrio de largo plazo para la hinchada del futbol Chileno G� G� G = G� G� G 0,90 0,03 0,07 0,15 0,80 0,05 0,10 0,05 0,85 G� = 0,9G� + 0,15G� + 0,1G G� = 0,03G� + 0,8G� + 0,05G G� + G� + G = 1 G� = 0,5392 G� = 0,1569 G = 0,3039 Un 53,92% de la hinchada será de Colo Colo, 15,69% será de Universidad de Chile y un 30,39% será de Santiago Wanderers
Compartir