Logo Studenta

Clase 22 Cadenas de Markov

¡Este material tiene más páginas!

Vista previa del material en texto

Optimización Clase 22: Cadenas de Markov
Profesor: José Manuel Izquierdo
Puntos de análisis
Optimización, Cadenas de Markov , Junio-2018 2
• Proceso aleatorio
• El futuro depende de decisiones que afectan el estado de las variables de estado, sin
importar el comportamiento en el pasado de las variables a estudiar
• El estado futuro del comportamiento de una variable dependerá si esta contempla un
proceso de absorción o un proceso sin absorción de estado (Ergódico)
Proceso de Markov: Proceso matemático que busca determinar el estado o condición en el
cual se van a encontrar las variables de estudio en un proceso futuro. Este proceso futuro
dependerá únicamente de las condiciones o decisiones que se tomen paso a paso, las
cuales quedan determinadas en la matriz de transición.
Ejemplos de Procesos de Markov
Optimización, Cadenas de Markov , Junio-2018 3
Procesos de Markov Ergódicos (No absorbentes)
• Cambio de marca o productos
• Pronósticos del Tiempo
• Sistemas de Apuestas Online
• Sistemas Financieros (Teoría de Mercados Eficientes, Eugene Fama)
• Sistemas de rankeo de páginas web: Google
Procesos de Markov de Tipo Absorbentes
• Promoción o despidos de empleados en una empresa
• Asignación de Riesgos de Crédito
• Secuenciación del ADN
https://www.youtube.com/watch?v=cDf7rZ7eO78
Procesos de Markov: Repaso Algebra Lineal
Optimización, Cadenas de Markov , Junio-2018 4
� = ��,� ��,���,� ��,� � =
	�,� 	�,�
	�,� 	�,� � · � =
��,� · 	�,� + ��,� · 	�,� ��,� · 	�,� + ��,� · 	�,�
��,� · 	�,� + ��,� · 	�,� ��,� · 	�,� + ��,� · 	�,�
� · � ≠ � · � ��,� · 	�,� + ��,� · 	�,� ��,� · 	�,� + ��,� · 	�,���,� · 	�,� + ��,� · 	�,� ��,� · 	�,� + ��,� · 	�,� ≠
	�,� · ��,� + 	�,� · ��,� 	�,� · ��,� + 	�,� · ��,�
	�,� · ��,� + 	�,� · ��,� 	�,� · ��,� + 	�,� · ��,�
�� = � · � = ��,� ��,���,� ��,� ·
��,� ��,�
��,� ��,� =
��,� · ��,� + ��,� · ��,� ��,� · ��,� + ��,� · ��,�
��,� · ��,� + ��,� · ��,� ��,� · ��,� + ��,� · ��,�
�
 = � · �� = ��,� ��,���,� ��,� ·
��,� · ��,� + ��,� · ��,� ��,� · ��,� + ��,� · ��,�
��,� · ��,� + ��,� · ��,� ��,� · ��,� + ��,� · ��,�
� =
��,� ��,� ��,
��,� ��,� ��,
�
,� �
,� �
,
 � =
	�,� 	�,� 	�,
	�,� 	�,� 	�,
	
,� 	
,� 	
,
 
� · � =
��,� · 	�,� + ��,� · 	�,� + ��,
 · 	
,� ��,� · 	�,� + ��,� · 	�,� + ��,
 · 	
,� ��,� · 	�,
 + ��,� · 	�,
 + ��,
 · 	
,
��,� · 	�,� + ��,� · 	�,� + ��,
 · 	
,� ��,� · 	�,� + ��,� · 	�,� + ��,
 · 	
,� ��,� · 	�,
 + ��,� · 	�,
 + ��,
 · 	
,
�
,� · 	�,� + �
,� · 	�,� + �
,
 · 	
,� �
,� · 	�,� + �
,� · 	�,� + �
,
 · 	
,� �
,� · 	�,
 + �
,� · 	�,
 + �
,
 · 	
,
Ejemplo de Proceso de Markov Ergódico: Guerra de las Colas 
Optimización, Cadenas de Markov , Junio-2018 5
Usted ha de determinar el espacio necesario en las máquinas de refrigeración del casino de
la universidad, para lo cual dispone de 2 bebidas cola: Coca-Cola y Pepsi. Luego de realizar
una encuesta de preferencia, los alumnos le manifestaron que aquellos que en la última vez
habían consumido Coca-Cola un 90% volvería a preferir Coca-Cola y solo un 10% se
cambiarían a Pepsi, mientras que aquellos que contestaron la encuesta mencionando que la
última vez que consumieron Pepsi, un 95% volvería a consumir Pepsi y sólo un 5% se
cambiaría a Coca-Cola.
Su misión es determinar cuánto espacio de las vitrinas refrigeradas estarán ocupadas con
Coca-Cola y cuánto espacio estará ocupado por Pepsi.
Ejemplo de Proceso de Markov Ergódico
Optimización, Cadenas de Markov , Junio-2018 6
Proceso de Markov Ergódico: Guerra de las Colas 
Optimización, Cadenas de Markov , Junio-2018 7
Diagrama de Markov
0,9 0,1
0,05 0,95
Matriz de Preferencia de Consumidores: Matriz de Transición
� ��,� = 1 � = 1 → �
�
���
Proceso de Markov Ergódico: Guerra de las Colas 
Optimización, Cadenas de Markov , Junio-2018 8
Probabilidad de que 1 consumidor de Coca-Cola consuma Coca-Cola en el segundo período
���,�� 2 = 0,9 · 0,9 + 0,1 · 0,05 = 0,81 + 0,005 = 0,815
�� = 0,9 0,10,05 0,95 ·
0,9 0,1
0,05 0,95
�� = �, !" 0,1850,092 0,908 �� = ##�$
�, !" 0,185
0,092 0,908
## �$
Proceso de Markov Ergódico: Guerra de las Colas 
Optimización, Cadenas de Markov , Junio-2018 9
Probabilidad de que 1 consumidor de Pepsi consuma Coca-Cola en el segundo período
�� = 0,9 0,10,05 0,95 ·
0,9 0,1
0,05 0,95
�� = 0,815 0,185�, �%&" 0,908
�'(,�� 2 = 0,05 · 0,9 + 0,95 · 0,05 = 0,045 + 0,0475 = 0,0925
�� = ##�$
0,815 0,185
�, �%&" 0,908
## �$
Proceso de Markov Ergódico: Guerra de las Colas 
Optimización, Cadenas de Markov , Junio-2018 10
Probabilidad de que 1 consumidor de Coca-Cola consuma Coca-Cola en el tercer período
�
 = � · �� = 0,9 0,10,05 0,95 ·
0,815 0,185
0,0925 0,908 =
##
�$
�, +,- 0,257
0,129 0,871
���,�� 3 = 0,9 · 0,9 · 0,9 + 0,9 · 0,1 · 0,05
 0,1 · 0,05 · 0,9 + 0,1 · 0,95 · 0,05
= 0,729 + 0,0045 + 0,0045 + 0,00475 = 0,743
�
 = 0,9 0,10,05 0,95 ·
0,9 0,1
0,05 0,95 · 
0,9 0,1
0,05 0,95
## �$
Proceso de Markov Ergódico: Guerra de las Colas 
Optimización, Cadenas de Markov , Junio-2018 11
Probabilidad de que 1 consumidor de Coca-Cola consuma Pepsi en el tercer período
�
 = 0,9 0,10,05 0,95 ·
0,9 0,1
0,05 0,95 · 
0,9 0,1
0,05 0,95
�
 = ##�$
0,743 �, &"+
0,129 0,871
���,'( 3 = 0,9 · 0,9 · 0,1 + 0,9 · 0,1 · 0,95
 0,1 · 0,05 · 0,1 + 0,1 · 0,95 · 0,95
= 0,081 + 0,086 + 0,0005 + 0,090 = 0,257 ## �$
Proceso de Markov Ergódico: Guerra de las Colas 
Optimización, Cadenas de Markov , Junio-2018 12
Análisis de Largo Plazo
���,�� 10 = 0,467 ���,'( 10 = 0,535 �'(,�� 10 = 0,267 �'(,'( 10 = 0,732 ��0 = 0,467 0,5350,267 0,732
���,�� 25 = 0,345 ���,'( 25 = 0,655 �'(,�� 25 = 0,328 �'(,'( 25 = 0, 672 ��1 = 0,345 0,6550,328 0,672
���,�� 40 = 0,334 ���,'( 40 = 0,666 �'(,�� 40 = 0,333 �'(,'( 40 = 0, 667 �20 = 0,334 0,6660,333 0,667
���,�� 50 = 0,333 ���,'( 50 = 0,666 �'(,�� 50 = 0,333 �'(,'( 50 = 0, 667 �10 = 0,333 0,6660,333 0,667
En base al análisis de Cadenas de Markov en el largo plazo se puede concluir que la
demanda esperada de consumo de Coca-Cola sea 1/3 mientas que para Pepsi sea de 2/3,
esto implica que para un dispensador de bebidas cola debiese tener 1/3 de su espacio lleno
con Coca-Cola y 2/3 del espacio lleno con Pepsi, de manera de satisfacer de mejor manera la
desmanda por bebidas cola de los clientes.
�10 = ##�$
0,333 0,666
0,333 0,667
## �$
Ejemplo de Proceso de Markov: Guerra de las Colas 
Optimización, Cadenas de Markov , Junio-2018 13
Ejemplo de Proceso de Markov: Guerra de las Colas 
Optimización, Cadenas de Markov , Junio-2018 14
Ejemplo de Proceso de Markov: Guerra de las Colas 
Optimización, Cadenas de Markov , Junio-2018 15
Ejemplo de Proceso de Markov: Guerra de las Colas 
Optimización, Cadenas de Markov , Junio-2018 16
Ejemplo de Proceso de Markov: Guerra de las Colas 
Optimización, Cadenas de Markov , Junio-2018 17
Ejemplo de Proceso de Markov: Programas de Fidelización
Optimización, Cadenas de Markov , Junio-2018 18
Proceso de Markov Absorbente: Recursos Humanos
Ejercicio desarrollado por profesor Marco Caserta, IE Business School Optimización, Cadenas de Markov , Junio-2018 19
Usted ha egresado exitosamente de la carrera de Ingeniería Comercial en la U. Andes y se
encuentra postulando a un trabajo en la Consultora GIR como analista Junior. Antes de tener
la entrevista con el gerente de recursos humanos, un amigo que se encuentra trabajando en
GIR Consultores le mencionó que en la actualidad existe un 70% de probabilidad de que un
Analista Junior mantenga su posición durante el próximo año, 20% de posibilidad de ser
ascendido a Analista Senior y un 10% de ser despedido. Por otro lado un Analista Senior
tiene un 80% de posibilidad de mantenerse en ese cargo, un 10% de posibilidad de ser
ascendido como Socio de la firma (Partner) y un 10% de posibilidad de ser despedido.
Finalmente un Socio o (Partner) de la firma tiene un 95% de posibilidad de mantenerse en el
cargoy un 5% de posibilidad de Jubilarse o Retirarse.
Consiente de esta información usted ha decidido hacer sus cálculos basados en un proceso
de Markov de manera de poder responder Cuantitativamente a la clásica pregunta de
selección de personal “Y como te vez te ves en esta empresa después de 3 años, y de la
misma manera cómo vez tu futuro en esta empresa al cabo de 10 años”
Proceso de Markov Absorbente: Recursos Humanos
Optimización, Cadenas de Markov , Junio-2018 20
Diagrama de Markov
Matriz de Transición J S P D R
J 0,7 0,2 0 0,1 0
S 0 0,8 0,1 0,1 0
P 0 0 0,95 0 0,05
D 0 0 0 1 0
R 0 0 0 0 1
� ��,� = 1 � = 1 → �
�
���
Proceso de Markov Absorbente: Recursos Humanos
Optimización, Cadenas de Markov , Junio-2018 21
Proceso de Markov Absorbente: Recursos Humanos
Optimización, Cadenas de Markov , Junio-2018 22
Que expectativa profesional que tiene un analista recién contratado al cabo de 3 años
�
 = � · � · � = � · �� =
0,7 0,2 0 0,1 0
0 0,8 0,1 0,1 0
0
0
0
0
0
0
0,95 0 0,05
0 1 0
0 0 1
·
0,7 0,2 0 0,1 0
0 0,8 0,1 0,1 0
0
0
0
0
0
0
0,95 0 0,05
0 1 0
0 0 1
·
0,7 0,2 0 0,1 0
0 0,8 0,1 0,1 0
0
0
0
0
0
0
0,95 0 0,05
0 1 0
0 0 1
=
0,7 0,2 0 0,1 0
0 0,8 0,1 0,1 0
0
0
0
0
0
0
0,95 0 0,05
0 1 0
0 0 1
·
0,490 0,300 0,020 0,190 0,000
0,000 0,640 0,175 0,180 0,005
0,000
0,000
0,000
0,000
0,000
0,000
0,903 0,000 0,098
0,000 1,000 0, 000
0,000 0,000 1,000
Se puede determinar después de realizar un proceso de Markov que con un 34,3% de probabilidad seguirá
ejerciendo su cargo como analista Junior, existe un 33,8% de probabilidad de que estar ejerciendo
profesionalmente como analista Senior, un 4,9% de probabilidad de estar ejerciendo profesionalmente
como Socio (Partner), un 26,9% de probabilidad de que sea despedido dentro de tres años y un 1,0% de
que habiendo alcanzado la condición de Jubilación.
=
3
$
�
4
5
�, -,- �, -- �, �,% �, &6% �, �!�
0,000 0,512 0,230 0,244 0,014
0,000
0,000
0,000
0,000
0,000
0,000
0,857 0,000 0,143
0,000 1,000 0, 000
0,000 0,000 1,000
3 $ � 4 5 
Proceso de Markov Absorbente: Recursos Humanos
Optimización, Cadenas de Markov , Junio-2018 23
Que expectativa profesional que tiene un analista recién contratado al cabo de 10 años
��0 = � · �7 =
0,7 0,2 0 0,1 0
0 0,8 0,1 0,1 0
0
0
0
0
0
0
0,95 0 0,05
0 1 0
0 0 1
·
0,0404 0,1877 0,1895 0,5459 0,0366
0,0000 0,1342 0,3307 0,4329 0,1022
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,6302 0,0000 0,3698
0,0000 1,0000 0,0000
0,0000 0,0000 1,0000
=
3
$
�
4
5
�, �& & �, !" - �, !% �, "6 + �, �,6�
0,0000 0,1074 0,3276 0,4463 0,1187
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,5987 0,0000 0,4013
0,0000 1,0000 0,0000
0,0000 0,0000 1,0000
Se puede determinar después de realizar un proceso de Markov al cabo de 10 años que con un 2,82% de
probabilidad seguirá ejerciendo su cargo como analista Junior, existe un 15,83% de probabilidad de que
sea ascendido a Senior y que ejerza profesionalmente en esa condición, un 19,88% de probabilidad de
que ejerza profesionalmente en condición de Socio (Partner) , un 56,87% de probabilidad de que halla sido
despedido al cabo de diez años y un 4,6% de que haberse jubilado después de haber ingresado a la
empresa hace 10. En resumen existe un 38,5% de probabilidad de seguir trabajando en la empresa en
algún cargo (0,0282+0,1583+0,1988) y un 61,5% de probabilidad de no seguir trabajando en la empresa
(0,5687+0,0460) = 1 - (0,0282+0,1583+0,1988).
3 $ � 4 5 
Proceso de Markov Absorbente: Recursos Humanos
Optimización, Cadenas de Markov , Junio-2018 24
Que expectativa profesional que tiene un analista en el muy largo plazo
�10 =·
0,0000 0,0000 0,0410 0,6667 0,2923
0,0000 0,0000 0,0513 0,5000 0,4487
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0769 0,0000 0,9231
0,0000 1,0000 0,0000
0,0000 0,0000 1,0000
Se puede determinar que en el largo plazo cualquier trabajador que un día inició sus labores en la empresa
tarde o temprano va a terminar siendo “absorbido/devorado” por los nodos absorbentes de la cadena de
Markov. De esta manera un Analista Junior tiene una posibilidad de un 66,7% de terminar siendo
despedido y un 33,3% de probabilidad de llegar a jubilarse en la empresa. Por su parte un analista Senior
tiene un 50% de ser despedido a lo largo de su carrera profesional en la empresa y un 50% de retirase por
jubilación. Finalmente el analista que entró como socio a la empresa se jubilará.
�81 =·
0,0000 0,0000 0,0114 0,6667 0,3220
0,0000 0,0000 0,0142 0,5000 0,4858
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0213 0,0000 0,9787
0,0000 1,0000 0,0000
0,0000 0,0000 1,0000
��00 =·
0,0000 0,0000 0,0032 0,6667 0,3202
0,0000 0,0000 0,0039 0,5000 0,4961
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0059 0,0000 0,9941
0,0000 1,0000 0,0000
0,0000 0,0000 1,0000
��00 =·
0,0000 0,0000 0,0000 �, 666+ �, ----
0,0000 0,0000 0,0000 �, "��� �, "���
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000 0,0000 0,9999
0,0000 1,0000 0,0000
0,0000 0,0000 1,0000
Proceso de Markov Absorbente: Riesgo de Crédito
Optimización, Cadenas de Markov , Junio-2018 25
Usted se encuentra trabajando en la Gerencia de Riesgo de Crédito de Banco Amigo y le han
solicitado estudiar un crédito a Cencosud por US$ 200 Millones a un plazo de 3 años y otro
crédito por US$ 500 Millones a 7 años plazo ambos en formato bullet (sólo paga capital al
final del periodos). En la actualidad Cencosud cuenta con Categoría de Riesgo en moneda
Internacional de BBB y en la Gerencia de Riesgo de Banco Amigo utilizan metodología de
Riesgo de Crédito bajo Estándares Standard&Poors.
Determine la probabilidad de que al cabo de 3 y 7 años Cencosud entre en un proceso de
Reprogramación de Pasivos (CCC) o simplemente de declare en Cesación de Pagos
(Default).
Proceso de Markov Absorbente: Riesgo de Crédito
Optimización, Cadenas de Markov , Junio-2018 26
AAA AA A BBB BB B CCC D
AAA 0,736 0,25 0 0,014 0 0 0 0
AA 0,013 0,843 0,144 0 0 0 0 0
A 0,001 0,011 0,923 0,054 0 0,011 0 0
BBB 0 0 0,029 0,903 0,039 0,029 0 0
BB 0 0 0 0,056 0,827 0,058 0,031 0,028
B 0 0 0,001 0,001 0,063 0,823 0,071 0,041
CCC 0 0 0 0 0,005 0,295 0,379 0,321
D 0 0 0 0 0 0 0 1
Proceso de Markov Absorbente: Riesgo de Crédito
Optimización, Cadenas de Markov , Junio-2018 27
� =
0,736 0,250 0,000 0,014 0,000 0,000 0,000 0,000
0,013 0,843 0,144 0,000 0,000 0,000 0,000 0,000
0,001
0,000
0,000
0,000
0,000
0,000
0,011
0,000
0,000
0,000
0,000
0,000
0,923 0,054 0,000 0,011 0,000 0,000
0,029 0,903 0,039 0,029 0,000 0,000
0,000
0,001
0,000
0,000
0,056
0,001
0,000
0,000
0,827
0,063
0,005
0,000
0,058
0,832
0,295
0,000
0,031
0,071
0,379
0,000
0,028
0,032
0,321
1,000
�
 =
���
��
�
���
��
�
#
4
0,406 0,469 0,091 0,030 0,001 0,001 0,000 0,000
0,025 0,611 0,338 0,021 0,001 0,001 0,000 0,000
0,002
0,001
0,000
0,000
0,000
0,000
0,026
0,001
0,000
0,000
0,000
0,000
0,795 0,135 0,008 0,030 0,002 0,001
0,073 0,747 0,093 0,073 0,007 0,007
0,005
0,003
0,001
0,000
0,126
0,011
0,002
0,000
0,581
0,131
0,044
0,000
0,143
0,610
0,342
0,000
0,045
0,086
0,088
0,000
0,105 
0,136
0,523
1,000
Al finalizar el tercer año existe un 0,71% de probabilidad de que Cencosud alcance una condición CCC
que implica reestructuración de pasivos y un 0,74% de alcanzar dentro de un plazo de tres años una
condición de Cesación de Pagos o Default.
��� �� � ��� �� � # 4
Proceso de Markov Absorbente: Riesgo de Crédito
Optimización, Cadenas de Markov , Junio-2018 28
�8 =
���
��
�
���
��
�
#
4
0,137 0,452 0,320 0,069 0,007 0,012 0,001 0,002
0,025 0,344 0,501 0,095 0,009 0,022 0,002 0,003
0,004
0,001
0,000
0,000
0,000
0,000
0,041
0,004
0,001
0,000
0,000
0,000
0,613 0,227 0,034 0,060 0,007 0,015
0,122 0,537 0,140 0,123 0,019 0,052
0,020
0,006
0,002
0,000
0,175
0,039
0,015
0,000
0,325
0,161
0,078
0,000
0,194
0,376
0,218
0,000
0,042
0,060
0,035
0,000
0,238
0,357
0,653
1,000
Al finalizar el séptimoaño existe un 1,9% de probabilidad de que Cencosud alcance una condición CCC
que implica reestructuración de pasivos y un 5,2% de alcanzar después de siete años una condición de
Cesación de Pagos o Default.
��� �� � ��� �� � # 4
Proceso de Markov Absorbente: Riesgo de Crédito
Optimización, Cadenas de Markov , Junio-2018 29
�9�:;<�=> =
���
��
�
���
��
�
#
4
0,000 0,000 0,000 0,000 0,000 0,000 0,000 1,000
0,000 0,000 0,000 0,000 0,000 0,000 0,000 1,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000 0,000 0,000 0,000 0,000 1,000
0,000 0,000 0,000 0,000 0,000 1,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
1,000
1,000
1,000
1,000
En el largo Plazo finalmente el nodo absorbente del Default terminar absorbiendo
“Devorando” a las transiciones, con lo cual tarde o temprano Cencosud entrará en Default
��� �� � ��� �� � # 4
Optimización Clase 22: Cadenas de Markov
Anexo de Ejercicios
Ejercicios proceso de Markov: Partidos Políticos
Optimización, Cadenas de Markov , Junio-2018 31
Suponga un país donde existen sólo dos partidos políticos: Conservadores y Liberales. Un Conservador, 
con un 80% de probabilidad en la próxima elección seguirá votando Conservador (con un 20% votará 
Liberal). Un Liberal en cambio, con un 90% seguirá siendo Liberal y con un 10% votará Conservador en la 
próxima elección.
a. Dibuje el grafo de la cadena de Markov que modela esta situación señalando claramente las 
probabilidades de cada arco.
b. Escriba la matriz de transición.
c. Si en la actualidad se sabe que 75% de los votantes son Conservadores y 25% son Liberales. Señale el 
padrón electoral para la siguiente y subsiguiente elección.
d. Señale el padrón electoral de largo plazo.
Partidos Políticos: Solución
Optimización, Cadenas de Markov , Junio-2018 32
a. Dibuje el grafo de la cadena de Markov que modela esta situación señalando claramente las
probabilidades de cada arco.
b. Escriba la matriz de transición.
#?�@ABC�D?B E�CAB�F
#?�@ABC�D?B 0,8 0,2
E�	AB�F 0,1 0,9
Partidos Políticos: Solución
Optimización, Cadenas de Markov , Junio-2018 33
c. Si en la actualidad se sabe que 75% de los votantes son Conservadores y 25% son Liberales. Señale el 
padrón electoral para la siguiente y subsiguiente elección.
0,75 0,25 · 0,8 0,20,1 0,9 = 0,75 · 0,8 + 0,25 · 0,1 0,75 · 0,2 + 0,25 · 0,9
= 0,625 0,375
En la siguiente elección el 62,75% será Conservador y el 37,5% Liberal.
0,625 0,375 · 0,8 0,20,1 0,9 = 0,5375 0,4625
En la subsiguiente elección el 53,75% será Conservador y el 46,25% Liberal.
Partidos Políticos: Solución
Optimización, Cadenas de Markov , Junio-2018 34
d. Señale el padrón electoral de largo plazo.
G� G� · 0,8 0,20,1 0,9 = G� G�
0,8G� + 0,1G� = G�
Sabemos también que necesariamente:
G� + G� = 1
G� G� = 13
2
3
Luego, en el largo plazo, el 33,3% votará Conservador mientras que el 66,7% votará Liberal.
Ejercicios proceso de Markov: Salud Pública
Optimización, Cadenas de Markov , Junio-2018 35
Un estudio utilizó cadenas de Markov para estimar pronóstico de un paciente para una extraña enfermedad
desconocida, donde se concluyó lo siguiente para los pacientes enfermos: Un paciente sin síntomas
seguirá sin síntomas con un 30% de probabilidad, con un 50% mostrará síntomas y con un 20% fallecerá
producto de un ataque fulminante. Un paciente con síntomas seguirá en esa condición con un 50% de
probabilidad y con un 50% fallecerá de un ataque fulminante (sin tratamiento un paciente con síntomas
seguirá mostrándolos). En base a lo anterior se pide:
a) Dibuje el grafo asociado a la Cadena de Markov y escriba la matriz de transición respectiva.
b) Calcule para un paciente que hoy está sin síntomas (t=0) la probabilidad de supervivencia en t=2.
c) Señale la matriz de transición para el largo plazo (��) para n grande.
Salud Pública: Solución
Optimización, Cadenas de Markov , Junio-2018 36
a) Dibuje el grafo asociado a la Cadena de Markov y escriba la matriz de transición respectiva.
Estados: Sin síntomas (SS), Con Síntomas (CS) y Fallecido (F)
$�� $��H. #?� $��H. J�FFAK�D?
$�� $��H?L�@ 0,3 0,5 0,2
#?� $��H?L�@
J�FFAK�D?
0
0
 0,5 0,5
0 1 
Salud Pública: Solución
Optimización, Cadenas de Markov , Junio-2018 37
b) Calcule para un paciente que hoy está sin síntomas (t=0) la probabilidad de supervivencia en t=2.
�� =
0,3 0,5 0,2
0 0,5 0,5
0 0 1
0,3 0,5 0,2
0 0,5 0,5
0 0 1
=
0,09 0,4 0,51
0 0,25 0,75
0 0 1
La probabilidad de que esté fallecido es de 51%, luego la probabilidad de sobrevivir será de 49%.
c) Señale la matriz de transición para el largo plazo (��) para n grande.
Dado que el estado Fallecido es absorbente, no importa donde comencemos, siempre terminaremos en 
dicho estado, luego:
�� =
0 0 1
0 0 1
0 0 1
Ejercicios proceso de Markov: Pasión por el futbol 
Optimización, Cadenas de Markov , Junio-2018 38
“El fanatismo por el futbol es algo que se lleva en la sangre”, decía el reconocido comentarista de futbol y
premio nacional de periodismo Julio Martinez Pradanos. Aplicando este concepto en la vida real, una
encuesta ha determinado que la adhesión a un equipo de futbol se transmite de generación en generación,
donde se ha podido medir que si un padre es hincha de Colo Colo, existe un 90% de posibilidad de que su
hijo siga siendo hincha de Colo Colo, mientras que existe un 3% de posibilidad de que su hijo cambie de
parecer y se convierta en hincha de Universidad de Chile y un 7% de posibilidad de que se convierta en
hincha de Santiago Wanderers. La misma encuesta determinó que si el padre es hincha de la Universidad
de Chile, existe un 80% de posibilidad de que su hijo sea hincha de Universidad de Chile, un 15% que su
hijo se vuelva hincha de Colo Colo y un 5% de que su hijo sea hincha de Santiago Wanderers. Finalmente
si el padre es seguidor de Santiago Wanderers, existe un 85% de posibilidad de que su hijo sea hincha de
SW, un 10% de que sea hincha de Colo Colo y un 5% que sea hincha de Universidad de Chile. Conforme
a lo anterior se pide lo siguiente:
a. Determine la matriz de transición y diagrama de Markov para desarrollar un modelo
b. ¿Cuál es la probabilidad de que un nieto (t=2) NO SEA hincha de Universidad de Chile si su abuelo 
(t=0) era hincha de Colo Colo? ¿Cuál es la probabilidad de que un nieto sea hincha de Santiago 
Wandereres si su abuelo era hincha de la Universidad de Chile?
c. Si la encuesta del Futbol indicaba que en t=0 la cantidad de hinchas de Colo Colo, Universidad de Chile 
y Santiago Wanderers eran de 130, 70 y 25 respectivamente, qué cantidad de hinchas esperarían tener 
cada equipo al cabo de 2 generaciones (t = 2)
d. Cuál es el equilibrio de largo plazo para la hinchada del futbol Chileno
Pasión por el futbol: Solución
Optimización, Cadenas de Markov , Junio-2018 39
a. Determine la matriz de transición y diagrama de Markov para desarrollar un modelo
J =
##
M#N
$O
0,90 0,03 0,07
0,15 0,80 0,05
0,10 0,05 0,85
##	 	M#N			$O
Pasión por el futbol: Solución
Optimización, Cadenas de Markov , Junio-2018 40
b. ¿Cuál es la probabilidad de que un nieto (t=2) NO SEA hincha de Universidad de Chile si su abuelo 
(t=0) era hincha de Colo Colo? ¿Cuál es la probabilidad de que un nieto sea hincha de Santiago 
Wandereres si su abuelo era hincha de la Universidad de Chile?
J� =
##
M#N
$O
0,8215 0,0545 0,1240
0,2600 0,6470 0,0930
0,1825 0,0855 0,7320
Para que un nieto no sea de la Universidad de Chile dado que su abuelo es de Colo Colo es simplemente
hacer (1-UCH/CC) = 1-0,0545 = 0,946 o también es la posibilidad de que sea de Colo Colo más la
posibilidad de que sea de Wanderers = 0,8215 + 0,124 = 0,946.
La probabilidad de que un nieto sea hincha de Santiago Wanderers si su abuelo era hincha de Universidadde Chile es de 0,093
## M#N $O
Pasión por el futbol: Solución
Optimización, Cadenas de Markov , Junio-2018 41
c. Si la encuesta del Futbol indicaba que en t=0 la cantidad de hinchas de Colo Colo, Universidad de Chile y 
Santiago Wanderers eran de 130, 70 y 25 respectivamente, qué cantidad de hinchas esperarían tener 
cada equipo al cabo de 2 generaciones (t = 2)
130 70 25
0,90 0,03 0,07
0,15 0,80 0,05
0,10 0,05 0,85
= 130 61,15 33,85
130 61,15 33,85
0,90 0,03 0,07
0,15 0,80 0,05
0,10 0,05 0,85
= 129,56 54,51 40,93
La participación de la hinchada sería 129,56 (130) de Colo Colo, 54,51 (55) de la Universidad de Chile y
40,93 (41) de Santiago Wanderers o también se puede hacer los siguiente:
130 70 25
0,8215 0,0545 0,1240
0,2600 0,6470 0,0930
0,1825 0,0855 0,7320
= 129,56 54,51 40,93
## M#N $O
## M#N $O
## M#N $O
Pasión por el futbol: Solución
Optimización, Cadenas de Markov , Junio-2018 42
d. Cuál es el equilibrio de largo plazo para la hinchada del futbol Chileno
G� G� G
 = G� G� G
0,90 0,03 0,07
0,15 0,80 0,05
0,10 0,05 0,85
G� = 0,9G� + 0,15G� + 0,1G
G� = 0,03G� + 0,8G� + 0,05G
G� + G� + G
 = 1
G� = 0,5392
G� = 0,1569
G
 = 0,3039
Un 53,92% de la hinchada será de Colo Colo, 15,69% será de Universidad de Chile y un 30,39% será de
Santiago Wanderers

Continuar navegando