Logo Studenta

Texto Fundamentos de Probabilidades

¡Este material tiene más páginas!

Vista previa del material en texto

Escuela de Posgrado
Maestr´ıa en Estad´ıstica
Fundamentos de Probabilidad
Jose´ Flores Delgado
2013 -1
I´ndice
1. Sigma-A´lgebras 5
1.1. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2. Probabilidad 11
2.1. Definicio´n de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2. Propiedades de la probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
La regla del producto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
La regla de la probabilidad total . . . . . . . . . . . . . . . . . . . . . . . . . 15
La regla de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4. Independencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.5. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3. Variable aleatoria 24
3.1. Definicio´n y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2. Funcio´n de distribucio´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3. Clasificacio´n de las variables aleatorias . . . . . . . . . . . . . . . . . . . . . 27
3.4. Valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.4.1. El valor esperado de una funcio´n de una variable aleatoria . . . . . . 36
3.4.2. Propiedades del valor esperado . . . . . . . . . . . . . . . . . . . . . 37
3.5. La varianza y la desviacio´n esta´ndar . . . . . . . . . . . . . . . . . . . . . . 40
3.5.1. Propiedades de la desviacio´n esta´ndar . . . . . . . . . . . . . . . . . . 40
3.6. Funciones de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . 41
3.7. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4. Variables aleatorias distribuidas conjuntamente o vector aleatorio 53
4.1. Modelo o distribucio´n de probabilidades conjunto de variables aleatorias . . . 53
4.2. Propiedades de la funcio´n de distribucio´n conjunta . . . . . . . . . . . . . . 54
4.3. Valor esperado de funciones reales de variables aleatorias . . . . . . . . . . . 55
4.4. Propiedades del valor esperado relacionadas con la suma de variables . . . . 56
4.5. Distribuciones o modelos marginales . . . . . . . . . . . . . . . . . . . . . . 57
4.6. Distribuciones o modelos condicionales . . . . . . . . . . . . . . . . . . . . . 58
4.7. La esperanza condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.8. Variables aleatorias independientes . . . . . . . . . . . . . . . . . . . . . . . 64
4.9. Propiedades de independencia, esperanza y varianza . . . . . . . . . . . . . . 65
4.10. Covarianza y correlacio´n de dos variables aleatorias . . . . . . . . . . . . . . 67
4.10.1. Propiedades relacionadas con la suma de variables . . . . . . . . . . . 69
4.11. Transformaciones de variables aleatorias . . . . . . . . . . . . . . . . . . . . 70
4.12. La funcio´n generadora de momentos . . . . . . . . . . . . . . . . . . . . . . . 71
4.13. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5. Conceptos de convergencia 86
5.1. Convergencia fuerte o casi segura . . . . . . . . . . . . . . . . . . . . . . . . 86
5.2. Convergencia en probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.3. Convergencia en distribucio´n . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.4. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
La Ley Fuerte de los Grandes Nu´meros . . . . . . . . . . . . . . . . . . . . . 90
5.5. El Teorema del L´ımite Central . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.6. El Me´todo Delta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.7. Propiedades de una muestra aleatoria . . . . . . . . . . . . . . . . . . . . . . 94
5.7.1. Conceptos ba´sicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.7.2. Propiedades asinto´ticas . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.8. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
Bibliograf´ıa 100
1. Sigma-A´lgebras
La definicio´n formal de la probabilidad requiere del concepto de σ-a´lgebra. As´ı,
empezaremos por este tema.
Definicio´n 1.1. Sea un conjunto Ω 6= φ1. Se dice que una familia o coleccio´n de subconjuntos
de Ω, digamos F , es una σ-a´lgebra (o sigma-a´lgebra) de conjuntos de Ω, si satisface las
propiedades siguientes:
A1. Ω ∈ F .
A2. ∀A ∈ F : Ac ∈ F .
(F es cerrada respecto a complementos).
A3. ∀A1, A2 . . . ∈ F :
∞⋃
j=1
Aj ∈ F
(F es cerrada respecto a reuniones infinitas enumerables).
Observacio´n 1.1. Los elementos de F son subconjuntos de Ω y se les llama eventos de F .
Ejemplo 1.1. 2Ω = P(Ω) = {A : A ⊂ Ω } : el conjunto formado por todos los subconjuntos
de Ω (conjunto potencia o de partes de Ω) es una σ−a´lgebra de Ω; claramente esta es
la σ−a´lgebra ma´s grande que tiene Ω, es decir, toda σ−a´lgebra de Ω esta´ incluida en 2Ω
(∀F , σ − a´lgebra de Ω : F ⊂ 2Ω).
Ejemplo 1.2. {Ω, φ } es una σ−a´lgebra de Ω; claramente esta es la σ−a´lgebra ma´s
pequen˜a que tiene Ω, es decir, esta´ contenida en toda σ−a´lgebra de Ω (∀F , σ −
a´lgebra de Ω : {Ω, φ } ⊂ F).
Ejemplo 1.3. Sea Ω = { 0; 1; 2 } y A = { 1; 2 }; entonces, {Ω, φ, { 1; 2 }, { 0 } } =
{Ω, φ, A,Ac} es una σ−a´lgebra de Ω, esta es la ma´s pequen˜a a la que pertenece A.
Observacio´n 1.2. La construccio´n de σ-a´lgebras que no sean triviales es ma´s compleja de
lo que aparenta el ejemplo anterior, para ilustrarlo veamos el ejemplo siguiente en el que se
trata de construir una σ-a´lgebra que contenga a los intervalos cerrados por la derecha2.
1En una situacio´n pra´ctica concerniente con la Teor´ıa de Probabilidades, Ω representa al conjunto de los
resultados posibles de un experimento, mientras que F al conjunto de eventos posibles.
2Este ejemplo aparece en muchos libros de probabilidad. Ve´ase, por ejemplo, Ash (2000), pa´g 4, Resnick
(1999) pa´g. 14.
5
Ejemplo 1.4. Consideremos Ω = R y F la familia formada por R, φ y por uniones finitas
de intervalos disjuntos de la forma ( −∞, b ] ( a, b ] o (a, ∞). Aunque podemos verificar
que F cumple las primeras dos propiedades de la definicio´n de σ−a´lgebra e incluso que esta
familia es cerrada respecto a uniones finitas, F no es una σ-a´lgebra de R, pues, F no es
cerrada respecto a uniones infinitas enumerables, por ejemplo, tenemos que (0, 1− 1
n
] ∈ F ,
para n = 1, . . . , pero
∞⋃
n=1
(0, 1− 1
n
] = (0, 1) /∈ F .
Propiedades. Si F es una σ-a´lgebra de Ω, se cumplen las propiedades siguientes:
P1. φ ∈ F .
P2. F es cerrada respecto a reuniones finitas, es decir,
∀A1, . . . , An ∈ F , n ∈ N+ :
n⋃
j=1
Aj ∈ F
P3. F es cerrada respecto a intersecciones finitas, es decir,
∀A1, . . . , An ∈ F , n ∈ N+ :
n⋂
j=1
Aj ∈ F
P4. F es cerrada respecto a intersecciones infinitas enumerables, es decir,
∀A1, A2 . . . ∈ F :
∞⋂
j=1
Aj ∈ F
Observacio´n 1.3. Por las propiedades anteriores queda claro que si A1, . . . , An son eventos
de F ; entonces, operaciones de estos eventos con uniones, intersecciones y complementos
originan tambie´n eventos.
Ejercicio 1.1. Demuestre que la interseccio´n enumerable de sigma-a´lgebras tambie´n es una
sigma-a´lgebra. Es decir, si F1 ,F2 , . . . son σ-a´lgebras de Ω; entonces,
∞⋂
j=1
Fj es una σ-a´lgebra.
Ejercicio 1.2. Demuestre que la interseccio´n arbitraria de sigma a´lgebras tambie´n es una
sigma a´lgebra. Es decir, si {Fj }j∈J es una familia arbitraria de σ-a´lgebras; entonces,
⋂
j∈J
Fj
es una σ-a´lgebra.
Observacio´n 1.4. En una situacio´n pra´ctica, concerniente con probabilidades,podemos
estar interesados solo en algunos eventos, C que no llega a constituir una σ-a´lgebra; pero,
como ya se dijo, la definicio´n formal de probabilidad requiere de este concepto. As´ı, la
definicio´n siguiente sirve para completar una σ−a´lgebra, a partir de una cierta familia.
Definicio´n 1.2. Sea C una familia de subconjuntos de Ω, entonces, a la σ-a´lgebra ma´s
pequen˜a que la contiene se le llama la σ-a´lgebra generada por C y se le denota por σ(C). Es
decir, σ(C) satisface las condiciones siguientes:
i) C ⊂ σ(C),
ii) ∀F , σ-a´lgebra de Ω : C ⊂ F ⇒ σ(C) ⊂ F .
6
Por el ejercicio 1.2 es claro que esta σ-a´lgebra es la interseccio´n de todas las σ-a´lgebras que
contienen a C, es decir, σ(C) = ⋂
j∈J
Fj, con J la familia de las σ-a´lgebras que contienen a C.
Obse´rvese que, segu´n el ejemplo 1.1, en esta familia J esta´ 2Ω.
Ejemplo 1.5. Como en el ejemplo 1.3, sea A ⊂ Ω, con A 6= φ, entonces: σ({A }) =
{Ω, φ, A,Ac}.
Observacio´n 1.5. Dada una subcoleccio´n enumerable de conjuntos de una familia; entonces,
cualquier operacio´n entre estos conjuntos esta´ en la sigma-a´lgebra generada por la familia.
Ve´ase los ejercicios propuestos 1.4 y 1.5.
Definicio´n 1.3. A la sigma-a´lgebra, de subconjuntos de R, generada por los intervalos
abiertos se le denomina la sigma-a´lgebra de Borel en R, se le denota por B(R) y a sus
elementos se los denomina borelianos.
Es decir, si J = { I ⊂ R : I es un intervalo abierto }, entonces: σ(J ) = B(R). En particular,
son borelianos: todo intervalo abierto y de cualquier otro tipo, toda reunio´n o interseccio´n
enumerable de intervalos, todo conjunto abierto o cerrado (con la topolog´ıa usual3).
Observacio´n 1.6. La σ−a´lgebra de Borel se suele usar cuando los eventos de intere´s son
los intervalos. Tambie´n se puede definir la σ−a´lgebra de Borel generada por los intervalos
contenidos en un subconjunto de R.
3Una topolog´ıa en Ω es una familia de subconjuntos τ que satisface las propiedades siguientes: Ω y φ esta´n
en τ y cualquier unio´n arbitraria o cualquier interseccio´n finita de conjuntos que pertenecen a τ tambie´n
le pertenece. A los elementos de la topolog´ıa se los denominan abiertos y a sus complementos, cerrados. La
topolog´ıa usual de R es la topolog´ıa ma´s pequen˜a que contiene a los intervalos abiertos.
7
1.1. Ejercicios propuestos
Ejercicio 1.1.
Si f : Ω1 → Ω2 y A ∈ Ω2, demuestre las propiedades siguientes:
f−1(Ac) =
(
f−1(A)
)c
; f−1(
⋃
j∈J
Aj) =
⋃
j∈J
f−1(Aj); f−1(
⋂
j∈J
Aj) =
⋂
j∈J
f−1(Aj).
Ejercicio 1.2.
Halle
∞⋃
n=1
An y compruebe formalmente, en cada uno de los casos siguientes:
a) An = ( a, b− b−a2n ], b) An = [ a+ b−a2n , b ), c) An = [a+ b−a2n , b− b−a2n ]; con a < b.
Ejercicio 1.3.
De´ un contraejemplo para ilustrar que no es una propiedad que la reunio´n de sigma-a´lgebras
sea una sigma- a´lgebra.
Ejercicio 1.4.
Si C es una familia de subconjuntos de Ω y A1 ∈ C, A2 ∈ C, . . . , demuestre que
a) A1 ∈ σ(C), A2 ∈ σ(C), . . .
b)
∞⋃
j=1
Aj ∈ σ(C);
c)
∞⋂
j=1
Aj ∈ σ(C).
Ejercicio 1.5.
Si A ∈ C, B ∈ C y C ∈ C, demuestre que (A ∩Bc) ∪ C ∈ σ(C).
Ejercicio 1.6.
Sean A y B dos familias de subconjuntos de Ω tales que A1 ∈ A, B1 ∈ B, A2 ∈ A, B2 ∈ B . . .
Demuestre que
( ∞⋃
j=1
Aj
) ∩ ( ∞⋃
j=1
Bcj
) ∈ σ(A) ∩ σ(B).
Ejercicio 1.7.
Sean C1 y C2 dos familias de subconjuntos de Ω tales que todo conjunto de C1 puede ser
expresado como intersecciones enumerables de conjuntos de C2; es decir, ∀A ∈ C1 : ∃A1 ∈ C2,
∃A2 ∈ C2, . . . tales que A =
∞⋃
j=1
Aj.
a) Demuestre que C1 ⊂ σ(C2), es decir, que ∀A ∈ C1 : A ∈ σ(C2).
b) Demuestre que σ(C1) ⊂ σ(C2).
8
Ejercicio 1.8.
Sean C1 y C2 dos familias de subconjuntos de Ω tales que todo conjunto de cualquiera de
estas familias puede ser expresado como una unio´n o interseccio´n enumerable de conjuntos
de la otra familia. Demuestre que σ(C1) = σ(C2).
Ejercicio 1.9.
Demuestre que cada una de las familias de intervalos en R : I1 = { (−∞, b] : b ∈ R },
I
2
= { (a, b] : a, b ∈ R }, I
3
= { [a, b) : a,b ∈ R } e I
4
= { [a, b] : a, b ∈ R } generan
la sigma-a´lgebra de Borel: B(R). Use el resultado del ejercicio 1.8 y recuerde que dado un
intervalo de cierto tipo este siempre puede expresarse como una reunio´n (o bien interseccio´n)
enumerable de intervalos todos de un mismo tipo y diferente del correspondiente al intervalo
dado.
Ejercicio 1.10.
Dadas las familias de intervalos del ejercicio 1.9, conside´rense los conjuntos:
A1 ∈ I1 , A2 ∈ I2 A3 ∈ I3 y A4 ∈ I4 . Demuestre que
Ac1 ∪ (A2 ∩ Ac3) ∩ Ac4 ∈ B(R).
Ejercicio 1.11.
Para cualquier secuencia de conjuntos de Ω, A1, A2 . . . , se definen su l´ımite superior e inferior
como siguen: i) l´ım sup
n→∞
An =
∞⋂
n=1
∞⋃
k=n
Ak, ii) l´ım inf
n→∞
An =
∞⋃
n=1
∞⋂
k=n
Ak.
Adema´s, si el l´ımite inferior y el superior coinciden, es decir, si l´ım sup
n→∞
An = l´ım inf
n→∞
An, se
define el l´ımite de la secuencia mediante l´ım
n→∞
An = l´ım sup
n→∞
An = l´ım inf
n→∞
An.
a) Si An ⊂ An+1, ∀n ∈ N, demuestre que l´ım sup
n→∞
An =
∞⋃
n=1
An.
b) Si An ⊃ An+1, ∀n ∈ N, demuestre que l´ım sup
n→∞
An =
∞⋂
n=1
An.
c) Si cada uno de estos conjuntos pertenecen a una σ−a´lgebra, tambie´n pertenecen a esta
los l´ımites inferior y superior.
Ejercicio 1.12.
Sea C una familia de subconjuntos de Ω. Si todo conjunto de C satisface cierta propiedad
y la familia F de todos los conjuntos que satisfacen esta propiedad es una sigma-a´lgebra;
demuestre que todos los eventos de la σ-a´lgebra generada por C satisfacen la propiedad.
Ejercicio 1.13.
Sea g : Ω→ R. Sea C una familia de subconjuntos de Ω tal que ∀A ∈ C : g(A) ∈ B(R). Si,
adema´s, la familia F = {A ⊂ Ω : g(A) ∈ B(R) } es una sigma-a´lgebra de Ω; demuestre que
A ∈ σ(C)⇒ g(A) ∈ B(R).
9
Ejercicio 1.14.
Sean F , una σ-a´lgebra de Ω, y g : Ω → R. Si C una familia de subconjuntos de R, tal que
∀A ∈ C : g−1(A) ∈ F , demuestre que
A ∈ σ(C) : g−1(A) ∈ F .
Sugerencia. Demuestre que G = {A ⊂ R : g−1(A) ∈ F } es una σ-a´lgebra de R
Ejercicio 1.15.
Sean una funcio´n f : Ω1 → Ω2 y F una sigma-a´lgebra de Ω2. Demuestre que f−1(F) es una
sigma-a´lgebra de Ω1
4.
Ejercicio 1.16.
Sean una funcio´n f : Ω1 → Ω2 y C una familia de conjuntos de Ω2. Demuestre que
σ({ f−1(A) : A ∈ C }) = { f−1(A) : A ∈ σ(C) }. Use el resultado del ejercicio 1.15.
4Recue´rdese que si f : Ω1 → Ω2 y A ∈ Ω2, entonces f−1(A) = {ω ∈ Ω1 : f(ω) ∈ A }. Adema´s, si C es
una familia de subconjuntos de Ω2, se define f
−1(C) como el conjunto { f−1(A) : A ∈ C }
10
2. Probabilidad
Hoy en d´ıa incluso las disciplinas humanas tratan de cuantificar las cosas, claro esta´ que
esta cuantificacio´n depende de la naturaleza de lo que se pretende medir; por ejemplo, no es
lo mismo cuantificar la estatura de un estudiante que su rendimiento en un curso. En este
sentido, podemos decir que la probabilidad es una medida de la incertidumbre.
2.1. Definicio´n de probabilidad
Definicio´n 2.1. Sean Ω 6= φ y F una σ-a´lgebra de Ω. Una probabilidad definida en F es
una funcio´n: P : F → R,
A 7→ P (A)
que a cada evento A ∈ F le hace corresponder un nu´mero real P (A) (denominado la
probabilidad de que ocurra A), y que satisface las propiedades siguientes:
A1. ∀A ∈ F : P (A) ≥ 0.
A2. P (Ω) = 1.
A3. ∀A1, A2 . . . ∈ F , tales que Ai ∩Aj = φ para i 6= j : P
( ∞⋃
j=1
Aj
)
=
∞∑
j=1
P (Aj) .
Observacio´n 2.1. A la terna
(
Ω,F , P ) se la denomina un espacio de probabilidad.
Ejemplo 2.1. Sea Ω un conjunto finito, consideremos como σ−a´lgebra al conjunto potencia,
2Ω, y definamos P de modo que
P (A) =
#(A)
#(Ω)
, ∀A ∈ Ω.
No es dif´ıcil verificar que P satisface las tres propiedades que exige la definicio´n, por lo tanto
es una probabilidad. A esta reglade asignacio´n se la denomina la Probabilidad Cla´sica.
Ejemplo 2.2. Sea F una sigma-a´lgebra de Ω y ω0 ∈ Ω. Sea P : F → R tal que
∀A ∈ F : P (A) = 1A(ω0) 1; entonces, P es una probabilidad. Obse´rvese que, si {w0 } ∈ F ,
entonces, P ({w0 }) = 1.
Ejemplo 2.3. Sea Ω un conjunto finito, digamos Ω = {ω1, . . . , ωn }, consideremos como
σ−a´lgebra a 2Ω. Sean a1, . . . , an (no necesariamente todos diferentes) tales que ai ≥ 0 y
n∑
i=1
ai = 1. Definamos P tal que para todo evento A : P (A) =
∑
i:ωi∈A
ai =
n∑
i=1
ai1A(ωi). Se
puede verificar que P es una probabilidad; adema´s, P ({ωi }) = ai.
1Es comu´n usar la notacio´n siguiente: 1A(ω) =
{
1, si ω ∈ A
0, si ω 6∈ A. .
11
Observacio´n 2.2. Sea Ω un conjunto finito, digamos Ω = {ω1, . . . , ωn }, consideremos
como σ−a´lgebra a 2Ω. Sea P una probabilidad, entonces, para todo evento A se tiene que
P (A) = P
( ⋃
i:ωi∈A
{ωi }
)
=
∑
i:ωi∈A
P ({ωi }) =
n∑
i=1
P ({ωi })1A(ωi) . Por lo tanto, para definir
una probabilidad P (para este tipo de espacio Ω) basta asignar probabilidades a {ωi }
(los conjuntos unitarios formados por los elementos de Ω), es decir, determinar nu´meros
a1, . . . , an (no necesariamente todos diferentes) tales que ai ≥ 0 y
n∑
i=1
ai = 1 y hacer que
P ({ωi }) = ai.
Ejercicio 2.1. Generalizar el ejemplo y la observacio´n anteriores para un espacio Ω infinito
enumerable, digamos Ω = {ω1, ω2, . . . }.
2.2. Propiedades de la probabilidad
Si P es una probabilidad, definida en F , satisface, entre otras, las propiedades siguientes:
P1. P (φ) = 0.
P2. ∀A1, A2 . . . An ∈ F , n ∈ N, tales que Ai ∩ Aj = φ para i 6= j : se tiene que
P
( n⋃
j=1
Aj
)
=
n∑
j=1
P (Aj) .
P3. ∀A ∈ F : P (A) + P (Ac) = 1.
P4. ∀A ∈ F : 0 ≤ P (A) ≤ 1.
P5. ∀A y B ∈ F tales que A ⊂ B : P (A) ≤ P (B).
P6. ∀A y B ∈ F : P (B) = P (B ∩A) + P (B ∩ Ac).
O, en general, ∀A1, . . . , Ak ∈ F , k ∈ N, particio´n de Ω (es decir, tales que Ai ∩ Aj =
φ, i 6= j, y
k⋃
i=1
Ai = Ω); entonces, ∀B ∈ F : P (B) =
k∑
i=1
P (B ∩ Ai).
Esta propiedad es una de las ma´s importantes en las aplicaciones, se puede ilustrar
como sigue:
⊎ ⊎ ⊎ ⊎Ω : A1 . . . . . . . .Ai Ak
B : B ∩ A1 . . . . . . . .B ∩ Ai B ∩Ak
Bc :
O, incluso, ∀A1, A1 · · · ∈ F particio´n de Ω; entonces, ∀B ∈ F : P (B) =
∞∑
i=1
P (B ∩Ai).
12
P7. ∀A y B ∈ F : P (A ∪B) = P (A) + P (B)− P (A ∩B).
O, en general, ∀A1, . . . An ∈ F , n ∈ N :
P (A1 ∪ . . . ∪ An)
=
n∑
i=1
P (Ai)−
∑∑
i<j
P (Ai∩Aj)+
∑∑
i<j<k
P (Ai∩Aj∩Ak)+ . . . +(−1)n+1P (A1∩ . . . ∩An).
En particular, si n = 3, se tiene:
P (A1 ∪A2 ∪A3)
= P (A1)+P (A2)+P (A3)−P (A1∩A2)−P (A1∩A3)−P (A2∩A3)+P (A1∩A2∩A3).
P8. ∀A1, A2 . . . ∈ F : P
( ∞⋃
j=1
Aj
) ≤ ∞∑
j=1
P (Aj) .
P9. ∀A1, A2 . . . ∈ F tales que An ⊂ An+1, ∀n ∈ N :
P
( ∞⋃
n=1
An
)
= l´ım
n→∞
P (An) .
O, puesto que en este caso
∞⋃
n=1
An = l´ım
n→∞
An
2, tenemos que P ( l´ım
n→∞
An) = l´ım
n→∞
P (An).
Por esto, esta propiedad se conoce como propiedad de continuidad de la probabilidad.
P10. ∀A1, A2 . . . ∈ F tales que An ⊃ An+1, ∀n ∈ N :
P
( ∞⋂
n=1
An
)
= l´ım
n→∞
P (An) .
O, ya que en este caso
∞⋂
n=1
An = l´ım
n→∞
An
3, P ( l´ım
n→∞
An) = l´ım
n→∞
P (An).
Ejemplo 2.4. Para producir cierto bien debe usarse solo uno de tres procedimientos
principales existentes (1, 2 y 3) y, opcionalmente, uno secundario (4). La probabilidad de
usar el procedimiento 1 es de 0,6; la probabilidad de usar el procedimiento 1 con el secundario
es igual a 0,24. La probabilidad de usar el procedimiento 2 sin el procedimiento secundario
es de 0,06. La probabilidad de usar el procedimiento 3 es de 0,25; y la probabilidad de usar
el procedimiento secundario con este procedimiento es de 0,16.
Obtengamos la probabilidad de usar el procedimiento secundario. Para esto consideremos los
eventos: Ai, usar el procedimiento i; para i = 1, . . . , 4. Estos eventos nos permiten expresar
los datos dados con las notaciones necesarias para usar las propiedades de la probabilidad:
A1 ⊎ A2 ⊎ A3 = Ω4, es decir, los eventos A1, A2 y A3 constituyen una particio´n de Ω (es
decir, son mutuamente excluyentes y exhaustivos). Tenemos las probabilidades siguientes:
P (A1) = 0,6, P (A1 ∩ A4) = 0,24, P (A2 ∩Ac4) = 0,06, P (A3) = 0,25 y P (A3 ∩A4) = 0,16.
2Ve´ase el ejercicio propuesto 1.11.
3Ve´ase el ejercicio propuesto 1.11.
4Si A y B son disjuntos, se puede escribir A ⊎B en lugar de A ∪B.
13
Para obtener la probabilidad del evento que interesa, es decir de A4, la descomposicio´n
A1⊎A2⊎A3 = Ω nos permite expresar A4 = (A4 ∩A1)⊎ (A4∩A2)⊎ (A4∩A3); por lo tanto,
la probabilidad pedida es
P (A4) = P
(
(A4 ∩A1) ⊎ (A4 ∩ A2) ⊎ (A4 ∩ A3)
)
= P (A4 ∩ A1) + P (A4 ∩A2) + P (A4 ∩ A3)
= 0,24 + P (A4 ∩ A2) + 0,16
Luego, basta obtener la probabilidad P (A4 ∩ A2). Para esto, puesto que A1 ⊎ A2 ⊎A3 = Ω,
podemos deducir inmediatamente que P (A1) + P (A2) + P (A3) = 1 y as´ı P (A2) =
1 − 0,6 − 0,25 = 0,15. Adema´s, ya que P (A2) = P (A4 ∩ A2) + P (Ac4 ∩ A2), tenemos que
P (Ac4 ∩ A2) = P (A2)− 0,06 = 0,15− 0,06. As´ı, P (A4) = 0,24 + 0,09 + 0,16 = 0,49.
2.3. Probabilidad condicional
Definicio´n 2.2. Sea (Ω,F , P ) un espacio de probabilidad y B un evento de F con P (B) > 0.
La probabilidad condicional dado B, que se denota por P ( · /B), es la probabilidad definida
en F : P ( · /B) : F → R, tal que ∀A ∈ F : P (A/B) = P (A∩B)
P (B)
.
Obse´rvese que si P es la probabilidad cla´sica; entonces,
P (A/B) =
P (A ∩ B)
P (B)
=
#(A∩B)
#(Ω)
#(B)
#(Ω)
=
#(A ∩B)
#(B)
.
Por lo que P (A/B) se interpreta como la probabilidad de que ocurra A, cuando se sabe que
ocurrio´ el evento B. En las aplicaciones pra´cticas, la probabilidad condicional se usa para
actualizar las probabilidades luego de recibir informacio´n adicional que pueda modificar las
posibilidades de los eventos.
Observacio´n 2.3. La probabilidad condicional es, en efecto, una probabilidad:
A1. ∀A ∈ F : P (A/ B) ≥ 0.
A2. P (Ω/ B) = 1.
A3. ∀A1, A2 . . . ∈ F , tales que Ai ∩ Aj = φ, para i 6= j : P
( ∞⋃
j=1
Aj/B
)
=
∞∑
j=1
P (Aj/B) .
En particular satisface tambie´n cualquier otra propiedad de la probabilidad, como las
siguientes:
P1. P (φ/B) = 0.
P2. ∀A1, A2 . . . An ∈ F , n ∈ N, tales que Ai ∩Aj = φ para i 6= j :
P
( n⋃
j=1
Aj/B
)
=
n∑
j=1
P (Aj/B) .
14
P3. ∀A ∈ F : P (A/B) + P (Ac/B) = 1.
P4. ∀A ∈ F : 0 ≤ P (A/B) ≤ 1.
P5. ∀C y D ∈ F tales que C ⊂ D : P (C/B) ≤ P (D/B).
P6. ∀C y D ∈ F : P (C/B) = P (C ∩D/B) + P (C ∩Dc/B).
P7. ∀C y D ∈ F : P (C ∪D/B) = P (C/B) + P (D/B)− P (C ∩D/B).
Propiedad (regla del producto): Sea (Ω,F , P ) un espacio de probabilidad para
cualesquiera A y B eventos de F , se tiene que:
P (A ∩ B) = P (B)P (A/B) = P (A)P (B/A).
Observacio´n 2.4. Esta regla es importante, pues, permite obtener la probabilidad que
tienen de ocurrir conjuntamente dos eventos, a partir de la probabilidad de uno de ellos y la
del otro condicional a la ocurrencia del primero.
En general:
P (A1 ∩ . . . ∩ Ak) = P (A1)P (A2/A1)P (A3/A1 ∩ A2) . . . P (Ak/A1 ∩ . . . ∩Ak−1).
Ejemplo 2.5. Al realizar tres proyectos, c1, c2 y c3, se estiman las probabilidades siguientes:
0,3 de que el desarrollo de c3 no sea exitoso, 0,8 para el desarrollo exitoso de c1, cuando c3
resulta exitoso, y 0,1 de que el desarrollo de c2 no sea exitoso, si resultaran exitosos c1 y c3.
As´ı, si definimos los eventos Aj : el desarrollo de cj sea exitoso, para j = 1, 2, 3, tenemos las
probabilidades siguientes: P (Ac3) = 0,3, P (A1/A3) = 0,8, P (A
c
2/A1 ∩ A3) = 0,1.
Podemos usar la Regla del Producto para obtener, entre otras, las probabilidades siguientes:
de que resulten exitosos c1 y c3
= P (A1 ∩ A3) = P (A3)P (A1/A3) = [ 1− P (A3) ]P (A1/A3) = 0,7× 0,8;
de que los tres proyectosresulten exitosos
P (A1 ∩ A3 ∩A2) = P (A3) P (A1/A3) P (A2/A3 ∩ A1)
= [ 1− P (A3) ]P (A1/A3)[ 1− P (Ac2/A3 ∩ A2) ]
= 0,7 × 0,8 × 0,9.
Propiedad (reglas de la probabilidad total y de Bayes) Sea (Ω,F , P ) un espacio de
probabilidad y sean A1, . . . , Ak, eventos mutuamente excluyentes (esto es, Ai∩Aj = φ, para
cualesquiera i 6= j) y exhaustivos (es decir,
k⋃
i=1
Ai = Ω), y B otro evento.
Entonces, tenemos las propiedades siguientes:
a) La regla de la probabilidad total: la probabilidad de B puede obtenerse mediante
una suma, como se muestra a continuacio´n:
P (B) =
k∑
i=1
P (B ∩Ai) =
k∑
i=1
P (Ai)P (B/ Ai).
15
b) La regla de Bayes: luego de saber de la ocurrencia del evento B, la probabilidad
que se le hab´ıa asignado a Aj (para j = 1, . . . , k) se actualiza como:
P (Aj/ B) =
P (Aj ∩B)
P (B)
=
P (Aj)P (B/ Aj)
P (B)
=
P (Aj)P (B/ Aj)
k∑
i=1
P (Ai)P (B/ Ai)
.
Ejemplo 2.6. (Reconocimiento de patrones5) En el procesamiento de una imagen
recibida, la imagen transmitida puede haber sido bien I1, bien I2 o bien I3. Para ayudar
a la identificacio´n de esta se registra el valor de cierta variable distintiva. Toda imagen
recibida sera´ clasificada como una de estas tres ima´genes posibles, de modo que se tenga
la mayor probabilidad de acertar, dada la informacio´n registrada de la variable distintiva.
Antes de registrar la variable distintiva la imagen I1 tiene una probabilidad de 0,5, I2 de
0,3 e I3, 0,2. Si la imagen transmitida es I1, la probabilidad de que la variable distintiva
este´ entre 14 y 15 es de 0,1; si la imagen transmitida es I2, la probabilidad de que la variable
distintiva este´ entre 14 y 15 es de 0,25; pero si la imagen transmitida es I3, la probabilidad
de que la variable distintiva este´ entre 14 y 15 es de 0,35. Si para cierta imagen recibida fue
registrado un valor de la variable distintiva entre 14 y 15, ¿co´mo debe ser clasificada dicha
imagen?
Para responder podemos considerar los eventos Aj : la imagen transmitida es Ij , para
j = 1, 2, 3, y B : el valor de la variable distintiva entre 14 y 15.
Estos eventos nos permiten expresar los datos dados con las notaciones necesarias para usar
las propiedades de la probabilidad:
A1 ⊎ A2 ⊎ A3 = Ω (condicio´n para aplicar las reglas de la propiedad anterior), P (A1) =
0,5,P (A2) = 0,3,P (A3) = 0,2, P (B/A1) = 0,1, P (B/A2) = 0,25, P (B/A3) = 0,35.
Si usamos las reglas dadas en la propiedad anterior obtenemos las probabilidades siguientes:
P (B) =
3∑
i=1
P (B ∩ Ai) =
3∑
i=1
P (Ai)P (B/Ai) = 0,5× 0,1 + 0,3× 0,25 + 0,2× 0,35 = 0,195;
P (A1/B) =
P (A1 ∩B)
P (B)
=
P (A1)P (B/A1)
P (B)
=
0,05
0,195
= 0,25641;
P (A2/B) =
P (A2 ∩B)
P (B)
=
P (A2)P (B/A2)
P (B)
=
0,075
0,195
= 0,38462;
P (A3/B) =
P (A3 ∩B)
P (B)
=
P (A3)P (B/A3)
P (B)
=
0,07
0,195
= 0,35897 6.
Por lo tanto, la imagen recibida debe clasificarse como I2.
Las tres u´ltimas probabilidades actualizadas, de cada tipo de imagen, se actualizara´n cuando
se clasifique la pro´xima imagen que se reciba (segu´n la variable distintiva).
5Este ejemplo es una simplificacio´n de un problema de reconocimiento de patrones estad´ıstico. Ve´ase
Bishop (1995) cap´ıtulo 1, ejemplo 1.
6Esta u´ltima probabilidad tambie´n se puede obtener por complemento, pues P (A1)+P (A2)+P (A3) = 1.
16
Observacio´n 2.5. En las propiedades anteriores la particio´n de Ω puede ser infinita
enumerable, es decir, si A1, A2, · · · ∈ F es una particio´n de Ω (Ai∩Aj = φ, para cualesquiera
i 6= j y
∞⋃
i=1
Ai = Ω), entonces, ∀B ∈ F :
P (B) =
∞∑
i=1
P (B ∩ Ai)
Ejemplo 2.7. La probabilidad de que cierto sistema, con una estructura en serie, tenga n
componentes esta´ dada por 2−n, ∀n ∈ N+. Si el sistema tiene n componentes, la probabilidad
de que funcione todo un an˜o esta´ dada por e−
n
2
7.
Entonces, para calcular la probabilidad de que el sistema funcione todo un an˜o, basta
considerar los eventos siguientes:
An : el sistema tiene n componentes, con n = 1; 2; . . . y B : el sistema funciona todo un an˜o.
Tenemos que
∞⋃
i=1
Ai = Ω, P (An) = 2
−n y P (B ∩ An) = e−n2 , n = 1; 2; . . . Entonces, por la
observacio´n anterior resulta:
P (B) =
∞∑
n=1
P (B ∩An) =
∞∑
n=1
P (An)P (B/An) =
∞∑
n=1
2−ne−
n
2 =
∞∑
n=1
( 1
2e1/2
)n =
1
2e1/2
1− 1
2e1/2
8.
2.4. Independencia
Definicio´n 2.3. Sea (Ω,F , P ) un espacio de probabilidad. Se dice que dos eventos A y B
son independientes si:
P (A ∩B) = P (A)P (B)
Observacio´n 2.6. Cuando dos eventos son independientes, la probabilidad de que ocurra
uno de ellos sigue siendo la misma aun cuando se sepa que ha ocurrido el otro, es decir:
P (A/B) = P (A) y P (B/A) = P (B)
La definicio´n anterior se generaliza a continuacio´n.
Definicio´n 2.4. Sea (Ω,F , P ) un espacio de probabilidad. La coleccio´n de eventos
{A1, A2, . . . } son independientes, si la probabilidad de que ocurran simulta´neamente
cualquier nu´mero finito de estos eventos es igual al producto de las probabilidades de cada
uno.
As´ı, por ejemplo, si se consideran n cualesquiera de tales eventos, digamos Ai1 , Ai2 , . . . Ain ,
entonces:
P (Ai1 ∩ Ai2 ∩ . . . ∩ Ain) = P (Ai1)P (Ai2) . . . P (Ain)
7Esto ocurre si los componentes tienen tiempos de vida independientes y con distribucio´n exponencial de
media dos an˜os.
8Recue´rdese la serie geome´trica: 0 < |r| < 1,m ∈ N :⇒
∞∑
j=1
rj = m
j
1−r
.
17
Ejemplo 2.8. Los eventos A, B y C son independientes si se cumplen las igualdades
siguientes:
P (A∩B) = P (A)P (B), P (A∩C) = P (A)P (C), P (B ∩C) = P (B)P (C) y P (A∩B ∩C) =
P (A)P (B)P (C).
Propiedad Si en una coleccio´n de eventos independientes, digamos {A1, A2, . . . }, se
sustituye cualquiera de estos por su complemento; entonces, la coleccio´n que resulta tambie´n
es de eventos independientes.
Observacio´n 2.7. Por la propiedad anterior, podemos decir que dos eventos son
independientes si la probabilidad de que ocurra uno de ellos no se altera aun sabiendo si
ocurrio´, o si no ocurrio´, el otro.
Ejemplo 2.9. Se conformara´ un sistema con tres componentes, cualquiera de estos puede
funcionar, durante un an˜o, con una probabilidad igual a 0,99 e independientemente de si los
otros lo hagan. Obtengamos la probabilidad de que el sistema funcione, durante un an˜o, en
cada uno de los casos siguientes:
a) el sistema tiene una estructura en serie;
b) el sistema tiene una estructura en paralelo;
c) el sistema tiene una estructura “ 2 de 3 ”.
Para obtener las probabilidades usaremos los eventos siguientes:
Ai : el componente i funcione durante un an˜o, i = 1, 2, 3.
a) Interesa el evento A1 ∩ A2 ∩A3. Por la independencia tenemos que:
P (A1 ∩ A2 ∩ A3) = P (A1)P (A2)P (A3)
= (0,99)(0,99)(0,99)
= (0,99)3
b) En este caso el evento de intere´s es A1 ∪A2 ∪ A3, cuyo complemento es Ac1 ∩ Ac2 ∩ Ac3.
Por la independencia, resulta ma´s simple obtener la probabilidad del complemento, en efecto:
P (Ac1 ∩Ac2 ∩Ac3) = P (Ac1)P (Ac2)P (Ac3)
= (1− 0,99)(1− 0,99)(1− 0,99)
= (1− 0,99)3
As´ı, P (A1 ∪A2 ∪A3) = 1− P (Ac1 ∩Ac2 ∩Ac3) = 1− (1− 0,99)3.
c) Ahora el evento que interesa puede expresarse como:
(A1 ∩A2 ∩Ac3) ⊎ (A1 ∩ Ac2 ∩A3) ⊎ (Ac1 ∩ A2 ∩ A3) ⊎ (A1 ∩A2 ∩A3)
Cuya probabilidad se puede obtener sumando las probabilidades de cada uno de los eventos
excluyentes anteriores, es decir,
P (A1 ∩ A2 ∩ Ac3) + P (A1 ∩Ac2 ∩A3) + P (Ac1 ∩ A2 ∩ A3) + P (A1 ∩A2 ∩A3)
18
Nuevamente por la independencia, tenemos que:
P (A1 ∩ A2 ∩Ac3) = P (A1)P (A2)P (Ac3) = (0,99)(0,99)(1− 0,99) = (0,99)2(1− 0,99)
P (A1 ∩ Ac2 ∩A3) = P (A1)P (Ac2)P (A3) = (0,99)(1− 0,99)(0,99) = (0,99)2(1− 0,99)
P (Ac1 ∩ A2 ∩A3) = P (Ac1)P (A2)P (A3) = (1− 0,99)(0,99)(0,99) = (0,99)2(1− 0,99)
P (A1 ∩ A2 ∩A3) = P (A1)P (A2)P (A3)= (0,99)(0,99)(0,99) = (0,99)3
Por lo tanto, la probabilidad que interesa es 3(0,99)2(1− 0,99) + (0,99)3.
Propiedad. Si en una coleccio´n de eventos independientes se escogen subcolecciones
disjuntas (de este modo ningu´n evento estara´ en ma´s de una subcoleccio´n) y en cada
subcoleccio´n se efectu´an operaciones (de reunio´n, interseccio´n o complemento) con los
eventos que la integran; entonces, los eventos que resultan de estas operaciones tambie´n
son independientes.
Ejemplo 2.10. Si A, B, C y D son eventos independientes; entonces, tambie´n lo son, entre
otros
a) A ∩ (B ∪ C) y D, b) Ac, Bc ∪ C y Dc, c) Ac ∩ B y C ∪Dc.
En particular
P (A ∩ (B ∪ C) ∩D) = P (A)P (B ∪ C)P (D),
P (Ac ∩ (Bc ∪ C) ∩Dc) = P (Ac)P (Bc ∪ C)P (Dc),
P ( (Ac ∩B) ∩ (C ∪Dc) ) = P (Ac ∩ B)P (C ∪Dc).
19
2.5. Ejercicios Propuestos
Ejercicio 2.1.
Sean F , una σ-a´lgebra de Ω, y dos probabilidades P1 y P2 (definidas en F). Para cada A ∈ F ,
se define P (A) de la manera siguiente: P (A) = 1
4
P1(A) +
3
4
P2(A) .
Demuestre que P tambie´n es una probabilidad.
Ejercicio 2.2.
Sea (Ω,F , P ) un espacio de probabilidad y C ∈ F , con P (C) > 0. Se define, ∀A ∈ F , Q(A)
de la manera siguiente: Q(A) =
P (A ∩ C)
P (C)
.
Demuestre que Q tambie´n es una probabilidad.
Ejercicio 2.3.
Sean F1 una sigma-a´lgebra en Ω1, F2 una sigma-a´lgebra en Ω2, P una probabilidad definida
en F1 y una funcio´n g : Ω1 → Ω2 tal que ∀A ∈ F2 : g−1(A) ∈ F1. Sea Pg : F2 → R, tal
que ∀A ∈ F2 : Pg(A) = P (g−1(A)). Demuestre que Pg es una probabilidad definida en F2.
Ejercicio 2.4.
Sea (Ω,F , P ) un espacio probabil´ıstico y {A1, A2, . . . } una familia de eventos de F .
a) Demuestre que P (Lim inf An) = l´ım
n→∞
P (
∞⋂
k=n
Ak).
No´tese que: Bn =
∞⋂
k=n
Ak, ∀n ∈ N+ ⇒ Bn ⊂ Bn+1,∀n ∈ N+; luego use la propiedad 9
de la probabilidad.
b) Demuestre que: P (LimsupAn) = l´ım
n→∞
P (
∞⋃
k=n
Ak)
No´tese que: Bn =
∞⋃
k=n
Ak, ∀n ∈ N+ ⇒ Bn ⊃ Bn+1,∀n ∈ N+; luego use la propiedad 10
de la probabilidad.
c) Si LimsupAn = Lim inf An, demuestre que l´ım
n→∞
P (An) = P (LimAn).
No´tese que:
∞⋂
k=n
Ak ⊂ An ⊂
∞⋃
k=n
Ak; luego use la propiedad 5 de la probabilidad.
d) Demuestre que:
∞∑
n=1
P (An) <∞⇒ P (LimsupAn) = 0.
Recue´rdese que:
∞∑
n=1
an <∞⇒ l´ım
n→∞
∞∑
k=n
ak = 0.
20
Ejercicio 2.5.
Sea f : R→ R, tal que
∞∫
−∞
f = 1. Para cadaA ∈ B(R), se define P (A),mediante P (A) = ∫
A
f.
Demuestre que P es una probabilidad en el espacio (R, B(R)).
Ejercicio 2.6.
Sea (Ω,F , P ) un espacio de probabilidad. Demuestre que
∀A,B ∈ F : A ⊂ B y P (A) = 1 ⇒ P (B) = 1.
Ejercicio 2.7.
Sea (Ω,F , P ) un espacio de probabilidad. Demuestre que
∀A,B ∈ F : A ⊂ B y P (B) = 0 ⇒ P (A) = 0.
Ejercicio 2.8.
Sea (Ω,F , P ) un espacio de probabilidad. Demuestre que
∀A,B ∈ F : P (A ∩B) ≥ P (A) + P (B)− 1.
Ejercicio 2.9.
Sea (Ω,F , P ) un espacio de probabilidad. ∀A1, . . . , Am ∈ F tales que Ai ∩ Aj = φ, para
i 6= j, demuestre que ∃i ∈ { 1, . . . m } : P (Ai) ≤ 1m .
Ejercicio 2.10.
Una tarea se realiza con un solo operario de tres disponibles (1, 2 y 3). Se sabe que la
probabilidad de realizar la tarea con el operario 1 y obtener el resultado esperado es de 0,01.
La probabilidad de realizar la tarea con el operario 2 es de 0,08. La probabilidad de realizar
la tarea 2 y no obtener el resultado esperado es de 0,05. Adema´s, la probabilidad de realizar
la tarea con el operario 3 y obtener el resultado esperado es de 0,02. Hallar la probabilidad
de obtener el resultado esperado.
Ejercicio 2.11.
Dados los tres eventos siguientes: A1, A2 y A3, se sabe que
P (A1 ∩ A2 ∩ Ac3) = P (A1 ∩Ac2 ∩ A3) = P (Ac1 ∩ A2 ∩A3) = P (A1 ∩A2 ∩ A3) = 18 .
a) ¿Cua´l es la probabilidad de que los tres eventos ocurran?
b) Halle la probabilidad de que solo dos de los tres eventos ocurran.
c) Halle la probabilidad de que por lo menos dos de los tres eventos ocurran.
d) Halle la probabilidad de que por lo menos uno de los tres eventos no ocurra.
21
Ejercicio 2.12.
Si P (A ∩Bc ∩ C) = 0,8 y P (A ∩Bc ∩ C ∩Dc) = 0,5.
a) Halle P (A ∩Bc ∩ C ∩D).
b) Halle P (Ac ∪ B ∪ Cc ∪Dc).
Ejercicio 2.13.
Demostrar la propiedad enunciada en la observacio´n 2.5.
Ejercicio 2.14.
Demuestre que si en la Regla de la Probabilidad Total la condicio´n
k⋃
i=1
Ai = Ω es reemplazada
por P (
k⋃
i=1
Ai) = 1 (es decir, ahora los eventos A1, . . . , Ak son mutuamente excluyentes [ esto
es, Ai ∩Aj = φ, para cualesquiera i 6= j ], pero no necesariamente exhaustivos); entonces, el
resultado todav´ıa es va´lido:
P (B) =
k∑
i=1
P (B ∩Ai) =
k∑
i=1
P (Ai)P (B/ Ai), ∀B ∈ F .
Tenga en cuenta la sugerencia siguiente:
si se define Ak+1 = (
k⋃
i=1
Ai)
c
, puede aplicar la Regla de la Probabilidad Total con la particio´n
A1, . . . , Ak+1. Tambie´n tenga en cuenta el ejercicio propuesto 2.7.
Ejercicio 2.15.
Sean P, Q y R probabilidades, definidas en F (σ-a´lgebra de Ω), tales que
∀A ∈ F : Q(A) = P (A/B) y R(A) = Q(A/C).
Demuestre que ∀A ∈ F : R(A) = P (A/B ∩ C).
Ejercicio 2.16.
Sean P, Q R y S probabilidades, definidas en F (σ-a´lgebra de Ω), tales que
∀A ∈ F : Q(A) = P (A/B), R(A) = Q(A/C) y S(A) = R(A/D).
Demuestre que ∀A ∈ F : S(A) = P (A/B ∩ C ∩D).
Ejercicio 2.2.
Si P (A ∩ C/B) = 0,1, P (A ∩ Cc/B) = 0,2, halle P (A/B).
Ejercicio 2.17.
Halle la probabilidad P (A ∪ B ∪ C ∪D), si se conocen las probabilidades siguientes:
P (A) = 0,1, P (Bc/Ac) = 0,8, P (C/Ac ∩Bc) = 0,3 y P (D/Ac ∩ Bc ∩ Cc) = 0,4.
22
Ejercicio 2.18.
Al realizar tres proyectos, c
1
, c
2
y c
3
, un economista estima las probabilidades siguientes:
i) 0,7, para el desarrollo exitoso de c1;
ii) 0,8, para el desarrollo exitoso de c2, si es que c1 resultara exitoso;
iii) 0,6, para el desarrollo exitoso de c2, si es que c1 no resultara exitoso;
iv) 0,9, para el desarrollo exitoso de c3, si es que resultaran exitosos c1 y c2 ;
v) 0,75, para el desarrollo exitoso de c3 , si es que resultara exitoso c1 pero no c2 ;
vi) 0,65, para el desarrollo exitoso de c3 , si es que resultara exitoso c2 pero no c1 ;
vii) 0,5, para el desarrollo exitoso de c3, si es que no resultaran exitosos c1 ni c2 .
El economista obtendra´ un beneficio si, y solo si, por lo menos dos de los tres proyectos
resultaran exitosos. Cuantifique el riesgo que correra´ al realizar los proyectos.
Ejercicio 2.19.
Si A,B y C son eventos independientes, use la definicio´n de independencia para demostrar
que tambie´n lo son i) A y Bc; ii) Ac y Bc; iii) A ∪B y C.
Ejercicio 2.20.
Sea (Ω,F , P ) un espacio de probabilidad y A1, . . . , A5 eventos independientes, cada uno con
probabilidad 0,9, halle las probabilidades de los eventos siguientes:
a) A1 ∪ Ac2, b) (A1 ∪Ac2) ∩A3, c) A4 ∪
(
(A1 ∪ Ac2) ∩ A3
) ∪A5.
Ejercicio 2.21.
Los eventos A1, . . . , A5 son independientes y P (Ai) =
i
10
, i = 1, . . . , 5.
a) Halle P (A1 ∪ · · · ∪A5).
b) Calcule la probabilidad de que por lo menos dos de estos eventos ocurra.
c) Calcule la probabilidad de A1∪(A2∩Ac3∩A4)∪Ac5. Emplee propiedades que simplifiquen.
23
3. Variable aleatoria
3.1. Definicio´n y ejemplos
Definicio´n 3.1. Sea (Ω,F , P ) un espacio de probabilidad. Una variable aleatoria es una
funcio´n X : Ω→ R, tal que ∀x ∈ R : X−1( ] −∞, x ] ) ∈ F .
ω 7→ X(ω)
ω
Ω
·
x = X(ω) R
X
Observacio´n 3.1. ¿Que´ interpretacio´n podemos dar a esta definicio´n formal? Para
averiguarlo ponga´monos en el papel de una persona que recibe u observa los valores de la
variable, para ella estos valores tendra´n una naturaleza aleatoria, puesto que estos se originan
al transformar los resultados de un experimento aleatorio en nu´meros. Ese experimento
resulta, para dicha persona, como una “caja negra”, pues ella solo recibe los valores y no
observael experimento mismo, por lo tanto, para tener una descripcio´n de ella tendra´ que
hacerlo de manera indirecta y no a trave´s del experimento aleatorio mismo. La condicio´n
∀x ∈ R : X−1( ] − ∞, x ] ) ∈ F , garantiza que cualquier intervalo en R, originado por la
variable aleatoria, provenga de un evento que es medible en el espacio (Ω,F ,P) y, en general,
cualquier boreliano (como se menciona en la observacio´n 3.3), por ejemplo:
2 ≤ X ≤ 4 = X−1( [ 2, 4 ] ) = {ω ∈ Ω : 2 ≤ X(ω) ≤ 4 } ∈ F ,
X < 5 = X−1( ] −∞, 5 ] ) = {ω ∈ Ω : X(ω) < 5 } ∈ F ,
X = 3 = X−1( { 3 } ) = {ω ∈ Ω : X(ω) = 3 } ∈ F .
Ejemplo 3.1. Sea Ω = { (0; 0),(0; 1),(1; 0),(1; 1) } y F = 2Ω. Definimos X : Ω→ R, tal que
X( (ω1, ω2) ) = ω1 + ω2
1; entonces, X es una variable aleatoria. Para justificarlo podemos
empezar por notar que el rango de X es { 0; 1; 2 } y luego que
x < 0⇒ X−1( ] −∞, x ] ) = φ,
0 ≤ x < 1⇒ X−1( ] −∞, x ] ) = X−1( { 0 } ) = { (0; 0) },
1 ≤ x < 2⇒ X−1( ] −∞, x ] ) = X−1( { 0; 1 } ) = { (0; 0),(0; 1), (1; 0) },
2 ≤ x⇒ X−1( ] −∞, x ] ) = X−1( { 0; 1; 2 } ) = { (0; 0),(0; 1), (1; 0) (1; 1) }.
1Ω puede representar al espacio muestral del experimento de lanzar dos veces una moneda; entonces, si
1 representa a sello y 0 a cara, X sera´ el nu´mero de sellos obtenidos.
24
Ejemplo 3.2. Si F = 2Ω, entonces, toda funcio´n X : Ω → R es una variable aleatoria,
pues, ∀x ∈ R : X−1( ] −∞, x ] ) ⊂ Ω, es decir, X−1( ] −∞, x ] ) ∈ 2Ω.
Observacio´n 3.2. Como X−1(A) = {ω ∈ Ω : X(ω) ∈ A }, es usual denotar estos conjuntos
simplemente por X ∈ A, es decir, X ∈ A = {ω ∈ Ω : X(ω) ∈ A } = X−1(A).
Similarmente, como fue escrito en la observacio´n anterior, X ≤ x = {ω ∈ Ω : X(ω) ≤ x },
X = x = {ω ∈ Ω : X(ω) = x }, etc.
Ejemplo 3.3. Sea (Ω,F , P ) un espacio de probabilidad y A ∈ F . Si consideramos X = 1A,
entonces, X es una variable aleatoria. En efecto, como 1A(ω) =
{
1, si ω ∈ A
0, si ω 6∈ A; entonces,
tenemos que
x < 0⇒ X−1( ] −∞, x ] ) = X ≤ x = φ ∈ F ,
0 ≤ x < 1⇒ X−1( ] −∞, x ] ) = X ≤ x = X = 0 = X−1( { 0 } ) = Ac ∈ F ,
1 ≤ x⇒ X−1( ] −∞, x ] ) = X ≤ x = X ≤ 1 = X−1( { 0; 1 } ) = Ac ∪ A = Ω ∈ F .
Observacio´n 3.3. Sean (Ω,F , P ) un espacio de probabilidad y una funcio´n X : Ω → R.
Entonces, X es una variable aleatoria ⇔ ∀B ∈ B(R) : X−1(B) ∈ F .
Propiedad Si X e Y son variables aleatorias tambie´n lo son: cX,∀c ∈ R, X + Y y X/Y, si
Y 6= 0.
Propiedad Si X es una variable aleatoria y g : R→ R es una funcio´n continua2, entonces
g(X) tambie´n es una variable aleatoria. En realidad basta que g este´ definida en el rango de
la variable X.
Observacio´n 3.4. La propiedad anterior es ma´s general, se puede considerar que g sea una
variable aleatoria en (R,B(R)), es decir, g : R→ R tal que ∀x ∈ R : g−1( ] −∞, x ] ) ∈ B(R).
Ejemplo 3.4. Si X es una variable aleatoria, entonces, tambie´n lo son:
eX , ln(|X|), 5 + 4X, 1
]−∞, 2[
(X) , X 1
]−∞, 2[
(X) + 2 1
[2,∞[
(X).
Ejemplo 3.5. Si X es una variable aleatoria positiva, entonces, tambie´n lo es ln(X).
3.2. Funcio´n de distribucio´n
Definicio´n 3.2. Sea (Ω,F , P ), un espacio de probabilidad y X una variable aleatoria. La
funcio´n de distribucio´n acumulada de X es la funcio´n F : R→ R, tal que ∀x ∈ R : F (x) =
P (X ≤ x), es decir, F (x) = P (X−1( ]−∞, x] )).
2Recue´rdese que una funcio´n es continua si, y solo si, l´ım
x→y
f(x) = f(y); sin embargo, una definicio´n ma´s
formal es que la imagen abierta de cualquier conjunto abierto tambie´n es un conjunto abierto.
25
Ejemplo 3.6. Como en el ejemplo 3.1, sean Ω = { (0; 0),(0; 1),(1; 0),(1; 1) }, F = 2Ω,
X : Ω→ R, tal que X( (ω1, ω2) ) = ω1+ω2. Consideremos que P sea la probabilidad cla´sica.
Entonces, recordando lo visto en ese ejemplo:
x < 0⇒ X ≤ x = φ⇒ F (x) = P (φ) = 0,
0 ≤ x < 1⇒ X ≤ x = X = 0 = { (0; 0) } ⇒ F (x) = P ({ (0; 0) }) = 1
4
,
1 ≤ x < 2⇒ X ≤ x = X ≤ 1 = { (0; 0),(0; 1), (1; 0) }
⇒ F (x) = F (1) = P ({ (0; 0),(0; 1), (1; 0) }) = 3
4
,
2 ≤ x⇒ X ≤ x = X ≤ 2 = { (0; 0),(0; 1), (1; 0), (1; 1) }
⇒ F (x) = F (2) = P ({ (0; 0),(0; 1), (1; 0), (1; 1) }) = 1 .
Ejercicio 3.1. Como en el ejemplo 3.3, sea (Ω,F , P ) un espacio de probabilidad, A ∈ F y
conside´rese que X = 1A. Supo´ngase tambie´n que se conoce el valor de la probabilidad de A
y que este sea 0,25, es decir, P (A) = 0,25. Halle y grafique la distribucio´n acumulada de X.
Propiedades ba´sicas
F1) F es creciente, es decir, ∀x,y ∈ R : x < y ⇒ F (x) ≤ F (y);
F2) l´ım
x→∞
F (x) = 1 y l´ım
x→−∞
F (x) = 0;
F3) F es continua por la derecha. Es decir, ∀y ∈ R : l´ım
x→y+
F (x) = F (y).
Observacio´n 3.5. En matema´ticas, si una funcio´n tiene las propiedades anteriores se llama
funcio´n de distribucio´n.
Otras propiedades
F5) ∀x ∈ R : 0 ≤ F (x) ≤ 1;
F6) l´ım
x→y−
F (x) = P (X < y); l´ım
x→y+
F (x)− l´ım
x→y−
F (x) = P (X = x);
F7) F es discontinua solo en los puntos con probabilidad mayor que cero, es decir,
F es discontinua en x ⇔ P (X = x) > 0;
F8) El conjunto de puntos donde F no es continua es finito o enumerable, es decir,
{ x ∈ R : P (X = x) > 0 } es finito o enumerable.
Observacio´n 3.6. Dos variables aleatorias diferentes pueden tener la misma funcio´n de
distribucio´n acumulada, como lo ilustra el ejercicio siguiente.
Ejercicio 3.2. Sea (Ω,F , P ) un espacio de probabilidad tales que para cierto A ∈ F ,
P (A) = 0,5. Conside´rese, como en el ejemplo 3.3 y el ejercicio 3.1, la variable aleatoria
X = 1A; conside´rese tambie´n la variable aleatoria Y = 1Ac. Verifique que X 6= Y y F
X
= F
Y
(estas son las correspondientes funciones de distribucio´n acumuladas).
26
Teorema 3.1. Sea F : R→ R+ ∪ {0}, que satisface las propiedades ba´sicas (F1, F2 y F3,);
entonces, existe una variable aleatoria X, definida en algu´n espacio (Ω,F), tal que su funcio´n
de distribucio´n es F.
Observacio´n 3.7. El Teorema anterior da el sustento teo´rico para tratar una variable
estad´ıstica, por medio de un modelo probabil´ıstico. Por ejemplo, si los datos registrados
de una variable hacen inferir que sigue un patro´n como el del modelo normal, es decir,
F (x) =
x∫
−∞
1√
2π
e−
1
2σ2
(y−µ)2dy; entonces, como esta es una funcio´n de distribucio´n (satisface
las propiedades ba´sicas: F1, F2 y F3) sigue, por este teorema, que existe una variable aleatoria
X, definida en algu´n espacio (Ω,F), tal que la funcio´n de distribucio´n acumulada de X es
igual a la del modelo normal.
Demostracio´n Sea Ω = (0; 1), F = B( (0; 1) ) (la sigma-a´lgebra de los borelianos en (0; 1))
y P la probabilidad tal que todo intervalo de (0; 1) tenga como probabilidad a su longitud,
por ejemplo si (a; b] ⊂ (0; 1) : P ((a; b]) = b− a 3. Conside´rese, ∀ω ∈ (0; 1) :
X(ω) = inf{ x : F (x) ≥ ω }.
Se puede verificar que ∀ω ∈ (0; 1),∀x ∈ R : X(ω) ≤ x⇔ ω ≤ F (x)4.
Esto u´ltimo significa que X ≤ x = {ω ∈ (0; 1) : ω ≤ F (x) } =] 0; F (x) ]. Por lo tanto,
∀x ∈ R : F
X
(x) = P (X ≤ x) = P ( ] 0; F (x) ] ) = F (x)− 0 = F (x). Es decir, F
X
= F.
3.3. Clasificacio´n de las variables aleatorias
Definicio´n 3.3. Probabilidad inducida por una variable aleatoria.
Sea X : (Ω : F , P )→ (R,B(R)) una variable aleatoria. ∀B ∈ B(R) definimos
P
X
(B) = P (X ∈ B).
Se puede verificar que esta funcio´n P
X
: B(R) → R es una probabilidad (ve´ase el ejercicio
2.3) y se le denomina la Probabilidad Inducida por X.
Observacio´n 3.8. La probabilidad inducida de una variable aleatoria proporciona la
probabilidad de que la variable tome valores en cualquier evento de R (es decir, en cualquier
boreliano).
Ejemplo 3.7. ∀x ∈ R : P
X
( ] − ∞, x ] ) = P (X−1( ] − ∞, x ] ) ) = P (X ≤ x) = F (x). En
realidad, podemos obtener la probabilidad de X ∈ B, para cualquier B intervalo, a partir
de la funcio´n de distribucio´n de X :
P
X
( ]a, b] ) = P (a < X ≤ b) = P (X ≤ b)− P (X ≤ a) = F (b)− F (a),
3En teor´ıa de la medida aesta probabilidad se le llama la medida de Lebesgue.
4Por esta propiedad a la funcio´n que define X se le conoce como la inversa generalizada de F.
27
P
X
( [a, b] ) = P (a ≤ X ≤ b) = P (X ≤ b)− P (X < a) = F (b)− l´ım
x→a−
F (x),
P
X
( ]a, b[ ) = P (a < X < b) = P (X < b)− P (X ≤ a) = l´ım
x→b−
F (x)− F (a),
P
X
( [a, b[ ) = P (a ≤ X < b) = P (X < b)− P (X < a) = l´ım
x→b−
F (x)− l´ım
x→a−
F (x),
P
X
( ]−∞, b[ ) = P (X < b) = l´ım
x→b−
F (x),
P
X
( ]a,∞[ ) = P (X > a) = 1− P (X ≤ a) = 1− F (a),
P
X
( [a,∞[ ) = P (X ≥ a) = 1− P (X < a) = 1− l´ım
x→a−
F (x).
Observacio´n 3.9. Como se ha visto en el ejemplo anterior, la probabilidad inducida de
una variable aleatoria determina la funcio´n de distribucio´n de la variable aleatoria, es
decir, P
X
determina F
X
; adema´s, la probabilidad inducida de cualquier intervalo (es decir,
la probabilidad de que la variable tome valores en cualquier intervalo) queda determinada
por la funcio´n de distribucio´n de la variable; pero en realidad se puede demostrar que la
probabilidad de que la variable tome valores en cualquier boreliano queda determinada por
la funcio´n de distribucio´n de la variable; entonces, F
X
tambie´n determina P
X
. El teorema
siguiente esta´ en armon´ıa con las conclusiones anteriores:
Teorema 3.2. Dos variables aleatorias tienen la misma probabilidad inducida si, y solo si,
tienen la misma funcio´n de distribucio´n. Es decir, si X e Y son dos variables aleatorias:
P
X
= P
Y
⇔ F
X
= F
Y
o, equivalentemente: ∀B ∈ B(R) : P
X
(B) = P
Y
(B) ⇔ ∀x ∈ R : F
X
(x) = F
Y
(x)
Definicio´n 3.4. Una variable aleatoria, X, es discreta si su rango es un conjunto finito o
enumerable.
Ejemplo 3.8. Como en el ejemplo 3.1, sean Ω = { (0; 0),(0; 1),(1; 0),(1; 1) }, F = 2Ω,
X : Ω → R, tal que X( (ω1, ω2) ) = ω1 + ω2. Entonces, R
X
= { 0; 1; 2 }, por lo tanto, X es
una variable aleatoria discreta.
Teorema 3.3. Si X es una variable aleatoria discreta, en el espacio (Ω,F , P ), entonces
∀B ∈ B(R) : P
X
(B) =
∑
x∈B∩R
X
P (X = x).
Demostracio´n. En este caso, ∀B ∈ B(R) :
P
X
(B) = P (X ∈ B) = P (X ∈ B ∩ R
X
)
= P
(
X ∈ ⊎
x∈B∩R
X
{ x } ) = P ( ⊎
x∈B∩R
X
{X = x } ) = ∑
x∈B∩R
X
P (X = x)
Entonces, si una variable, X, es discreta, su probabilidad inducida queda determinada por
los valores de P (X = x), para todo x ∈ R
X
. Esto motiva la definicio´n siguiente.
28
Definicio´n 3.5. Si X es una variable aleatoria discreta, se define su funcio´n de probabilidad
como la funcio´n f tal que
∀x ∈ R
X
: f(x) = P (X = x).
Teorema 3.4. si X es una variable aleatoria discreta, con funcio´n de probabilidad f ;
entonces,
∀B ∈ B(R) : P
X
(B) =
∑
x∈B∩R
X
f(x)
Demostracio´n: resulta del teorema anterior.
Observacio´n 3.10. La funcio´n de probabilidad f de una variable aleatoria discreta, X, se
puede extender a todo R si definimos f(x) = 0,∀x 6∈ R
X
. En este caso,
∀B ∈ B(R) : P
X
(B) =
∑
x∈B
f(x)
Ejemplo 3.9. Como en el ejemplo 3.1, sean Ω = { (0; 0),(0; 1),(1; 0),(1; 1) }, F = 2Ω,
X : Ω → R, tal que X( (ω1, ω2) ) = ω1 + ω2. Ya vimos que X es discreta y su rango es
R
X
= { 0; 1; 2 }. Consideremos que P sea la probabilidad cla´sica; entonces, la funcio´n de
probabilidad de X esta´ dada por:
f(0) = P (X = 0) = P ({ (0; 0) }) = 1
4
, f(1) = P (X = 1) = P ({ (0; 1), (1; 0) }) = 2
4
= 1
2
,
f(2) = P (X = 2) = P ({ (1; 1) }) = 1
4
.
Su funcio´n de distribucio´n acumulada es
F (x) =


0, si x < 0
1
4
, si 0 ≤ x < 1
3
4
, si 1 ≤ x < 2
1, si x ≥ 2.
su gra´fica es, como la de cualquier variable aleatoria discreta, es decir, de forma escalonada
con saltos en los puntos del rango con probabilidad mayor que cero:
F
X0 1 2
1
4
3
4
1
Ejercicio 3.3. Sea X una variable aleatoria discreta con rango { 1; 2; . . . } y funcio´n de
probabilidad f(x) = (0,2)x−10,8, x = 1; 2; . . .
a) Hallar las probabilidades siguientes: P (2 ≤ X ≤ 12), P (2 < X ≤ 12) y P (X > 12).
b) Hallar la funcio´n de distribucio´n acumulada de X, luego u´sela para calcular las
probabilidades anteriores.
29
Definicio´n 3.6. Una variable aleatoria, X, con funcio´n de distribucio´n acumulada F, es
continua (absolutamente continua) si existe una funcio´n f tal que ∀x ∈ R :
F (x) =
x∫
−∞
f(t)dt.
A esta funcio´n f se le llama la funcio´n de densidad de X.
Ejemplo 3.10. Sea X una variable aleatoria con distribucio´n uniforme en (0, 1), esto es, su
funcio´n de distribucio´n acumulada esta´ dada por:
F (x) =


0, si x ≤ 0,
x, si 0 < x < 1,
1, si x ≥ 1;
entonces, X es continua pues, en este caso, ∀x ∈ R : F (x) =
x∫
−∞
f(t)dt, si
f(x) =


0, si x ≤ 0,
1, si 0 < x < 1,
0, si x ≥ 1.
Observacio´n 3.11. En una teor´ıa ma´s general, a estas variables se les denomina
absolutamente continuas y se exige que la funcio´n de densidad sea una variable aleatoria
en el espacio (R,B(R)). Adema´s, en este caso,
∀B ∈ B(R) : P
X
(B) = P (X ∈ B) =
∫
B
f(x) dx.
Propiedad Si X es una variable aleatoria continua con densidad f, entonces, F es
diferenciable con F ′(x) = f(x) (salvo en un conjunto de medida de Lebesgue5 igual a cero)
y, en particular, F es continua.
Observacio´n 3.12. Una variable aleatoria no puede ser discreta y continua (para justificar
esta afirmacio´n, tengamos presente la propiedad anterior y recordemos que, en el caso
discreto, F no es continua en los valores del rango de la variable con probabilidad mayor que
cero, por lo tanto, tampoco es diferenciable). Sin embargo, existen variables aleatorias que
no son ni discretas ni continuas, como se puede apreciar en el ejemplo siguiente.
Ejemplo 3.11. Sea X una variable aleatoria con distribucio´n uniforme en (0; 1) (como en
el ejmplo 3.10). Consideremos la variable aleatoria Y = X 1
] −∞, 1/4]
(X) + 2 1
]1/4, 7/8[
(X) + 3 1
[7/8,∞[
(X).
Obse´rvese que si X ≤ 1
4
: Y = X, entonces, Y parece ser continua; pero si 1
4
< X < 7
8
:
Y = 2 o´ si X ≥ 7
8
: Y = 3, entonces Y parece ser discreta. As´ı, Y es una mezcla de la
5λ es la medida de Lebesgue: la medida que a cada intervalo le asigna su longitud.
30
variable aleatoria continua X con una variable aleatoria discreta que solo toma los valores 2
y 3. Esto lo podemos formalizar con la funcio´n de distribucio´n acumulada de Y :
F
Y
(y) = P (Y ≤ y) = P (Y ≤ y ∩X ≤ 1
4
) + P (Y ≤ y ∩ 1
4
< X < 7
8
) + P (Y ≤ y ∩X ≥ 7
8
)
= P (X ≤ y ∩X ≤ 1
4
) + P (2 ≤ y ∩ 1
4
< X < 7
8
) + P (3 ≤ y ∩X ≥ 7
8
)
=


P (X ≤ y) + P (φ) + P (φ), si y ≤ 1
4
,
P (X ≤ 1
4
) + P (φ) + P (φ), si 1
4
< y < 2 ,
P (X ≤ 1
4
) + P (1
4
< X < 7
8
) + P (φ), si 2 ≤ y < 3 ,
P (X ≤ 1
4
) + P (1
4
< X < 7
8
) + P (X ≥ 7
8
), si y ≥ 3 .
=


F
X
(y), si y ≤ 1
4
,
F
X
(1
4
), si 1
4
< y < 2 ,
F
X
(7
8
), si 2 ≤ y < 3 ,
1, si y ≥ 3 .
Entonces, recordando F
X
(dada en el ejemplo 3.10), se tiene
F
Y
(y) =


0, si y ≤ 0 ,
y, si 0 < y ≤ 1
4
,
1
4
, si 1
4
< y < 2 ,
7
8
, si 2 ≤ y < 3 ,
1, si y ≥ 3 .
cuya gra´fica es la siguiente:
F
X0 14 2 3
1
4
7
8
1
Entonces, F
Y
no es continua en 2 ni en 3, por lo tanto, Y no es continua (pues su acumulada
no es continua), P (Y = 2) = 7
8
− 1
4
= 5
8
> 0 y P (Y = 3) = 1 − 7
8
= 1
8
> 0 (solo
para estos valores la probabilidad es positiva, recue´rdese cua´ndo la distribucio´n acumulada
no es continua), pero Y no es discreta (su rango no es enumerable, obse´rvese tambie´n
que
∑
x∈R
Y
P (Y = y) = P (Y = 2) + P (Y = 3) = 3
4
6= 1).
Observacio´n 3.13. Existenvariables que no son discretas, ni continuas, ni una mezcla de
estos dos tipos, aunque estos casos son inusuales.
31
Definicio´n 3.7. Una variable aleatoria X es singular, si su funcio´n de distribucio´n
acumulada F
X
es continua y adema´s ∃B ∈ B(R) con λ(B) = 0 6 tal que ∀x 6∈ B : F ′
X
(x) = 0.
Teorema 3.5. Descomposicio´n de la funcio´n de distribucio´n acumulada
Sea X una variable aleatoria con funcio´n de distribucio´n acumulada F.
Consideremos el conjunto de discontinuidades de F : D = {x ∈ R : P (X = x) > 0} (si
F es continua: D = φ), como ya se ha visto, D es enumerable; as´ı, podemos enumerar sus
elementos y ponerles un sub´ındice (que variara´ en, D, un conjunto enumerable). Sea f
d
, tal
que ∀xj ∈ D : f
d
(xj) = P (X = xj) y ∀x 6∈ D : f
d
(x) = 0. Definimos F
d
como sigue:
∀x ∈ R : F
d
(x) =
∑
j:xj≤x
P (X = xj) =
∑
j:xj≤x
f
d
(xj)
F
d
es una funcio´n creciente, continua por la derecha y del tipo escalonada, como la funcio´n
de distribucio´n de una variable aleatoria discreta, por lo que se le denomina la parte discreta
de F.
Sea f
c
tal que f
c
(x) = F ′(x), si F es diferenciable en x, y f
c
(x) = 0, si F no es diferenciable
en x. Definimos F
c
como sigue:
∀x ∈ R : F
c
(x) =
x∫
−∞
f
c
(t)dt.
F
c
es una funcio´n creciente, F ′
c
= f
c
(salvo en un conjunto de medida de Lebesgue cero)
como la funcio´n de distribucio´n de una variable aleatoria continua, por lo que se le denomina
la parte continua (absolutamente continua) de F.
Finalmente, sea F
s
definida como sigue:
∀x ∈ R : F
s
(x) = F (x)− F
d
(x)− F
c
(x)
Entonces, F
s
: es creciente, continua (obse´rvese que F − F
d
es continua y tambie´n F
c
) y
F ′
d
(x) = 0 (salvo un conjunto de medida de Lebesgue igual a cero), como la funcio´n de
distribucio´n de una variable aleatoria singular, por lo que a Fs se le denomina la parte
singular de F .
Entonces, ∀x ∈ R : F (x) = F
d
(x)+F
c
(x)+F
s
(x) y podemos decir que toda variable aleatoria
es una mezcla de los tres tipos descritos: discreta, continua (absolutamente) y singular.
Ejercicio 3.4. Determinar la descomposicio´n de la funcio´n de distribucio´n acumulada de la
variable aleatoria X del ejemplo 3.11.
Observacio´n 3.14. A partir de ahora solo trataremos con las variables aleatorias discretas y
con las continuas (aunque que para las mezclas de estos dos tipos los resultados son ana´logos).
Definicio´n 3.8. Si X es una variable aleatoria, diremos que su modelo probabil´ıstico7 (o su
6λ es la medida de Lebesgue: la medida que a cada intervalo le asigna su longitud.
7El te´rmino usual en los textos cla´sicos es el de distribucio´n de probabilidades, pero el autor ha preferido
el de modelo probabil´ıstico para enfatizar su aplicacio´n como modelo. Coincidimos, por ejemplo, con Del
Pino (2000).
32
distribucio´n de probabilidad) es la funcio´n f tal que
∀B ∈ B(R) : P
X
(B) = P (X ∈ B) =


∑
x∈B
f(x), si X es discreta,
∫
B
f(x) dx, si X es continua.
Es decir, si X es discreta f es su funcio´n de probabilidad; y si X es continua, f es su funcio´n
de densidad.
Observacio´n 3.15. Entonces, la probabilidad inducida por X tambie´n queda determinada
por su modelo probabil´ıstico.
Observacio´n 3.16. En el caso de que X sea una mezcla de los tipos discreto y continuo,
entonces,
∀B ∈ B(R) : P
X
(B) = P (X ∈ B) =
∑
x∈B
f
d
(x) +
∫
B
f
c
(x) dx,
con f
d
y f
c
como en el teorema de la descomposicio´n de la funcio´n de distribucio´n acumulada.
Teorema 3.6. Si X es una variable aleatoria su modelo probabil´ıstico, f, esta´ determinado
por su funcio´n de distribucio´n acumulada, F, y, rec´ıprocamente, su funcio´n de distribucio´n
acumulada esta´ determinada por su modelo probabil´ıstico.
En efecto:
f(x) =


F (x)− l´ım
x→y−
F (x), si X es discreta;
F ′(x), si X es continua.
F (x) =


∑
y: y≤x
f(y), si X es discreta,
x∫
f(y) dy, si X es continua.
Propiedades ba´sicas del modelo probabil´ıstico de una variable aleatoria:
Si X es una variable aleatoria discreta: f(x) ≥ 0 y
∑
x
f(x) = 1.
Si X es continua: f(x) ≥ 0 y
∫
f(x) dx = 1.
Si X es discreta, entonces, ∀x ∈ R : f(x) = P (X = x).
Si X es continua, entonces, ∀x ∈ R : P (X = x) = 0.
Teorema 3.7.
Si una funcio´n satisface las condiciones f(x) ≥ 0 y
∑
x
f(x) = 1, entonces, existe una variable
aleatoria tal que su modelo probabil´ıstico es esta funcio´n.
33
Si una funcio´n satisface las condiciones f(x) ≥ 0 y
∫
f(x) dx = 1, entonces, existe una
variable aleatoria continua tal que su modelo probabil´ıstico es esta funcio´n.
Para justificar esto definamos la funcio´n F a partir de f, como en el teorema anterior. Se
verifica que esta F satisface las propiedades ba´sicas de una funcio´n de distribucio´n, por
lo tanto, existe una variable aleatoria con funcio´n de distribucio´n F y, as´ı, con modelo
probabil´ıstico f.
Ejemplo 3.12. El modelo exponencial esta´ identificado por la funcio´n de densidad siguiente:
f(x) =
{
β e−β x, si x > 0,
0, si x ≤ 0,
con β > 0. Como f satisface las condiciones f(x) ≥ 0 y ∫ f(x) dx = 1, entonces, existe una
variable aleatoria cuyo modelo probabil´ıstico (densidad) es f.
Supongamos que la duracio´n de cierto tipo de componentes (en an˜os) sea una variable
aleatoria, X, cuyo modelo es exponencial con para´metro β = 1. Hallemos la probabilidad de
que X ≤ 1 :
P (X ≤ 1) =
1∫
−∞
f(x)dx =
1∫
0
0,1e−0,1xdx = −e−0,1x
/x=1
x=0
= 1− e−0,1 = 0,095.
Entonces, podemos decir que solo el 9,5% de los componentes durara´ ma´ximo un an˜o.
Ejemplo 3.13. El modelo geome´trico: sea 0 < p < 1 y
f(x) =
{
(1− p)x−1p, si x = 1, 2 . . .
0, en otro caso.
Como f satisface las condiciones f(x) ≥ 0 y
∑
x
f(x) = 1, entonces, existe una variable
aleatoria cuyo modelo probabil´ıstico (funcio´n de probabilidad) es f.
Supongamos que X sea una variable aleatoria con este modelo, as´ı, por ejemplo,
P (X ≥ 10) =
∞∑
x=10
f(x) =
∞∑
x=10
(1− p)x−1p = (1− p)−1p
∞∑
x=10
(1− p)x = (1− p)9.
3.4. Valor esperado
Definicio´n 3.9. La esperanza o media de una variable aleatoriaX, con modelo probabil´ıstico
f
X
, se denota por E(X) o µ
X
y se define, segu´n sea la variable discreta o continua, mediante:
E(X) =


∞∑
x=−∞
xf
X
(x); si X es discreta.
∞∫
−∞
xf
X
(x)dx; si X es continua.
34
Observacio´n 3.17. Resulta, entonces, que en el caso discreto:
E(X) =
∑
x∈RX
xP (X = x)
As´ı, la esperanza o media es el promedio de los valores posibles de la variable ponderados con
sus respectivas probabilidades. Extendemos esta definicio´n al caso continuo con la integral,
en este caso la fo´rmula nos recuerda la forma de obtener la abscisa del centro de masa de un
cuerpo con densidad f, esto explica el nombre de densidad que se le da al modelo.
Ejemplo 3.14. Sea la variable X del ejemplo 3.12, es decir, su modelo probabil´ıstico
esta´ dado por f(x) = 0,1e−0,1x, x > 0, entonces,
E(X) =
∞∫
−∞
x f(x)dx =
∞∫
0
x 0,1e−0,1xdx = −xe−0,1x − 10e−0,1x
/x→∞
x=0
= 10.
Observacio´n 3.18. Interpretacio´n del valor esperado. Cuando se registra una gran
cantidad de valores de una variable aleatoria, la media de todos estos es aproximadamente
igual a la esperanza de la variable. Ma´s formalmente, si para cada n ∈ N+, X1, . . . , Xn es
una muestra aleatoria de X y X¯ = 1
n
n∑
j=1
Xj (la media de la muestra); entonces, un resultado
conocido por la Ley Fuerte de los Grandes Nu´meros establece que, con probabilidad 1,
l´ım
n→∞
X¯ = E(X). De all´ı el nombre e importancia del valor esperado o media, pues, con este
valor —que se calcula con el modeloprobabil´ıstico de la variable— podemos anticipar lo que
ocurrira´ en promedio.
Ejemplo 3.15. En el ejemplo anterior, podemos decir que si tenemos una gran cantidad de
componentes (con las caracter´ısticas dadas), entonces, la duracio´n promedio de estos sera´ de
10 an˜os aproximadamente.
Ejemplo 3.16. Para el acceso a la memoria de una computadora, si el nu´mero de pa´gina
esta´ en un registro asociativo, se obtiene de inmediato su nu´mero de marco y este se usa para
acceder a la memoria; en cambio, si el nu´mero de pa´gina no esta´ en los registros asociativos,
sera´ preciso previamente hacer una referencia a la tabla de pa´ginas (que tambie´n esta´ en
memoria) para acceder8. Para cierta CPU, cuatro de cada cinco veces se encuentra el nu´mero
de pa´gina deseado en los registros asociativos. Adema´s, si el nu´mero de pa´gina esta´ en los
registros asociativos, un acceso a la memoria tarda 120 nanosegundos; en caso contrario un
acceso a la memoria tarda 220 nanosegundos.
Es claro que el acceso a la memoria se realizara´ un gran nu´mero de veces, por lo tanto,
si se quiere comparar cua´l de dos CPU es ma´s ra´pida, el tiempo promedio necesario para
acceder a la memoria nos permite hacer la comparacio´n, pero este promedio es el valor
8En el ejercicio propuesto 4.14 del cap´ıtulo siguiente haremos una generalizacio´n. Contextos similares de
este ejercicio se encuentran en textos de sistemas operativos, como por ejemplo, en A. Silberschatz et al.
Operating System Concepts (2002), cap´ıtulo 9.
35
esperado o media de la variable aleatoria X, el tiempo de acceso a la memoria, con rango
R
X
= {120; 220}, f
X
(120) = P (X = 120) = 4
5
y f
X
(220) = P (X = 220) = 1
5
.
De este modo, E(X) =
∑
x∈RX
xf
X
(x) = 120× 4
5
+ 220× 1
5
= 140 nanosegundos.
Observacio´n 3.19. No todas las variables aleatorias tienen valor esperado, como se ilustra
en el ejemplo siguiente.
Ejemplo 3.17. El modelo probabil´ıstico de Cauchy corresponde a la funcio´n de densidad:
f(x) =
1
π(1 + x2)
, −∞ < x <∞ .
Como f satisface las condiciones f(x) ≥ 0 y
∞∫
−∞
f(x) dx = 1, existe una variable aleatoria
cuyo modelo probabil´ıstico (densidad) es f. Sin embargo, si una variable tiene este modelo
no tiene valor esperado, pues,
∞∫
−∞
x
1
π(1 + x2)
dx no esta´ definida ya que
0∫
−∞
x
1
π(1 + x2)
dx =
−∞ y
∞∫
0
x
1
π(1 + x2)
dx =∞.
Ejemplo 3.18. Sea X una variable aleatoria. Hallemos E(1
A
(X)) : como 1
A
(X) es una
variable aleatoria discreta con valores posibles 1 y 0, con P ( 1
A
(X) = 1 ) = P (X ∈ A) y
P ( 1
A
(X) = 0 ) = P (X ∈ Ac); entonces, E(1
A
(X)) = 1 × P (X ∈ A) + 0 × P (X ∈ Ac) =
P (X ∈ A).
3.4.1. El valor esperado de una funcio´n de una variable aleatoria
Teorema sea X una variable aleatoria y g : RX → R una funcio´n tal que g(X) tambie´n sea
una variable aleatoria9. Entonces, la esperanza de la variable aleatoria g(X) puede obtenerse
con el modelo probabil´ıstico de X, f
X
, segu´n sea esta discreta o continua, como se indica a
continuacio´n:
E(g(X)) =


∑
x∈RX
g(x)f
X
(x); si X es discreta.
∫
RX
g(x)f
X
(x)dx; si X es continua.
Observacio´n 3.20. Esta propiedad es muy importante, desde el punto de vista pra´ctico,
pues establece que con el modelo probabil´ıstico de una variable aleatoria se puede determinar
el valor esperado de cualquier funcio´n de esta, es decir, no se requiere otro modelo. Desde el
punto de vista teo´rico, esta propiedad es importante pues permite deducir otras propiedades
del valor esperado relacionadas con funciones de una variable aleatoria, como las que se
dara´n ma´s adelante.
9Ve´ase la observacio´n 3.4.
36
Ejemplo 3.19. Sea X una variable aleatoria continua con modelo exponencial de para´metro
β, es decir, su modelo probabil´ıstico esta´ dado por f(x) = βe−βx, x > 0. Hallemos E(Xn),
para n ∈ N. Puesto que Xn = g(X), con g(x) = xn, entonces, por la propiedad anterior:
E(Xn) =
∫
g(x) f
X
(x) dx =
∫ ∞
0
xn βe−βx dx =
1
βn
∫ ∞
0
yn e−y dy =
1
βn
Γ(n+ 1) 10 =
n!
βn
.
Ejemplo 3.20. El voltaje suministrado por una fuente generadora en el instante t es dado
por Xt = a cos(wt + Θ), con a y w constantes y Θ una variable aleatoria con distribucio´n
uniforme en el intervalo [−π, π] 11. Para ilustrar el uso de la propiedad anterior obtengamos el
valor esperado de este voltaje. En este caso, se conoce el modelo probabil´ıstico de la variable
Θ : f
Θ
(θ) =
1
2 π
,−π ≤ θ ≤ π. Xt es una funcio´n de Θ : Xt = g(Θ), con g(θ) = a cos(wt+θ);
entonces, por la propiedad anterior,
E
(
a cos(wt+Θ)
)
=
∫
R
Θ
g(θ) f
Θ
(θ) dθ =
∫ π
−π
a cos(wt+ θ)
1
2 π
dθ = 0.
Ejemplo 3.21. Actualmente en finanzas se ha hecho bastante conocido el modelo de precios
de Black-Scholes12. Por ejemplo, segu´n este modelo, la ecuacio´n que describe la evolucio´n
del precio de un stock en el tiempo es de la forma:
St = S0 e
(µ− 1
2
σ2)t+σXt , t > 0,
con S0 > 0 el precio inicial del stock; µ el valor esperado de la tasa instanta´nea de
rentabilidad; σ > 0 la volatilidad del stock (estos u´ltimos no se consideran aleatorios sino
constantes) y Xt es una variable aleatoria con distribucio´n normal, de media cero y varianza
t, es decir, f
Xt
(x) = 1√
2π t
e−
x2
2t , − ∞ < x < ∞. Como St es una funcio´n de Xt, podemos
usar este modelo para hallar el valor esperado de St :
E(St) =
∞∫
−∞
S0e
(µ− 1
2
σ2)t+σxf
Xt
(x) dx =
∞∫
−∞
S0e
(µ− 1
2
σ2)t+σx 1√
2π t
e−
x2
2t dx= S0e
µt
∞∫
−∞
1√
2π t
e−
(x−σt)2
2t dx
= S0e
µt.
3.4.2. Propiedades del valor esperado
a) El valor esperado de una constante es la propia constante: E(a) = a, ∀a ∈ R.
b) Si a ≤ X ≤ b, entonces, a ≤ E(X) ≤ b.
10La funcio´n gamma, se denota por Γ, se define como Γ(x) =
∞∫
0
tx−1e−tdt, x > 0; tiene, entre otras, las
propiedades siguientes: Γ(x+ 1) = xΓ(x), x > 0, Γ(n) = (n− 1) ! , para n ∈ N+, y Γ(1,5) = √pi/2.
11Esta es la forma usual de modelar el voltaje en el ana´lisis y transmisio´n de sen˜ales: a es la amplitud, w
la frecuencia y Θ, el a´ngulo de desfase; en los libros de procesos estoca´sticos, algunos de estos componentes
son variables aleatorias. Ve´ase, por ejemplo, Papoulis (2002), cap. 9, o Lathi (1986), caps. 2 y 5.
12Vea´se Lars Tyge Nielsen (1999), ejemplo 1.7, pa´g. 13.
37
c) Si la variable se transforma de modo lineal, de igual modo se transforma su valor
esperado: E(a + bX) = a + bE(X), para cualesquiera que sean las constantes a y b.
d) Si g1, . . . , gn son funciones, tales que gi(X) tambie´n sea una variable aleatoria, y
a0 , a1 , . . . ,an constantes, entonces,
E
(
a0 + a1g1(X) + . . . + angn(X)
)
= a0 + a1E
(
g1(X)
)
+ . . . + anE
(
gn(X)
)
donde se supone que cada valor esperado esta´ definido.
e) Sea X una variable aleatoria. Si g1 y g2 son funciones, tales que g1(X) y g2(X) sean
variables aleatorias con valores esperados definidos y g1 ≤ g2; entonces,
E(g1(X)) ≤ E(g2(X)).
f) X tiene valor esperado finito ⇔ |X| tiene valor esperado finito.
g) Desigualdad de Jensen: si g es una funcio´n convexa, entonces, E(g(X)) ≥ g(E(X)).
h) Sea X una variable aleatoria y 0 < s < t : X t tiene valor esperado finito ⇒ Xs tiene
valor esperado finito.
i) Desigualdad de Markov: si X ≥ 0 y c > 0, entonces, P (X > c) ≤ E(X)
c
.
Ejemplo 3.22. Sean ǫ, una variable aleatoria con media cero, α, β y x constantes. Hallemos
el valor esperado de Y = α + βx+ ǫ :
E(Y ) = E(α + βx+ ǫ) = α + βx+ E(ǫ) = α+ βx.
Ejemplo 3.23. Sea X una variable aleatoria con modelo probabil´ıstico exponencial de
para´metro β = 1. La ganancia generada con la operacio´n n esta´ dada por Xn =
1
n
X Xn−1,
para n = 1, 2, . . . , y la gananciainicial es X0 = 1; as´ı, Xn =
1
n!
Xn. Por lo tanto, la ganancia
acumulada hasta la operacio´n n esta´ dada por: Yn = 1+
X1
1!
+ · · · + X
n
n!
, para n = 1, 2, . . .
Empleemos las propiedades anteriores para obtener el valor de Yn :
E(Yn) = E(1 +
X1
1!
+ · · · + X
n
n!
) = 1 +
1
1!
E(X1) + · · · + 1
n!
E(Xn)
= 1 +
1
1!
1 ! + · · · + 1
n!
n !
= 1 + n,
aqu´ı se ha usado el resultado del ejemplo 3.19: E(Xn) = n!
Ejemplo 3.24. Si X es una variable aleatoria: E(X2) ≥ [E(X)]2.
Ejemplo 3.25. Si X es una variable aleatoria con E(X2) finito, entonces, E(X) es finito.
38
Ejemplo 3.26. Como en el ejemplo 3.11, sea X una variable aleatoria con distribucio´n
uniforme en (0; 1) e Y = X 1
] −∞, 1/4]
(X) + 2 1
]1/4, 7/8[
(X) + 3 1
[7/8,∞[
(X) . Hallemos E(Y ) :
E(Y ) = E(X 1
]−∞, 1/4]
(X) + 2 1
]1/4, 7/8[
(X) + 3 1
[7/8,∞[
(X))
= E(X 1
]−∞, 1/4]
(X)) + 2E(1
]1/4, 7/8[
(X)) + 3E(1
[7/8,∞[
(X))
=
1
4∫
0
xf
X
(x) dx+ 2
7
8∫
1
4
1f
X
(x) dx+ 3
1∫
7
8
1f
X
(x) dx
= 13
8
.
Observacio´n 3.21. Si X es una variable aleatoria mixta (de los tipos discreta y continua):
E(X) =
∫
xf
c
(x)dx+
∑
xf
d
(x),
con f
c
y f
d
como en el teorema 3.5 de la descomposicio´n de la funcio´n de distribucio´n
acumulada.
Ejemplo 3.27. Como en el ejemplo 3.11, sea X una variable aleatoria con distribucio´n
uniforme en (0; 1) e Y = X 1
] −∞, 1/4]
(X) + 2 1
]1/4, 7/8[
(X) + 3 1
[7/8,∞[
(X) .
f
c
(y) = 1, 0 < x < 1
4
(0, en otro caso), f
d
(2) = 5
8
y f
d
(3) = 1
8
(0, en otro caso), entonces
E(Y ) =
∫
yf
c
(y)dy +
∑
yf
d
(y) =
∫ 1
4
0
ydy + 2(
5
8
) + 3(
1
8
) =
13
8
.
Otras propiedades del valor esperado
a) Si X es una variable aleatoria continua, con valor esperado finito, entonces
E(X) =
∞∫
0
[ 1− F (x) ]dx−
0∫
−∞
[ 1− F (x) ]dx,
en particular, si X ≥ 0 : E(X) =
∞∫
0
[ 1− F (x) ]dx.
Si X es una variable aleatoria discreta cuyos valores solo pueden ser nu´meros naturales:
E(X) =
∞∑
n=0
[ 1− F (x) ]
b) X ≥ 0 y E(X) = 0⇒ P (X = 0) = 1.
c) Si E(X) es finito, entonces: ∀c : E( (X −E(X))2 ) ≤ E( (X − c)2).
d) Si m es tal que F
X
(m) ≥ 1
2
y P (X < m) ≤ 1
2
, entonces: ∀c : E( |X−m| ) ≤ E( |X−c|).
As´ı, esto es va´lido para el percentil 50 o mediana: me = inf{x ∈ R : F (x) ≥ 0,5}.
39
Ejemplo 3.28. Si X ∼ exp(β) : F (x) = 1 − e−βx, ∀x > 0 ⇒ 1 − F (x) = e−βx, entonces,
E(X) =
∞∫
0
[ 1− F (x) ]dx =
∞∫
0
e−βxdx =
1
β
.
Ejemplo 3.29. Si X ∼ geom(p) : F (x) = 1 − (1 − p)x, ∀x = 1, 2, . . . , as´ı, E(X) =
∞∑
n=0
[ 1− F (n) ] =
∞∑
n=0
(1− p)n = 1
p
.
3.5. La varianza y la desviacio´n esta´ndar
Sea X, cuya media o esperanza es µ
X
, se define como: E(X − µ
X
)2 y se la denota por
V (X) o σ2
X
. As´ı, σ2
X
= V (X) = E(X − µ
X
)2 = E(X −E(X))2.
A la ra´ız cuadrada de la varianza, σ
X
, se le llama desviacio´n esta´ndar.
Observacio´n 3.22. La desviacio´n esta´ndar mide la variabilidad promedio, espec´ıficamente,
respecto de la media. Adema´s, puede verificarse que σ2
X
= E(X2)− µ2
X
.
Ejemplo 3.30. Para la duracio´n de los componentes de los ejemplos 3.12 y 3.14:
E(X2) =
∫
RX
x2f(x)dx =
∫ ∞
0
x2 0,1e−0,1xdx = 200.
As´ı, σ2
X
= E(X2)− µ2
X
= 200− 102 = 100, por lo tanto, σ
X
= 10.
Luego, si se pone a funcionar un nu´mero grande de componentes de este tipo, la duracio´n
promedio de estos ser´ıa, como ya se vio, de aproximadamente 10 an˜os (µ
X
), con una diferencia
promedio, respecto de este valor, cercana a 10 an˜os (σ
X
).
Ejemplo 3.31. En el contexto del ejemplo 3.16:
E(X2) =
∑
RX
x2f(x)dx = 1202f(120) + 2202f(220) = 21 200.
Luego, σ2
X
= E(X2)− µ2
X
= 21 200− 1402 = 1 600, as´ı σ
X
= 40 nanosegundos.
Por lo tanto, en una gran cantidad de accesos a la memoria, la duracio´n promedio del tiempo
necesario, como ya se vio, es de aproximadamente 140 nanosegundos (µ
X
), con una diferencia
promedio, respecto a este valor, cercana a 40 nanosegundos (σ
X
).
3.5.1. Propiedades de la desviacio´n esta´ndar
a) Si a es una constante, entonces, V (a) = 0.
b) Si V (X) = 0, entonces, P (X = µ
X
) = 1.
c) Si a y b son constantes, entonces, V (a+ bX) = b2V (X).
40
d) Desigualdad de Chebyshev. Para cualquier k > 0 : P (| X − µ
X
| ≤ kσ
X
) ≥ 1− 1
k2
o, equivalentemente, P (| X − µ
X
| > kσ
X
) <
1
k2
.
Observacio´n 3.23. De la desigualdad anterior se deduce que la proporcio´n de veces en las
cuales la variable asume valores que disten de la media en ma´s de tres veces la desviacio´n
esta´ndar es menor que un noveno. Por tal razo´n, a los valores que distan de la media, en ma´s
de tres veces la desviacio´n esta´ndar, se les puede llamar valores poco frecuentes o inusuales.
Ejercicio 3.5. Sea X una variable aleatoria con media µ y desviacio´n esta´ndar σ. Sea
Y = a + bX ; halle a y b > 0 tales que E(Y ) = 0 y σ
Y
= 1. Generalice el ejercicio para
obtener E(Y ) = µ
Y
y σ
Y
, valores arbitrarios.
Ejercicio 3.6. Sea X una variable aleatoria con media µ = 14 y desviacio´n esta´ndar σ = 2
a) Halle la media y la varianza de Y = 1
2
X − 6.
b) Use la desigualdad de Chebychev para tener una idea de co´mo son los valores de las
probabilidades siguientes: P (6 ≤ X ≤ 22), P (6 ≤ X ≤ 20) y P (8 ≤ X ≤ 22).
Ejercicio 3.7. Sea X una variable aleatoria con rango R
X
= R, media 3,5 y desviacio´n
esta´ndar 0,25. La utilidad que genera una inversio´n, en funcio´n de X, esta´ dada por:
100 1
[2,4]
(X) − 160 1
[2,4]c
(X). Si alguien desea invertir, en muchas oportunidades, de modo que
gane un promedio de por lo menos 35, ¿alcanzara´ este objetivo?
3.6. Funciones de una variable aleatoria
Si X e Y son variables aleatorias, con Y una funcio´n de X ; entonces, en algunos casos, se
puede deducir el modelo probabil´ıstico de Y a partir del modelo de X, una te´cnica para
hacerlo se detalla a continuacio´n:
a) Si Y es discreta: f
Y
(y) = P (Y = y); y para hallar esta probabilidad se expresa el evento
Y = y en te´rminos de X ; hecho esto se obtiene la probabilidad con el modelo de X.
b) Cuando Y es continua f
Y
(y) = P (Y = y) = 0, lo explicado en la parte anterior no es u´til;
pero se puede aplicar para determinar primero la funcio´n de distribucio´n acumulada
de Y, pues F
Y
(y) = P (Y ≤ y). Es decir, se expresa el evento Y ≤ y en te´rminos de
X, hecho esto se expresa la probabilidad P (Y ≤ y) en te´rminos de la distribucio´n
acumulada de X. Obtenida F
Y
se la deriva para obtener f
Y
.
Ejemplo 3.32. Si la funcio´n de distribucio´n (o modelo probabil´ıstico) de la variable aleatoria
positiva X esta´ dada por f
X
(x) = 2 e−2x, x > 0, determinemos la funcio´n de la variable
Y = 4X. Segu´n la te´cnica descrita, y como Y es continua, primero debemos determinar F
Y
a partir de F
X
:
41
F
Y
(y) = P (Y ≤ y) = P (4X ≤ y) = P (X ≤ y/4) = F
X
(y/4).
Es decir, F
Y
(y) = F
X
(y/4), luego se obtiene la derivada respecto de y :
f
Y
(y) = DyF
Y
(y) = [F ′
X
(y/4) ]Dy(y/4) = [ f
X
(y/4) ] 1
4
= 2 e−2y/4 1
4
= 1
2
e−y/2, y > 0.
Ejemplo 3.33. Sea X una variable aleatoria positiva, cuya funcio´n de probabilidad (o
modelo probabil´ıstico) esta´ dada por f
X
(x) = x/210, para x = 1, . . . , 20. Sigamos la te´cnica
antes descrita, para determinar la funcio´n de la variable Y = 2X.
Como Y es discreta: f
Y
(y) = P (Y = y).
Adema´s, P (Y = y) = P (2X = y) = P (X = y/2) = f
X
(y/2). As´ı, f
Y
(y) = f
X
(y/2) = y/420,
para y = 2, 4, . . . , 40.
Teorema 3.8. Sea X una variable aleatoria continua e Y = g(X), con g una funcio´n
diferenciable y mono´tona. Entonces

Continuar navegando

Materiales relacionados

32 pag.
Fundamentos de la probabilidad

SIN SIGLA

User badge image

Abel Uc Cab

5 pag.