Logo Studenta

Funciones de va - Ariadna Deseusa Morales

¡Estudia con miles de materiales!

Vista previa del material en texto

como estimación de m. ¿Qué tan buena es esta estimación? La respuesta depende del com-
portamiento de las variables aleatorias Y1, Y2, . . . , Yn y su efecto en la distribución de 
Y = (1/n) ni=1 Yi .
El error de estimación, la diferencia entre la estimación y el parámetro estimado (para 
nuestro ejemplo, la diferencia entre y y m) constituyen una medida de la bondad de una es-
timación. Como Y1, Y2, . . . , Yn son variables aleatorias, al repetir el muestreo, Y también es 
una variable aleatoria (y una función de las n variables Y1, Y2, . . . , Yn). Por tanto, no podemos 
estar seguros de que el error de estimación sea menor que un valor específi co, B, por ejem-
plo. Sin embargo, si pudiéramos determinar la distribución de probabilidad del estimador Y ,
la utilizaríamos para determinar la probabilidad de que el error de estimación sea menor o 
igual a B.
Para determinar la distribución de probabilidad para una función de n variables aleatorias, 
Y1, Y2, . . . , Yn, debemos calcular la distribución de probabilidad conjunta para las variables 
aleatorias mismas. Por lo general suponemos que las observaciones se obtienen mediante 
muestreo aleatorio, como se defi nió en la Sección 2.12. Vimos en la Sección 3.7 que el mues-
treo aleatorio a partir de una población fi nita (muestreo sin restitución) resulta en intentos 
dependientes, que se hacen esencialmente independientes si la población es grande cuando se 
compara con el tamaño de la muestra.
En todo el resto de este libro supondremos que las poblaciones son grandes en compara-
ción con el tamaño muestral y, en consecuencia, que las variables aleatorias obtenidas a través 
de muestreo aleatorio son, de hecho, independientes entre sí. Entonces, en el caso discreto, la 
función de probabilidad conjunta para las variables Y1, Y2, . . . , Yn, seleccionadas de la misma 
población, está dada por
p(y1, y2, . . . , . . .yn) = p(y1) p(y2) p(yn).
En el caso continuo, la función de densidad conjunta es
f (y1, y2, . . . , . . .yn) = f (y1) f (y2) f (yn).
El enunciado “Y1, Y2, . . . , Yn es una muestra aleatoria de una población con densidad f(y)” 
signifi ca que las variables aleatorias son independientes con función de densidad común 
f(y).
 6.2 Determinación de la distribución 
de probabilidad de una función de 
variables aleatorias
En esta sección presentaremos tres métodos para determinar la distribución de probabilidad 
para una función de variables aleatorias y un cuarto método para determinar la distribución 
conjunta de varias funciones de variables aleatorias. Cualquiera de estos métodos se puede 
emplear para determinar la distribución de una función dada de las variables, pero por lo gene-
ral, uno de los métodos lleva a un proceso más sencillo que los otros. El método que funciona 
“mejor” varía de una aplicación a otra. En consecuencia, el conocimiento de los primeros tres 
métodos es deseable. El cuarto método se presenta en la Sección 6.6 (opcional). Aun cuando 
los tres primeros métodos se estudiarán por separado en las siguientes tres secciones, aquí 
damos un breve resumen de cada uno de ellos.
6.2 Determinación de la distribución de probabilidad de una función de variables aleatorias 297
06-Wakerly.indd 29706-Wakerly.indd 297 27/7/09 02:42:3527/7/09 02:42:35
298 Capítulo 6 Funciones de variables aleatorias
Considere las variables aleatorias Y1, Y2, . . . , Yn y una función U(Y1, Y2, . . . , Yn), denotada 
simplemente como U. Entonces tres de los métodos para determinar la distribución de proba-
bilidad de U son los siguientes:
1. Método de las funciones de distribución: se emplea generalmente cuando las Y tienen 
distribuciones continuas. Primero se determina la función de distribución para U, FU(u) 
= P(U ≤ u), usando los métodos que estudiamos en el Capítulo 5. Para hacerlo, debe-
mos determinar la región en el espacio y1, y2, . . . , yn para la cual U ≤ u y entonces se 
determina P(U ≤ u) al integrar f(y1, y2, . . . , yn) para esta región. La función de densi-
dad para U se obtiene entonces al diferenciar la función de distribución, FU(u). En la 
Sección 6.3 presentaremos una explicación detallada de este procedimiento.
2. Método de las transformaciones: si nos dan la función de densidad de una variable 
aleatoria Y, el método de transformaciones resulta en una expresión general para la den-
sidad de U = h(Y), donde h(y) es una función creciente o decreciente. Entonces, si Y1 y 
Y2 tienen una distribución bivariante, podemos usar el resultado univariante explicado 
antes para hallar la densidad conjunta de Y1 y U = h(Y1, Y2). Al integrar para y1, encon-
tramos la función de densidad de probabilidad marginal de U, que es nuestro objetivo. 
Este método se ilustra en la Sección 6.4.
3. Método de las funciones generadoras de momento: está basado en el teorema de uni-
cidad, el Teorema 6.1, el cual expresa que si dos variables aleatorias tienen funciones 
generadoras de momento idénticas, las dos poseen las mismas distribuciones de proba-
bilidad. Para usar este método es necesario determinar la función generadora de mo-
mento de U y compararla con las funciones generadoras de momento para las variables 
aleatorias discretas y continuas comunes deducidas en los Capítulos 3 y 4. Si aquélla 
es idéntica a una de estas funciones generadoras de momento, la distribución de pro-
babilidad de U se puede identifi car debido a la unicidad del teorema. Las aplicaciones 
del método de funciones generadoras de momento se presentarán en la Sección 6.5. Las 
funciones generadoras de probabilidad se pueden emplear en forma semejante al méto-
do de funciones generadoras de momento. Si el lector está interesado en su uso, vea la 
bibliografía al fi nal del capítulo.
 6.3 Método de las funciones de distribución
Ilustraremos el método de funciones de distribución con un ejemplo sencillo univariante. Si 
Y tiene función de densidad de probabilidad f(y) y si U es alguna función de Y, entonces 
podemos calcular FU(u) = P(U ≤ u) directamente al integrar f(y) en la región para la cual 
U ≤ u. La función de densidad de probabilidad para U se encuentra al derivar FU(u). El si-
guiente ejemplo ilustra el método.
 EJEMPLO 6.1 Un proceso para refi nar azúcar rinde hasta 1 tonelada de azúcar puro al día, pero la cantidad 
real producida, Y, es una variable aleatoria debido a descomposturas de máquinas y otros pro-
blemas. Suponga que Y tiene función de densidad dada por
f (y) =
2y, 0 ≤ y ≤ 1,
0, en cualquier otro punto.
06-Wakerly.indd 29806-Wakerly.indd 298 27/7/09 02:42:3527/7/09 02:42:35
	
  
	
  
	
  
	
  
	
  
298 Capítulo 6 Funciones de variables aleatorias
Considere las variables aleatorias Y1, Y2, . . . , Yn y una función U(Y1, Y2, . . . , Yn), denotada 
simplemente como U. Entonces tres de los métodos para determinar la distribución de proba-
bilidad de U son los siguientes:
1. Método de las funciones de distribución: se emplea generalmente cuando las Y tienen 
distribuciones continuas. Primero se determina la función de distribución para U, FU(u) 
= P(U ≤ u), usando los métodos que estudiamos en el Capítulo 5. Para hacerlo, debe-
mos determinar la región en el espacio y1, y2, . . . , yn para la cual U ≤ u y entonces se 
determina P(U ≤ u) al integrar f(y1, y2, . . . , yn) para esta región. La función de densi-
dad para U se obtiene entonces al diferenciar la función de distribución, FU(u). En la 
Sección 6.3 presentaremos una explicación detallada de este procedimiento.
2. Método de las transformaciones: si nos dan la función de densidad de una variable 
aleatoria Y, el método de transformaciones resulta en una expresión general para la den-
sidad de U = h(Y), donde h(y) es una función creciente o decreciente. Entonces, si Y1 y 
Y2 tienen una distribución bivariante, podemos usar el resultado univariante explicado 
antes para hallar la densidad conjunta de Y1 y U = h(Y1, Y2). Al integrar para y1, encon-
tramos la función de densidad de probabilidad marginal de U, que es nuestro objetivo. 
Este método seilustra en la Sección 6.4.
3. Método de las funciones generadoras de momento: está basado en el teorema de uni-
cidad, el Teorema 6.1, el cual expresa que si dos variables aleatorias tienen funciones 
generadoras de momento idénticas, las dos poseen las mismas distribuciones de proba-
bilidad. Para usar este método es necesario determinar la función generadora de mo-
mento de U y compararla con las funciones generadoras de momento para las variables 
aleatorias discretas y continuas comunes deducidas en los Capítulos 3 y 4. Si aquélla 
es idéntica a una de estas funciones generadoras de momento, la distribución de pro-
babilidad de U se puede identifi car debido a la unicidad del teorema. Las aplicaciones 
del método de funciones generadoras de momento se presentarán en la Sección 6.5. Las 
funciones generadoras de probabilidad se pueden emplear en forma semejante al méto-
do de funciones generadoras de momento. Si el lector está interesado en su uso, vea la 
bibliografía al fi nal del capítulo.
 6.3 Método de las funciones de distribución
Ilustraremos el método de funciones de distribución con un ejemplo sencillo univariante. Si 
Y tiene función de densidad de probabilidad f(y) y si U es alguna función de Y, entonces 
podemos calcular FU(u) = P(U ≤ u) directamente al integrar f(y) en la región para la cual 
U ≤ u. La función de densidad de probabilidad para U se encuentra al derivar FU(u). El si-
guiente ejemplo ilustra el método.
 EJEMPLO 6.1 Un proceso para refi nar azúcar rinde hasta 1 tonelada de azúcar puro al día, pero la cantidad 
real producida, Y, es una variable aleatoria debido a descomposturas de máquinas y otros pro-
blemas. Suponga que Y tiene función de densidad dada por
f (y) =
2y, 0 ≤ y ≤ 1,
0, en cualquier otro punto.
06-Wakerly.indd 29806-Wakerly.indd 298 27/7/09 02:42:3527/7/09 02:42:35
298 Capítulo 6 Funciones de variables aleatorias
Considere las variables aleatorias Y1, Y2, . . . , Yn y una función U(Y1, Y2, . . . , Yn), denotada 
simplemente como U. Entonces tres de los métodos para determinar la distribución de proba-
bilidad de U son los siguientes:
1. Método de las funciones de distribución: se emplea generalmente cuando las Y tienen 
distribuciones continuas. Primero se determina la función de distribución para U, FU(u) 
= P(U ≤ u), usando los métodos que estudiamos en el Capítulo 5. Para hacerlo, debe-
mos determinar la región en el espacio y1, y2, . . . , yn para la cual U ≤ u y entonces se 
determina P(U ≤ u) al integrar f(y1, y2, . . . , yn) para esta región. La función de densi-
dad para U se obtiene entonces al diferenciar la función de distribución, FU(u). En la 
Sección 6.3 presentaremos una explicación detallada de este procedimiento.
2. Método de las transformaciones: si nos dan la función de densidad de una variable 
aleatoria Y, el método de transformaciones resulta en una expresión general para la den-
sidad de U = h(Y), donde h(y) es una función creciente o decreciente. Entonces, si Y1 y 
Y2 tienen una distribución bivariante, podemos usar el resultado univariante explicado 
antes para hallar la densidad conjunta de Y1 y U = h(Y1, Y2). Al integrar para y1, encon-
tramos la función de densidad de probabilidad marginal de U, que es nuestro objetivo. 
Este método se ilustra en la Sección 6.4.
3. Método de las funciones generadoras de momento: está basado en el teorema de uni-
cidad, el Teorema 6.1, el cual expresa que si dos variables aleatorias tienen funciones 
generadoras de momento idénticas, las dos poseen las mismas distribuciones de proba-
bilidad. Para usar este método es necesario determinar la función generadora de mo-
mento de U y compararla con las funciones generadoras de momento para las variables 
aleatorias discretas y continuas comunes deducidas en los Capítulos 3 y 4. Si aquélla 
es idéntica a una de estas funciones generadoras de momento, la distribución de pro-
babilidad de U se puede identifi car debido a la unicidad del teorema. Las aplicaciones 
del método de funciones generadoras de momento se presentarán en la Sección 6.5. Las 
funciones generadoras de probabilidad se pueden emplear en forma semejante al méto-
do de funciones generadoras de momento. Si el lector está interesado en su uso, vea la 
bibliografía al fi nal del capítulo.
 6.3 Método de las funciones de distribución
Ilustraremos el método de funciones de distribución con un ejemplo sencillo univariante. Si 
Y tiene función de densidad de probabilidad f(y) y si U es alguna función de Y, entonces 
podemos calcular FU(u) = P(U ≤ u) directamente al integrar f(y) en la región para la cual 
U ≤ u. La función de densidad de probabilidad para U se encuentra al derivar FU(u). El si-
guiente ejemplo ilustra el método.
 EJEMPLO 6.1 Un proceso para refi nar azúcar rinde hasta 1 tonelada de azúcar puro al día, pero la cantidad 
real producida, Y, es una variable aleatoria debido a descomposturas de máquinas y otros pro-
blemas. Suponga que Y tiene función de densidad dada por
f (y) =
2y, 0 ≤ y ≤ 1,
0, en cualquier otro punto.
06-Wakerly.indd 29806-Wakerly.indd 298 27/7/09 02:42:3527/7/09 02:42:35
A la compañía se le paga a razón de $300 por tonelada de azúcar refi nada, pero también 
tiene un costo fi jo general de $100 por día. Por tanto, la utilidad diaria, en cientos de dólares, 
es U = 3Y − 1. Encuentre la función de densidad de probabilidad para U.
 Solución Para utilizar el método de función de distribución, debemos hallar
FU (u) = P(U ≤ u) = P(3Y − 1 ≤ u) = P Y ≤
u + 1
3
.
Si u < –1, entonces (u + 1)/3 < 0 y, por tanto, FU(u) = P(Y ≤ (u + 1)/3) = 0. También, 
si u > 2, entonces (u + 1)/3 >1 y FU(u) = P(Y ≤ (u + 1)/3) =1. No obstante, si –1 ≤ u ≤ 
2, la probabilidad se puede escribir como una integral de f(y), y
P Y ≤
u + 1
3
=
(u+1)/3
−q
f (y)dy =
(u+1)/3
0
2y dy =
u + 1
3
2
.
(Observe que, cuando Y varía de 0 a 1, U varía de –1 a 2.) Entonces, la función de distribución 
de la variable aleatoria U está dada por
FU (u) =
0, u < −1,
u + 1
3
2
, −1 ≤ u ≤ 2,
1, u > 2,
y la función de densidad para U es
 fU (u) =
d FU (u)
du
=
(2/9)(u + 1), −1 ≤ u < 2,
0, en cualquier otro punto.
 
Q
En la situación bivariante, sean Y1 y Y2 variables aleatorias con densidad conjunta f(y1, y2) 
y sea U = h(Y1, Y2) una función de Y1 y Y2. Entonces, para todo punto (y1, y2), corresponde un 
valor y sólo uno de U. Si podemos precisar la región de valores (y1, y2) tal que U ≤ u, entonces 
la integral de la función de densidad conjunta f(y1, y2) para esta región es igual a P(U ≤ u) = 
FU(u). Como antes, la función de densidad para U se puede obtener por derivación.
Ilustraremos estas ideas con dos ejemplos.
 EJEMPLO 6.2 En el Ejemplo 5.4 consideramos las variables aleatorias Y1 (la cantidad proporcional de ga-
solina abastecida al principio de semana) y Y2 (la cantidad proporcional de gasolina vendida 
durante la semana). La función de densidad conjunta de Y1 y Y2 está dada por
f (y1, y2) =
3y1, 0 ≤ y2 ≤ y1 ≤ 1,
0, en cualquier otro punto.
Encuentre la función de densidad de probabilidad para U = Y1 − Y2, la cantidad proporcio-
nal de gasolina remanente al fi nal de la semana. Use la función de densidad de U para hallar 
E(U).
6.3 Método de las funciones de distribución 299
06-Wakerly.indd 29906-Wakerly.indd 299 27/7/09 02:42:3527/7/09 02:42:35
	
  
	
  
	
  
	
  
304 Capítulo 6 Funciones de variables aleatorias
La función de densidad fU(u) se puede obtener al derivar FU(u). Entonces,
fU (u) =
d FU (u)
du
d
du (0) = 0, u < 0,
d
du (u
2/ 2) = u, 0 ≤ u ≤ 1,
d
du [(−u
2/ 2) + 2u − 1] = 2 − u, 1 < u ≤ 2,
d
du (1) = 0, u > 2,
o bien, lo que es más sencillo,
fU (u) =
u, 0 ≤ u ≤ 1,
2 − u, 1 < u ≤ 2,
0, en cualquier otro punto.
Una gráfi ca de fU(u) se muestra en la Figura 6.6(b). Q
 Resumen del método de las funciones de distribución
 Sea U una función de las variables aleatorias Y1, Y2, . . . , Yn.
 1. Localice la región U = u del espacio (y1, y2, . . . , yn).
 2. Localice la región U ≤ u.
 3. DetermineFU(u) = P(U ≤ u) al integrar f(y1, y2, . . . , yn) sobre la región 
U ≤ u.
 4. Determine la función de densidad fU(u) al derivar FU(u). Por tanto, fU(u) = 
d FU(u)/du.
Para ilustrar, considere el caso U = h(Y) = Y 2, donde Y es una variable aleatoria continua 
con función de distribución FY(y) y función de densidad fY(y). Si u ≤ 0, FU(u) = P(U ≤ u) = 
P(Y 2 ≤ u) = 0 y para u > 0 (vea la Figura 6.7),
FU (u) = P(U ≤ u) = P(Y 2 ≤ u)
= P(−√u ≤ Y ≤√u)
=
√u
−√u
f (y) dy = FY (√u) − FY (−√u).
F I G U R A 6.6
Funciones 
de distribución y 
de densidad para el 
Ejemplo 6.3
FU(u) fU(u)
1 1
1 12 20 0 uu
(a) Función de distribución (b) Función de densidad
06-Wakerly.indd 30406-Wakerly.indd 304 27/7/09 02:42:3727/7/09 02:42:37
En general,
FU (u) =
FY (√u) − FY (−√u), u > 0,
0, en cualquier otro punto.
Al derivar con respecto a u, vemos que
fU (u) =
fY (√u)
1
2√u
+ fY (−√u)
1
2√u
, u > 0,
0, en cualquier otro punto,
o bien, simplemente,
fU (u) =
1
2√u
fY (√u) + fY (−√u) , u > 0,
0, en cualquier otro punto.
 EJEMPLO 6.4 Sea Y una función de densidad de probabilidad dada por
fY (y) =
y + 1
2
, −1 ≤ y ≤ 1,
0, en cualquier otro punto.
Encuentre la función de densidad para U = Y 2.
 Solución Sabemos que
fU (u) =
1
2√u
fY (√u) + fY (−√u) , u > 0,
0, en cualquier otro punto,
y al sustituir en esta ecuación obtenemos
fU (u) =
1
2√u
√u + 1
2
+
−√u + 1
2
=
1
2√u
, 0 < u ≤ 1,
0, en cualquier otro punto.
F I G U R A 6.7
Función h(y) = y2
u
u u0
h ( y) = y2
h ( y)
– y
6.3 Método de las funciones de distribución 305
06-Wakerly.indd 30506-Wakerly.indd 305 27/7/09 02:42:3727/7/09 02:42:37
	
  
	
  
	
  
	
  
	
  
En general,
FU (u) =
FY (√u) − FY (−√u), u > 0,
0, en cualquier otro punto.
Al derivar con respecto a u, vemos que
fU (u) =
fY (√u)
1
2√u
+ fY (−√u)
1
2√u
, u > 0,
0, en cualquier otro punto,
o bien, simplemente,
fU (u) =
1
2√u
fY (√u) + fY (−√u) , u > 0,
0, en cualquier otro punto.
 EJEMPLO 6.4 Sea Y una función de densidad de probabilidad dada por
fY (y) =
y + 1
2
, −1 ≤ y ≤ 1,
0, en cualquier otro punto.
Encuentre la función de densidad para U = Y 2.
 Solución Sabemos que
fU (u) =
1
2√u
fY (√u) + fY (−√u) , u > 0,
0, en cualquier otro punto,
y al sustituir en esta ecuación obtenemos
fU (u) =
1
2√u
√u + 1
2
+
−√u + 1
2
=
1
2√u
, 0 < u ≤ 1,
0, en cualquier otro punto.
F I G U R A 6.7
Función h(y) = y2
u
u u0
h ( y) = y2
h ( y)
– y
6.3 Método de las funciones de distribución 305
06-Wakerly.indd 30506-Wakerly.indd 305 27/7/09 02:42:3727/7/09 02:42:37
306 Capítulo 6 Funciones de variables aleatorias
Como Y tiene densidad positiva sólo en el intervalo –1 ≤ y ≤ 1, se deduce que U = Y 2 tiene 
densidad positiva sólo en el intervalo 0 < u ≤ 1. Q
En algunos casos es posible encontrar una transformación que cuando se aplica a una varia-
ble aleatoria con distribución uniforme en el intervalo (0, 1), resulta en una variable aleatoria 
con alguna otra función de distribución específi ca, por ejemplo F(y). El siguiente ejemplo 
ilustra una técnica para lograr este objetivo. A éste le sigue un breve análisis de una de las 
aplicaciones prácticas de esta transformación.
 EJEMPLO 6.5 Sea U una variable aleatoria uniforme en el intervalo (0, 1). Encuentre una transformación 
G(U) tal que G(U) posea una distribución exponencial con media b.
 Solución Si U posee una distribución uniforme en el intervalo (0, 1), entonces la función de distribución 
de U (vea Ejercicio 4.38) está dada por
FU (u) =
0, u < 0,
u, 0 ≤ u ≤ 1,
1, u > 1.
Denote con Y una variable aleatoria que tiene una distribución exponencial con media b. 
Entonces (vea la Sección 4.6) Y tiene función de distribución
FY (y) =
0, y < 0,
1 − e−y/b , y ≥ 0.
Observe que FY(y) es estrictamente creciente en el intervalo [0, q). Sea 0 < u < 1 y ad-
vierta que hay un valor único y tal que FY(y) = u. Así, F
−1
Y (u), 0 < u < 1 está bien defi nido. 
En este caso, FY (y) = 1 − e−y/b = u si y sólo si y = −b ln(1−u) = F
−1
Y (u). Considere la 
variable aleatoria F−1Y (U ) = −b ln(1−U ) y observe que, si y > 0,
P F−1Y (U ) ≤ y = P[−b ln(1 − U ) ≤ y]
= P[ln(1 − U ) ≥ −y/b]
= P(U ≤ 1 − e−y/b )
= 1 − e−y/b .
También, P F−1Y (U ) ≤ y = 0 si y ≤ 0. Así, F
−1
Y (U ) = −b ln(1 − U ) posee una distribu-
ción exponencial con media b, como se desea. Q
Las simulaciones por computadora se usan con frecuencia para evaluar técnicas estadísti-
cas propuestas. Por lo general estas simulaciones requieren que obtengamos valores observa-
dos de variables aleatorias con distribución prescrita. Como se observó en la Sección 4.4, casi 
todos los sistemas computarizados contienen una subrutina que genera valores observados 
de una variable aleatoria U que tiene una distribución uniforme en el intervalo (0, 1). ¿Cómo 
puede usarse el resultado del Ejemplo 6.5 para generar un conjunto de observaciones a partir 
de una distribución exponencial con media b? Simplemente usamos el generador de números 
06-Wakerly.indd 30606-Wakerly.indd 306 27/7/09 02:42:3727/7/09 02:42:37
310 Capítulo 6 Funciones de variables aleatorias
 a Encuentre la función de densidad. 
 b Para valores fi jos de a y u encuentre una transformación G(U) de modo que G(U) tenga una función 
de distribución de F cuando U posea una distribución uniforme (0, 1).
 c Dado que una muestra aleatoria de tamaño 5 tomada de una distribución uniforme en el intervalo (0, 1) 
dio los valores .2700, .6901, .1413, .1523 y .3609, use la transformación que obtuvo en el inciso b 
para dar valores asociados con una variable aleatoria con una familia de distribución de potencia con 
a = 2, u = 4.
 6.18 Un miembro de la familia de distribuciones de Pareto (que se usa a menudo en economía para modelar 
distribuciones de ingreso) tiene una función de distribución dada por
F(y) =
0, y < b,
1 − by
a
, y ≥ b,
 donde a, b > 0.
 a Encuentre la función de densidad.
 b Para valores fi jos de b y a, encuentre una transformación G(U) de modo que G(U) tenga una función 
de distribución de F cuando U posea una distribución uniforme en el intervalo (0, 1).
 c Dado que una muestra aleatoria de tamaño 5 tomada de una distribución uniforme en el intervalo (0, 
1) dio los valores .0058, .2048, .7692, .2475 y .6078, use la transformación que dedujo en el inciso 
b para dar valores asociados con una variable aleatoria con una distribución de Pareto con a = 2, 
b = 3.
 6.19 Consulte los Ejercicios 6.17 y 6.18. Si Y posee una distribución de Pareto con parámetros a y b, demues-
tre que X = 1/Y tiene una familia de distribución de potencia con parámetros a y u = b–1.
 6.20 Sea la variable aleatoria Y que tiene una distribución uniforme en el intervalo (0, 1). Deduzca
 a la distribución de la variable aleatoria W = Y 2,
 b la distribución de la variable aleatoria W = √Y .
 *6.21 Suponga que Y es una variable aleatoria que toma sólo valores enteros 1, 2, . . . Denote con F(y) la fun-
ción de distribución de esta variable aleatoria. Como ya vimos en la Sección 4.2, esta función de distri-
bución es una función escalón y la magnitud del escalón en cada valor entero es la probabilidad de que Y 
tome ese valor. Sea U una variable aleatoria continua que está uniformemente distribuida en el intervalo 
(0, 1). Defi na una variable X tal que X = k si y sólo si F(k − 1) < U ≤ F(k), k = 1, 2, . . . Recuerde que 
F(0) = 0 porque Y toma sólo valores enteros positivos. Demuestre que P(X = i ) = F (i ) − F (i − 1) =
P(Y = i ), i = 1, 2, . . . Esto es, X tiene la misma distribución que Y. [Sugerencia: recuerde el Ejercicio 
4.5.]1
 *6.22 Use los resultados que obtuvo en los Ejercicios 4.6 y 6.21 para describir cómo generar valores de una 
variable aleatoria geométricamente distribuida.
 6.4 Método de las transformaciones
El método de las transformaciones, el cual nos permite determinar la distribución de proba-
bilidad de una función de variables aleatorias, es una consecuencia del método de función de 
distribuciónde la Sección 6.3. Mediante el método de las funciones de distribución podemos 
llegar a un método simple para formular la función de densidad de U = h(Y), siempre que h(y) 
1. Los ejercicios precedidos de un asterisco son opcionales.
06-Wakerly.indd 31006-Wakerly.indd 310 27/7/09 02:42:3927/7/09 02:42:39
sea decreciente o creciente. [Por h(y) creciente, queremos decir que si y1 < y2, entonces h(y1) 
< h(y2) para cualesquiera números reales y1 y y2.] La gráfi ca de una función creciente h(y) 
aparece en la Figura 6.8.
Suponga que h(y) es una función creciente de y y que U = h(Y), donde Y tiene función de 
densidad fY(y). Entonces h
–1(u) es una función creciente de u: si u1 < u2, entonces h–1(u1) = 
y1< y2 = h–1(u2). En la fi gura 6.8 vemos que el conjunto de puntos y tales que h(y) ≤ u1 es 
precisamente igual que el conjunto de puntos y tales que y ≤ h–1(u1). Por tanto (vea la Figura 
6.8),
P(U ≤ u) = P[h(Y ) ≤ u] = P{h−1[h(Y )] ≤ h−1(u)} = P[Y ≤ h−1(u)]
o bien, 
FU (u) = FY [h−1(u)].
Entonces derivando con respecto a u, tenemos
fU (u) =
d FU (u)
du
=
d FY [h−1(u)]
du
= fY (h−1(u))
d[h−1(u)]
du
.
Para simplifi car la notación, escribiremos dh–1/du en lugar de d[h–1(u)]/du y
fU (u) = fY [h−1(u)]
dh−1
du
.
En consecuencia, tenemos una nueva forma para determinar fU(u) que surge a partir del mé-
todo general de funciones de distribución. Para determinar fU(u), despeje y en términos de u; 
esto es, encuentre y = h–1(u) y sustituya esta expresión en fY(y). Entonces multiplique esta 
cantidad por dh–1/du. Ilustraremos el procedimiento con un ejemplo.
 EJEMPLO 6.6 En el Ejemplo 6.1 trabajamos con una variable aleatoria Y (cantidad de azúcar producida) con 
una función de densidad dada por
fY (y) =
2y, 0 ≤ y ≤ 1,
0, en cualquier otro punto.
Estamos interesados en una nueva variable aleatoria (utilidad) dada por U = 3Y − 1. Encuentre 
la función de densidad de probabilidad para U por el método de las transformaciones.
F I G U R A 6.8
Una función 
creciente u1 = h ( y1)
u =
h ( y
)
y1 = h
–1( u1) y
u
0
6.4 Método de las transformaciones 311
06-Wakerly.indd 31106-Wakerly.indd 311 27/7/09 02:42:3927/7/09 02:42:39
	
  
	
  
	
  
	
  
	
  
	
  
	
  
sea decreciente o creciente. [Por h(y) creciente, queremos decir que si y1 < y2, entonces h(y1) 
< h(y2) para cualesquiera números reales y1 y y2.] La gráfi ca de una función creciente h(y) 
aparece en la Figura 6.8.
Suponga que h(y) es una función creciente de y y que U = h(Y), donde Y tiene función de 
densidad fY(y). Entonces h
–1(u) es una función creciente de u: si u1 < u2, entonces h–1(u1) = 
y1< y2 = h–1(u2). En la fi gura 6.8 vemos que el conjunto de puntos y tales que h(y) ≤ u1 es 
precisamente igual que el conjunto de puntos y tales que y ≤ h–1(u1). Por tanto (vea la Figura 
6.8),
P(U ≤ u) = P[h(Y ) ≤ u] = P{h−1[h(Y )] ≤ h−1(u)} = P[Y ≤ h−1(u)]
o bien, 
FU (u) = FY [h−1(u)].
Entonces derivando con respecto a u, tenemos
fU (u) =
d FU (u)
du
=
d FY [h−1(u)]
du
= fY (h−1(u))
d[h−1(u)]
du
.
Para simplifi car la notación, escribiremos dh–1/du en lugar de d[h–1(u)]/du y
fU (u) = fY [h−1(u)]
dh−1
du
.
En consecuencia, tenemos una nueva forma para determinar fU(u) que surge a partir del mé-
todo general de funciones de distribución. Para determinar fU(u), despeje y en términos de u; 
esto es, encuentre y = h–1(u) y sustituya esta expresión en fY(y). Entonces multiplique esta 
cantidad por dh–1/du. Ilustraremos el procedimiento con un ejemplo.
 EJEMPLO 6.6 En el Ejemplo 6.1 trabajamos con una variable aleatoria Y (cantidad de azúcar producida) con 
una función de densidad dada por
fY (y) =
2y, 0 ≤ y ≤ 1,
0, en cualquier otro punto.
Estamos interesados en una nueva variable aleatoria (utilidad) dada por U = 3Y − 1. Encuentre 
la función de densidad de probabilidad para U por el método de las transformaciones.
F I G U R A 6.8
Una función 
creciente u1 = h ( y1)
u =
h ( y
)
y1 = h
–1( u1) y
u
0
6.4 Método de las transformaciones 311
06-Wakerly.indd 31106-Wakerly.indd 311 27/7/09 02:42:3927/7/09 02:42:39
sea decreciente o creciente. [Por h(y) creciente, queremos decir que si y1 < y2, entonces h(y1) 
< h(y2) para cualesquiera números reales y1 y y2.] La gráfi ca de una función creciente h(y) 
aparece en la Figura 6.8.
Suponga que h(y) es una función creciente de y y que U = h(Y), donde Y tiene función de 
densidad fY(y). Entonces h
–1(u) es una función creciente de u: si u1 < u2, entonces h–1(u1) = 
y1< y2 = h–1(u2). En la fi gura 6.8 vemos que el conjunto de puntos y tales que h(y) ≤ u1 es 
precisamente igual que el conjunto de puntos y tales que y ≤ h–1(u1). Por tanto (vea la Figura 
6.8),
P(U ≤ u) = P[h(Y ) ≤ u] = P{h−1[h(Y )] ≤ h−1(u)} = P[Y ≤ h−1(u)]
o bien, 
FU (u) = FY [h−1(u)].
Entonces derivando con respecto a u, tenemos
fU (u) =
d FU (u)
du
=
d FY [h−1(u)]
du
= fY (h−1(u))
d[h−1(u)]
du
.
Para simplifi car la notación, escribiremos dh–1/du en lugar de d[h–1(u)]/du y
fU (u) = fY [h−1(u)]
dh−1
du
.
En consecuencia, tenemos una nueva forma para determinar fU(u) que surge a partir del mé-
todo general de funciones de distribución. Para determinar fU(u), despeje y en términos de u; 
esto es, encuentre y = h–1(u) y sustituya esta expresión en fY(y). Entonces multiplique esta 
cantidad por dh–1/du. Ilustraremos el procedimiento con un ejemplo.
 EJEMPLO 6.6 En el Ejemplo 6.1 trabajamos con una variable aleatoria Y (cantidad de azúcar producida) con 
una función de densidad dada por
fY (y) =
2y, 0 ≤ y ≤ 1,
0, en cualquier otro punto.
Estamos interesados en una nueva variable aleatoria (utilidad) dada por U = 3Y − 1. Encuentre 
la función de densidad de probabilidad para U por el método de las transformaciones.
F I G U R A 6.8
Una función 
creciente u1 = h ( y1)
u =
h ( y
)
y1 = h
–1( u1) y
u
0
6.4 Método de las transformaciones 311
06-Wakerly.indd 31106-Wakerly.indd 311 27/7/09 02:42:3927/7/09 02:42:39
312 Capítulo 6 Funciones de variables aleatorias
 Solución La función de interés aquí es h(y) = 3y − 1, que es creciente en y. Si u = 3y − 1, entonces
y = h−1(u) =
u + 1
3
y
dh−1
du
=
d u+13
du
=
1
3
.
Por tanto, 
fU (u) = fY [h−1(u)]
dh−1
du
= 2[h
−1(u)]
dh−1
du
= 2
u + 1
3
1
3
, 0 ≤
u + 1
3
≤ 1,
0, en cualquier otro punto.
o bien, lo que es equivalente,
fU (u) =
2(u + 1)/9, −1 ≤ u ≤ 2,
0, en cualquier otro punto.
El intervalo en el cual fU(u) es positiva es simplemente 0 ≤ y ≤ 1 transformado en el eje u por 
la función u = 3y − 1. Esta respuesta está acorde con la del Ejemplo 6.1. Q
Si h(y) es una función decreciente de y, entonces h–1(u) es una función decreciente de u. 
Esto es, si u1 < u2, entonces h–1(u) = y1 > y2 = h–1(u2). También, como en la Figura 6.9, 
el conjunto de puntos y tales que h(y) ≤ u1 es el mismo conjunto de puntos tales que y ≥ 
h–1(u1). 
Se deduce que, para U = h(Y), como se ve en la Figura 6.9,
P(U ≤ u) = P[Y ≥ h−1(u)] o FU (u) = 1 − FY [h−1(u)].
Si derivamos con respecto a u, obtenemos
fU (u) = − fY [h−1(u)]
d[h−1(u)]
du
.
F I G U R A 6.9
Una función 
decreciente
u1 = h ( y1)
u = h ( y)
y1 = h
–1( u1) y
u
0
06-Wakerly.indd 31206-Wakerly.indd 312 27/7/09 02:42:3927/7/09 02:42:39
	
  
	
  
	
  
	
  
	
  
	
  
	
  
	
  
312 Capítulo 6 Funciones de variables aleatorias
 Solución La función de interés aquí es h(y) = 3y − 1, que es creciente en y. Si u = 3y − 1, entonces
y = h−1(u) =
u + 1
3
y
dh−1
du
=
d u+13
du
=
1
3
.
Por tanto, 
fU (u) = fY [h−1(u)]
dh−1
du
= 2[h
−1(u)]
dh−1
du
= 2
u + 1
3
1
3
, 0 ≤
u + 1
3
≤ 1,
0, en cualquier otro punto.
o bien, lo que es equivalente,
fU (u) =
2(u + 1)/9, −1 ≤ u ≤ 2,
0, en cualquier otro punto.
El intervalo en el cual fU(u) es positiva es simplemente 0 ≤ y ≤ 1 transformado en el eje u por 
la función u = 3y − 1. Esta respuesta está acorde con la del Ejemplo 6.1. Q
Si h(y) es una función decreciente de y, entonces h–1(u) es una función decreciente de u. 
Esto es, si u1 < u2, entonces h–1(u) = y1 > y2= h–1(u2). También, como en la Figura 6.9, 
el conjunto de puntos y tales que h(y) ≤ u1 es el mismo conjunto de puntos tales que y ≥ 
h–1(u1). 
Se deduce que, para U = h(Y), como se ve en la Figura 6.9,
P(U ≤ u) = P[Y ≥ h−1(u)] o FU (u) = 1 − FY [h−1(u)].
Si derivamos con respecto a u, obtenemos
fU (u) = − fY [h−1(u)]
d[h−1(u)]
du
.
F I G U R A 6.9
Una función 
decreciente
u1 = h ( y1)
u = h ( y)
y1 = h
–1( u1) y
u
0
06-Wakerly.indd 31206-Wakerly.indd 312 27/7/09 02:42:3927/7/09 02:42:39
Si de nuevo empleamos la notación simplifi cada dh–1/du en lugar de d [h–1(u)]/du y recordamos 
que dh–1/du es negativa porque h–1(u) es una función decreciente de u, la densidad de U es
fU (u) = fY [h− 1(u)]
dh− 1
du
.
En realidad, no es necesario que h(y) sea creciente o decreciente (y por tanto que se pueda 
invertir) para todos los valores de y. La función h(⋅) sólo necesita ser creciente o decreciente 
para los valores de y tales que fY (y) > 0. El conjunto de puntos {y: fY (y) > 0} se denomina so-
porte de la densidad fY (y). Si y = h–1(u) no es el soporte de la densidad, entonces fY [h–1(u)] = 0. 
Estos resultados se combinan en el siguiente enunciado:
 Sea Y la función de densidad de probabilidad fY (y). Si h(y) es creciente o decreciente 
para toda y tal que fY (y) > 0, entonces U = h(Y) tiene función de densidad
fU (u) = fY [h− 1(u)]
dh− 1
du , donde 
dh− 1
du
=
d[h− 1(u)]
du
.
 EJEMPLO 6.7 Sea Y la función de densidad de probabilidad dada por
fY (y) =
2y, 0 ≤ y ≤ 1,
0, en cualquier otro punto.
Encuentre la función de densidad de U = –4Y + 3.
 Solución En este ejemplo, el conjunto de valores de y tales que fY (y) > 0 son los valores 0 < y ≤ 1. La 
función de interés, h(y) = –4y + 3, es decreciente para toda y y, por tanto, para toda 0 < y 
≤ 1, si u = –4y + 3, entonces
y = h−1(u) = 3 − u4 y
dh−1
du = −
1
4 .
Observe que h–1(u) es una función decreciente de u y que dh–1/du < 0. Entonces,
fU (u) = fY [h−1(u)] dh
−1
du =
2 3 − u4 −
1
4 , 0 ≤
3 − u
4 ≤ 1,
0, en cualquier otro punto.
Finalmente, un poco de álgebra nos da
fU (u) =
3 − u
8
, −1 ≤ u ≤ 3,
0, en cualquier otro punto.
La aplicación directa del método de las transformaciones requiere que la función h(y) sea 
creciente o decreciente para toda y tal que fY (y) > 0. Si desea usar este método para hallar 
la distribución de U = h(Y), debe tener mucho cuidado de comprobar que la función h(⋅) sea 
Q
6.4 Método de las transformaciones 313
06-Wakerly.indd 31306-Wakerly.indd 313 27/7/09 02:42:3927/7/09 02:42:39
	
  
	
  
	
  
	
  
	
  
	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
   	
  
	
  
	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  
	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
   	
  
	
  
	
  
	
  
Si de nuevo empleamos la notación simplifi cada dh–1/du en lugar de d [h–1(u)]/du y recordamos 
que dh–1/du es negativa porque h–1(u) es una función decreciente de u, la densidad de U es
fU (u) = fY [h− 1(u)]
dh− 1
du
.
En realidad, no es necesario que h(y) sea creciente o decreciente (y por tanto que se pueda 
invertir) para todos los valores de y. La función h(⋅) sólo necesita ser creciente o decreciente 
para los valores de y tales que fY (y) > 0. El conjunto de puntos {y: fY (y) > 0} se denomina so-
porte de la densidad fY (y). Si y = h–1(u) no es el soporte de la densidad, entonces fY [h–1(u)] = 0. 
Estos resultados se combinan en el siguiente enunciado:
 Sea Y la función de densidad de probabilidad fY (y). Si h(y) es creciente o decreciente 
para toda y tal que fY (y) > 0, entonces U = h(Y) tiene función de densidad
fU (u) = fY [h− 1(u)]
dh− 1
du , donde 
dh− 1
du
=
d[h− 1(u)]
du
.
 EJEMPLO 6.7 Sea Y la función de densidad de probabilidad dada por
fY (y) =
2y, 0 ≤ y ≤ 1,
0, en cualquier otro punto.
Encuentre la función de densidad de U = –4Y + 3.
 Solución En este ejemplo, el conjunto de valores de y tales que fY (y) > 0 son los valores 0 < y ≤ 1. La 
función de interés, h(y) = –4y + 3, es decreciente para toda y y, por tanto, para toda 0 < y 
≤ 1, si u = –4y + 3, entonces
y = h−1(u) = 3 − u4 y
dh−1
du = −
1
4 .
Observe que h–1(u) es una función decreciente de u y que dh–1/du < 0. Entonces,
fU (u) = fY [h−1(u)] dh
−1
du =
2 3 − u4 −
1
4 , 0 ≤
3 − u
4 ≤ 1,
0, en cualquier otro punto.
Finalmente, un poco de álgebra nos da
fU (u) =
3 − u
8
, −1 ≤ u ≤ 3,
0, en cualquier otro punto.
La aplicación directa del método de las transformaciones requiere que la función h(y) sea 
creciente o decreciente para toda y tal que fY (y) > 0. Si desea usar este método para hallar 
la distribución de U = h(Y), debe tener mucho cuidado de comprobar que la función h(⋅) sea 
Q
6.4 Método de las transformaciones 313
06-Wakerly.indd 31306-Wakerly.indd 313 27/7/09 02:42:3927/7/09 02:42:39
Si de nuevo empleamos la notación simplifi cada dh–1/du en lugar de d [h–1(u)]/du y recordamos 
que dh–1/du es negativa porque h–1(u) es una función decreciente de u, la densidad de U es
fU (u) = fY [h− 1(u)]
dh− 1
du
.
En realidad, no es necesario que h(y) sea creciente o decreciente (y por tanto que se pueda 
invertir) para todos los valores de y. La función h(⋅) sólo necesita ser creciente o decreciente 
para los valores de y tales que fY (y) > 0. El conjunto de puntos {y: fY (y) > 0} se denomina so-
porte de la densidad fY (y). Si y = h–1(u) no es el soporte de la densidad, entonces fY [h–1(u)] = 0. 
Estos resultados se combinan en el siguiente enunciado:
 Sea Y la función de densidad de probabilidad fY (y). Si h(y) es creciente o decreciente 
para toda y tal que fY (y) > 0, entonces U = h(Y) tiene función de densidad
fU (u) = fY [h− 1(u)]
dh− 1
du , donde 
dh− 1
du
=
d[h− 1(u)]
du
.
 EJEMPLO 6.7 Sea Y la función de densidad de probabilidad dada por
fY (y) =
2y, 0 ≤ y ≤ 1,
0, en cualquier otro punto.
Encuentre la función de densidad de U = –4Y + 3.
 Solución En este ejemplo, el conjunto de valores de y tales que fY (y) > 0 son los valores 0 < y ≤ 1. La 
función de interés, h(y) = –4y + 3, es decreciente para toda y y, por tanto, para toda 0 < y 
≤ 1, si u = –4y + 3, entonces
y = h−1(u) = 3 − u4 y
dh−1
du = −
1
4 .
Observe que h–1(u) es una función decreciente de u y que dh–1/du < 0. Entonces,
fU (u) = fY [h−1(u)] dh
−1
du =
2 3 − u4 −
1
4 , 0 ≤
3 − u
4 ≤ 1,
0, en cualquier otro punto.
Finalmente, un poco de álgebra nos da
fU (u) =
3 − u
8
, −1 ≤ u ≤ 3,
0, en cualquier otro punto.
La aplicación directa del método de las transformaciones requiere que la función h(y) sea 
creciente o decreciente para toda y tal que fY (y) > 0. Si desea usar este método para hallar 
la distribución de U = h(Y), debe tener mucho cuidado de comprobar que la función h(⋅) sea 
Q
6.4 Método de las transformaciones 313
06-Wakerly.indd 31306-Wakerly.indd 313 27/7/09 02:42:3927/7/09 02:42:39
314 Capítulo 6 Funciones de variables aleatorias
creciente o decreciente para toda y en el soporte de fY(y). Si no es así, el método de las trans-
formaciones no se puede aplicar y en su lugar se puede utilizar el método de las funciones de 
distribución estudiadas en la Sección 6.3.
El método de las transformaciones también se puede emplear en situaciones multivarian-
tes. El siguiente ejemplo ilustra el caso bivariante.
 EJEMPLO 6.8 Sean Y1 y Y2 que tienen una función de densidad conjunta dada por
f (y1, y2) =
e−(y1+y2) , 0 ≤ y1, 0 ≤ y2,
0, en cualquier otro punto.
Encuentre la función de densidad para U = Y1 + Y2.
 Solución Este problema se debe resolver en dos etapas: primero, determinaremos la densidad conjunta 
de Y1 y U y en seguida la densidad marginal de U. El método consiste en asignar a Y1 un valor 
y1 ≥ 0. Entonces U = y1 + Y2 y podemos considerar el problema de transformación unidi-
mensional en el que U = h(Y2) = y1 + Y2. Si g(y1, u) denota la densidad conjunta de Y1 y U, 
tenemos, con y2 = u − y1 = h–1(u),
g(y1, u) = f [y1, h
−1(u)]
dh−1
du
= e−(y1+u−y1)(1), 0 ≤ y1, 0 ≤ u − y1,
0, en cualquierotro punto.
Simplifi cando obtendremos
g(y1, u) =
e−u , 0 ≤ y1 ≤ u,
0, en cualquier otro punto.
(Observe que Y1 ≤ U). La densidad marginal de U está dada entonces por
fU (u) =
q
−q
g(y1, u) dy1
=
u
0
e−u dy1 = ue−u , 0 ≤ u,
0, en cualquier otro punto.
Ilustraremos el uso de la transformación bivariante con otro ejemplo que implique el pro-
ducto de dos variables aleatorias.
 EJEMPLO 6.9 En el Ejemplo 5.19 consideramos una variable aleatoria Y1 como la proporción de impurezas 
en una muestra química y Y2 como la proporción de impurezas tipo I entre todas las impure-
zas de la muestra. La función de densidad conjunta estuvo dada por
f (y1, y2) =
2(1 − y1), 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,
0, en cualquier otro punto.
Estamos interesados en U = Y1Y2, que es la proporción de impurezas tipo I de la muestra. 
Encuentre la función de densidad de probabilidad para U y utilícela para hallar E(U).
Q
06-Wakerly.indd 31406-Wakerly.indd 314 27/7/09 02:42:4027/7/09 02:42:40
316 Capítulo 6 Funciones de variables aleatorias
La integral de en medio se resuelve con más facilidad si se usa integración por partes, lo 
cual dará
1
0
u(ln u) du =
u2
2
(ln u)
1
0
−
1
0
u2
2
1
u
du = 0 −
u2
4
1
0
= −
1
4
.
Entonces,
E(U ) = 2[(1/ 3) − (−1/ 4) − (1/ 2)] = 2(1/ 12) = 1/ 6.
Esta respuesta concuerda con la del Ejemplo 5.21, donde E(U) = E(Y1Y2) se dedujo con un 
método diferente. Q
 Resumen del método de las transformaciones
 Sea U = h(Y), donde h(y) es una función creciente o decreciente de y para toda y tal que 
fY(y) > 0.
 1. Deduzca la función inversa, y = h–1(u).
 2. Evalúe 
dh−1
du
=
d[h−1(u)]
du
.
 3. Encuentre fU(u) mediante
fU (u) = fY [h−1(u)]
dh−1
du
.
Ejercicios
 6.23 En el Ejercicio 6.1 consideramos una variable aleatoria Y con función de densidad de probabilidad dada 
por
f (y) =
2(1 − y), 0 ≤ y ≤ 1,
0, en cualquier otro punto,
 y empleamos el método de las funciones de distribución para determinar las funciones de densidad de
 
a U1 = 2Y − 1.
b U2 = 1 − 2Y .
c U3 = Y 2.
 Use el método de las transformaciones para hallar las densidades de U1, U2 y U3.
 6.24 En el Ejercicio 6.4, consideramos una variable aleatoria Y que poseía una distribución exponencial con 
media 4 y usamos el método de las funciones de distribución para obtener la función de densidad para 
U = 3Y + 1. Utilice el método de las transformaciones para deducir la función de densidad para U.
 6.25 En el Ejercicio 6.11 consideramos dos componentes electrónicos que operan de modo independiente, 
cada uno con vida útil gobernada por la distribución exponencial con media 1. Procedimos a usar el 
método de las funciones de distribución para obtener la distribución del promedio de vida útil para los 
dos componentes. Utilice el método de las transformaciones para obtener la función de densidad para el 
promedio de vida útil de los dos componentes.
06-Wakerly.indd 31606-Wakerly.indd 316 27/7/09 02:42:4027/7/09 02:42:40
	
  
	
  
	
  
	
  
	
  
318 Capítulo 6 Funciones de variables aleatorias
 6.34 Una función de densidad que a veces utilizan ingenieros para modelar duraciones de vida útil de com-
ponentes electrónicos es la densidad de Rayleigh, dada por
f (y) =
2y
u
e−y
2/u , y > 0,
0, en cualquier otro punto.
 a Si Y tiene la densidad de Rayleigh, encuentre la función de densidad de probabilidad para U = Y 2.
 b Utilice el resultado del inciso a para hallar E(Y) y V(Y).
 6.35 Sean Y1 y Y2 variables aleatorias independientes, ambas uniformemente distribuidas en (0, 1). Encuentre 
la función de densidad de probabilidad para U = Y1Y2.
 6.36 Consulte el Ejercicio 6.34. Sean Y1 y Y2 variables aleatorias independientes con distribución de Rayleigh. 
Encuentre la función de densidad de probabilidad para U = Y 21 + Y 22. [Sugerencia: recuerde el Ejemplo 
6.8.]
 6.5 Método de las funciones generadoras 
de momento
El método de las funciones generadoras de momento para determinar la distribución de pro-
babilidad de una función de variables aleatorias Y1, Y2, . . . , Yn está basada en el siguiente 
teorema de unicidad.
 TEOREMA 6.1 Denotemos con mX (t) y mY (t) las funciones generadoras de momento de variables aleato-
rias X y Y, respectivamente. Si existen funciones generadoras de momento y mX (t) = mY (t) 
para todos los valores de t, entonces X y Y tienen la misma distribución de probabilidad.
(La demostración del Teorema 6.1 está fuera del alcance de este libro.)
Si U es una función de n variables aleatorias Y1, Y2, . . . , Yn, el primer paso al usar el 
Teorema 6.1 es hallar la función generadora de momento de U:
mU (t) = E(etU ).
Una vez determinada la función generadora de momento para U, se compara con las funciones 
generadoras de momento para variables aleatorias con distribuciones bien conocidas. Si mU(t) 
es idéntica a una de éstas, por ejemplo la función generadora de momento para una variable 
aleatoria V, entonces, por el Teorema 6.1, U y V poseen distribuciones de probabilidad idénti-
cas. Las funciones de densidad, medias, varianzas y funciones generadoras de momento para 
algunas variables aleatorias que se encuentran con frecuencia se presentan en el Apéndice 2. 
Ilustraremos el procedimiento con unos pocos ejemplos.
 EJEMPLO 6.10 Sea Y una variable aleatoria normalmente distribuida con media m y varianza s2. Demuestre 
que
Z =
Y − µ
s
tiene una distribución normal estándar, una distribución normal con media 0 y varianza 1.
06-Wakerly.indd 31806-Wakerly.indd 318 27/7/09 02:42:4127/7/09 02:42:41
320 Capítulo 6 Funciones de variables aleatorias
El método de las funciones generadoras de momento es con frecuencia muy útil para hallar 
las distribuciones de sumas de variables aleatorias independientes.
 TEOREMA 6.2 Sean Y1, Y2, . . . , Yn variables aleatorias independientes con funciones generadoras de 
momento mY1 (t), mY2 (t), . . . , mYn (t), respectivamente. Si U = Y1 + Y2 + ⋅ ⋅ ⋅ + Yn, 
entonces
mU (t) = mY1 (t) × mY2 (t) × ×. . . mYn (t).
 Demostración Sabemos que, como las variables aleatorias Y1, Y2, . . . , Yn son independientes (vea el 
Teorema 5.9),
mU (t) = E et (Y1+· · ·+Yn ) = E etY1 etY2 etYn
= E etY1 × E etY2 × × E etYn .. . .
. . .
 Entonces, por la defi nición de funciones generadoras de momentos,
mU (t) = mY1 (t) × mY2 (t) × × mYn (t).. . .
 EJEMPLO 6.12 La cantidad de clientes que llegan a una caja para pagar en un intervalo determinado de tiempo 
posee aproximadamente una distribución de probabilidad de Poisson (vea la Sección 3.8). Si 
Y1 denota el tiempo que transcurre hasta la primera llegada, Y2 denota el tiempo entre la pri-
mera y la segunda llegadas, . . . , y Yn denota el tiempo entre la llegada del primer (n − 1) 
cliente y la n-ésima llegada, entonces se puede demostrar que Y1, Y2, . . . , Yn son variables 
aleatorias independientes, con la función de densidad para Yi dada por
fYi (yi ) =
1
u
e−yi/u , yi > 0,
0, en cualquier otro punto.
[Como las variables Yi, para i = 1, 2, . . . , n, están distribuidas exponencialmente, se deduce 
que E(Yi) = u; esto es, u es el tiempo promedio que transcurre entre llegadas.] Encuentre la 
función de densidad de probabilidad para el tiempo de espera desde que se abre la caja de sa-
lida hasta que llega el n-ésimo cliente. (Si Y1, Y2,… denotan tiempos sucesivos entre llegadas, 
buscamos la función de densidad de U = Y1 + Y2 + ⋅ ⋅ ⋅ + Yn.)
 Solución Para aplicar el Teorema 6.2 debemos conocer primero mYi (t), i = 1, 2, . . . , n. Como cada 
una de las Yi está distribuida exponencialmente con media u, mYi (t) = (1 − ut)−1 y, por el 
Teorema 6.2,
mU (t) = mY1 (t) × mY1 (t) × × mYn (t)
= (1 − ut)−1 × (1 − ut)−1 × × (1 − ut)−1 = (1 − ut)−n .
. . .
. . .
Ésta es la función generadora de momento de una variable aleatoria con distribución gamma 
y a= n y b = u. El Teorema 6.1 implica que U en realidad tiene esta distribución gamma y 
por tanto que
 fU (u) =
1
n)un
(un−1e−u/u ), u > 0,
0, en cualquier otro punto.
 
Q
06-Wakerly.indd 32006-Wakerly.indd320 27/7/09 02:42:4127/7/09 02:42:41
	
  
	
  
	
  
	
  
	
  
	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
   	
  
320 Capítulo 6 Funciones de variables aleatorias
El método de las funciones generadoras de momento es con frecuencia muy útil para hallar 
las distribuciones de sumas de variables aleatorias independientes.
 TEOREMA 6.2 Sean Y1, Y2, . . . , Yn variables aleatorias independientes con funciones generadoras de 
momento mY1 (t), mY2 (t), . . . , mYn (t), respectivamente. Si U = Y1 + Y2 + ⋅ ⋅ ⋅ + Yn, 
entonces
mU (t) = mY1 (t) × mY2 (t) × ×. . . mYn (t).
 Demostración Sabemos que, como las variables aleatorias Y1, Y2, . . . , Yn son independientes (vea el 
Teorema 5.9),
mU (t) = E et (Y1+· · ·+Yn ) = E etY1 etY2 etYn
= E etY1 × E etY2 × × E etYn .. . .
. . .
 Entonces, por la defi nición de funciones generadoras de momentos,
mU (t) = mY1 (t) × mY2 (t) × × mYn (t).. . .
 EJEMPLO 6.12 La cantidad de clientes que llegan a una caja para pagar en un intervalo determinado de tiempo 
posee aproximadamente una distribución de probabilidad de Poisson (vea la Sección 3.8). Si 
Y1 denota el tiempo que transcurre hasta la primera llegada, Y2 denota el tiempo entre la pri-
mera y la segunda llegadas, . . . , y Yn denota el tiempo entre la llegada del primer (n − 1) 
cliente y la n-ésima llegada, entonces se puede demostrar que Y1, Y2, . . . , Yn son variables 
aleatorias independientes, con la función de densidad para Yi dada por
fYi (yi ) =
1
u
e−yi/u , yi > 0,
0, en cualquier otro punto.
[Como las variables Yi, para i = 1, 2, . . . , n, están distribuidas exponencialmente, se deduce 
que E(Yi) = u; esto es, u es el tiempo promedio que transcurre entre llegadas.] Encuentre la 
función de densidad de probabilidad para el tiempo de espera desde que se abre la caja de sa-
lida hasta que llega el n-ésimo cliente. (Si Y1, Y2,… denotan tiempos sucesivos entre llegadas, 
buscamos la función de densidad de U = Y1 + Y2 + ⋅ ⋅ ⋅ + Yn.)
 Solución Para aplicar el Teorema 6.2 debemos conocer primero mYi (t), i = 1, 2, . . . , n. Como cada 
una de las Yi está distribuida exponencialmente con media u, mYi (t) = (1 − ut)−1 y, por el 
Teorema 6.2,
mU (t) = mY1 (t) × mY1 (t) × × mYn (t)
= (1 − ut)−1 × (1 − ut)−1 × × (1 − ut)−1 = (1 − ut)−n .
. . .
. . .
Ésta es la función generadora de momento de una variable aleatoria con distribución gamma 
y a= n y b = u. El Teorema 6.1 implica que U en realidad tiene esta distribución gamma y 
por tanto que
 fU (u) =
1
n)un
(un−1e−u/u ), u > 0,
0, en cualquier otro punto.
 
Q
06-Wakerly.indd 32006-Wakerly.indd 320 27/7/09 02:42:4127/7/09 02:42:41
320 Capítulo 6 Funciones de variables aleatorias
El método de las funciones generadoras de momento es con frecuencia muy útil para hallar 
las distribuciones de sumas de variables aleatorias independientes.
 TEOREMA 6.2 Sean Y1, Y2, . . . , Yn variables aleatorias independientes con funciones generadoras de 
momento mY1 (t), mY2 (t), . . . , mYn (t), respectivamente. Si U = Y1 + Y2 + ⋅ ⋅ ⋅ + Yn, 
entonces
mU (t) = mY1 (t) × mY2 (t) × ×. . . mYn (t).
 Demostración Sabemos que, como las variables aleatorias Y1, Y2, . . . , Yn son independientes (vea el 
Teorema 5.9),
mU (t) = E et (Y1+· · ·+Yn ) = E etY1 etY2 etYn
= E etY1 × E etY2 × × E etYn .. . .
. . .
 Entonces, por la defi nición de funciones generadoras de momentos,
mU (t) = mY1 (t) × mY2 (t) × × mYn (t).. . .
 EJEMPLO 6.12 La cantidad de clientes que llegan a una caja para pagar en un intervalo determinado de tiempo 
posee aproximadamente una distribución de probabilidad de Poisson (vea la Sección 3.8). Si 
Y1 denota el tiempo que transcurre hasta la primera llegada, Y2 denota el tiempo entre la pri-
mera y la segunda llegadas, . . . , y Yn denota el tiempo entre la llegada del primer (n − 1) 
cliente y la n-ésima llegada, entonces se puede demostrar que Y1, Y2, . . . , Yn son variables 
aleatorias independientes, con la función de densidad para Yi dada por
fYi (yi ) =
1
u
e−yi/u , yi > 0,
0, en cualquier otro punto.
[Como las variables Yi, para i = 1, 2, . . . , n, están distribuidas exponencialmente, se deduce 
que E(Yi) = u; esto es, u es el tiempo promedio que transcurre entre llegadas.] Encuentre la 
función de densidad de probabilidad para el tiempo de espera desde que se abre la caja de sa-
lida hasta que llega el n-ésimo cliente. (Si Y1, Y2,… denotan tiempos sucesivos entre llegadas, 
buscamos la función de densidad de U = Y1 + Y2 + ⋅ ⋅ ⋅ + Yn.)
 Solución Para aplicar el Teorema 6.2 debemos conocer primero mYi (t), i = 1, 2, . . . , n. Como cada 
una de las Yi está distribuida exponencialmente con media u, mYi (t) = (1 − ut)−1 y, por el 
Teorema 6.2,
mU (t) = mY1 (t) × mY1 (t) × × mYn (t)
= (1 − ut)−1 × (1 − ut)−1 × × (1 − ut)−1 = (1 − ut)−n .
. . .
. . .
Ésta es la función generadora de momento de una variable aleatoria con distribución gamma 
y a= n y b = u. El Teorema 6.1 implica que U en realidad tiene esta distribución gamma y 
por tanto que
 fU (u) =
1
n)un
(un−1e−u/u ), u > 0,
0, en cualquier otro punto.
 
Q
06-Wakerly.indd 32006-Wakerly.indd 320 27/7/09 02:42:4127/7/09 02:42:41
322 Capítulo 6 Funciones de variables aleatorias
 Demostración Como Yi está normalmente distribuida con media mi y varianza s
2
i , el resultado del 
Ejemplo 6.10 implica que Zi está normalmente distribuida con media 0 y varianza 1. 
Del Ejemplo 6.11, entonces tenemos que Z2i es una variable aleatoria con distribución 
x2 con 1 grado de libertad. En consecuencia,
m Z2i (t) = (1 − 2t)
−1/2,
 y del Teorema 6.2, con V = ni=1 Z2i ,
mV (t) = m Z21 (t) × m Z22 (t) × ⋅ ⋅ ⋅ × m Z2n (t)
= (1 − 2t)−1/ 2 × (1 − 2t)−1/2 × ⋅ ⋅ ⋅ × (1 − 2t)−1/2 = (1 − 2t)−n/2.
 Como las funciones generadoras de momento son únicas, V tiene una distribución x2 
con n grados de libertad.
El teorema 6.4 proporciona alguna aclaración de los grados de libertad asociados con una 
distribución x2. Si n es independiente, las variables aleatorias normales estándar se elevan al 
cuadrado y se suman y el resultado tiene una distribución x2 con n grados de libertad.
 Resumen del método de las funciones generadoras de momento
 Sea U una función de las variables aleatorias Y1, Y2, . . . , Yn.
 1. Encuentre la función generadora de momento para U, mU(t).
 2. Compare mU(t) con otras funciones generadoras de momento bien conocidas. Si 
mU(t) = mV(t) para todos los valores de t, el Teorema 6.1 implica que U y V tienen 
distribuciones idénticas.
Ejercicios
 6.37 Sean Y1, Y2, . . . , Yn variables aleatorias independientes e idénticamente distribuidas tales que para 0 < p 
< 1, P(Yi = 1) = p y P(Yi = 0) = q = 1 – p. (Tales variables aleatorias reciben el nombre de variables 
aleatorias de Bernoulli.)
 a Encuentre la función generadora de momento para la variable aleatoria Y1 de Bernoulli.
 b Encuentre la función generadora de momento para W = Y1 + Y2 + ⋅ ⋅ ⋅ + Yn.
 c ¿Cuál es la distribución de W?
 6.38 Sean Y1 y Y2 variables aleatorias independientes con funciones generadoras de momento mY1 (t) y mY2 (t),
respectivamente. Si a1 y a2 son constantes, y U = a1Y1 + a2Y2 demuestre que la función generadora de 
momento para U es mU (t) = mY1 (a1t) × mY2 (a2t).
 6.39 En los Ejercicios 6.11 y 6.25 consideramos dos componentes electrónicos que operan independiente-
mente, cada uno con una vida útil gobernada por la distribución exponencial con media 1. Use el método 
de las funciones generadoras de momento para obtener la función de densidad para el promedio de vida 
útil de los dos componentes.
06-Wakerly.indd 32206-Wakerly.indd 322 27/7/09 02:42:4227/7/09 02:42:42

Continuar navegando