Logo Studenta

Variáveis Aleatórias Bidimensionais

¡Este material tiene más páginas!

Vista previa del material en texto

Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 83 
5- VARIABLES ALEATORIAS BIDIMENSIONALES 
 
5.1 – Generalidades 
 
Hasta ahora hemos considerado el caso de variables aleatorias unidimensionales. Esto es, el resultado 
del experimento de interés se registra como un único número real. 
En muchos casos, sin embargo, nos puede interesar asociar a cada resultado de un experimento aleatorio, 
dos o más características numéricas. Por ejemplo, de los remaches que salen de una línea de producción 
nos puede interesar el diámetro X y la longitud Y. Teniendo en cuenta la inevitable variabilidad en las 
dimensiones de los remaches debido a las numerosas causas presentes en el proceso de fabricación, los 
podemos representar asociándoles dos variables aleatorias X e Y que pueden pensarse como una variable 
aleatoria bidimensional: ( )YX , . 
 
Sea ε un experimento aleatorio y S un espacio muestral asociado a él. Sean RSX →: , RSY →: , que 
a cada resultado Ss∈ le asignan el par de números reales ( )yx, 
Llamaremos a ( )YX , variable aleatoria bidimensional. 
Si en lugar de dos variables aleatorias, tenemos n variables aleatorias nXXX ,...,, 21 , llamaremos a 
( )nX,...,X,X 21 variable aleatoria n-dimensional 
 
En lo que sigue nos referiremos en particular a variables aleatorias n-dimensionales con n=2, es decir 
nos concentraremos en variables aleatorias bidimensionales por cuanto son las más simples de 
describir, fundamentalmente en relación a la notación. Pero debemos tener presente que las propiedades 
que estudiemos para ellas se pueden extender sin demasiada dificultad al caso general. 
 
Al conjunto de valores que toma la variable aleatoria bidimensional (X,Y) lo llamaremos recorrido de la 
v.a. (X,Y) y lo indicaremos XYR . En otras palabras ( ) ( ) ( )






∈=== SsconsYyesXx:y,xRXY , es 
decir, es la imagen por ( )Y,X del espacio muestral S. 
Notar que el recorrido de (X,Y) es un subconjunto del espacio Euclidiano: 2RRXY ⊆ . Como antes, 
puede considerarse al recorrido XYR como un espacio muestral cuyos elementos son ahora pares de 
números reales. 
 
Como con cualquier espacio muestral, según el número de elementos que lo constituyen, podemos 
clasificar a los recorridos XYR en numerables (finitos o infinitos) y no-numerables. 
Los recorridos numerables son, en general, de la forma 
( ) ( ) ( ) ( ){ }mnjiXY y,x,...,y,x,y,xm,..,jyn,...,,icony,xR 21112121 =






=== (finito) 
( ) ( ) ( ){ },...y,x,y,x,..,jy,...,icony,xR jiXY 21112121 =






=== (infinito numerable) 
 
Los recorridos no numerables son regiones o subconjuntos no numerables del plano Euclidiano. Por 
ejemplo: 
 
( )






≤≤≤≤= dyc;bxa:y,xRXY (no numerable) 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 84 
( ){ }1:, 22 ≤+= yxyxRXY (no numerable) 
 
( )






=≤≤= 321 c,c,cy,bxa:y,xR jjXY (no numerable “mixto”) 
 
cuyas gráficas se pueden apreciar en la figura siguiente. Notar en el último recorrido, X es v.a. continua 
e Y discreta. 
 
 
Clasificaremos a las variables aleatorias bidimensionales de la siguiente manera: 
( )Y,X es v.a. bidimensional discreta si X e Y son discretas 
( )Y,X es v.a. bidimensional continua si X e Y son continuas 
 El caso X continua, Y discreta (o viceversa) no lo consideramos. 
 
Sea ( )Y,X una variable aleatoria bidimensional discreta y sea XYR su recorrido (numerable). Sea 
RR:p XY → una función que a cada elemento ( )ji y,x le asigna un número real ( )ji y,xp tal que 
( ) ( )
XYjijiji Ry,xy,xpyY,xXP ∈∀=





== y que verifica. 
a) ( ) ( ) XYjiji Ry,xy,xp ∈∀≥ 0 
b) ( ) ( )
( )
∑ ∑∑
∈
==
XYji Ryx
ji
i j
ji yxpyxp
,
1,, 
A esta función la llamaremos función de probabilidad puntual conjunta de la variable aleatoria 
bidimensional ( )Y,X . En forma abreviada la designaremos fdp conjunta. 
 
Sea ( )Y,X una variable aleatoria bidimensional continua y sea XYR su recorrido (no numerable). Sea 
RR:f XY → una función que, a cada punto ( )y,x de XYR le asigna un número real ( )y,xf tal que 
( ) ( ) RBdxdyyxfBP
B
⊆∀= ∫∫ , y que verifica. 
a) ( ) ( ) 2,0, Ryxyxf ∈∀≥ 
b) ( ) 1,
2
=∫∫
R
dxdyyxf . 
A esta función la llamaremos función de densidad de probabilidad conjunta de la variable aleatoria 
bidimensional ( )Y,X . En forma abreviada la designaremos también fdp conjunta. 
 
0 
0 
0 
0 
0 a b x 
c 
d 
y y y 
1 
2 
3 
1 2 a b x 
RXY 
c1 
c2 
c3 
-1 
-1 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 85 
Ejemplos: 
1-Dos líneas de producción, señaladas I y II, manufacturan cierto tipo de artículo a pequeña escala. 
Supóngase que la capacidad máxima de producción de la línea I es cinco artículos por día, mientras que 
para la línea II es 3 artículos/día. Debido a los innumerables factores presentes en todo proceso de 
producción, el número de artículos realmente producido por cada línea puede pensarse como una 
variable aleatoria. En conjunto podemos pensar en una variable aleatoria bidimensional ( )Y,X discreta, 
donde la primera componente X corresponde a la producción de la línea I y la segunda componente 
Y a los artículos que salen de la línea II. La fdp conjunta correspondiente a variables aleatorias 
bidimensionales suele presentarse, por comodidad, como una tabla. Supongamos que la para la v.a. 
( )Y,X que nos interesa aquí la tabla correspondiente a ( )ji y,xp es 
 
XY 0 1 2 3 4 5 
0 0 0.01 0.03 0.05 0.07 0.09 
1 0.01 0.02 0.04 0.05 0.06 0.08 
2 0.01 0.03 0.05 0.05 0.05 0.06 
3 0.01 0.02 0.04 0.06 0.06 0.05 
 
¿Cuál es la probabilidad de qué salgan más artículos de la línea I que de la línea II? 
 
Antes de calcular la probabilidad que nos pide el problema, hagamos algunas consideraciones sobre la 
tabla que representa a ( )ji y,xp . 
Se trata de una tabla a doble entrada donde en la primera fila se indican los valores que puede tomar la 
v.a. X (en este caso X=0,1,2,3,4,5) y la primera columna indica los valores que puede tomar la variable Y 
( 0,1,2,3). Para determinar el valor de la ( )ji y,xp cuando la v.a. ( )Y,X toma el valor ( )ji y,x 
consideramos el número que se encuentra en la columna correspondiente a ixX = y la fila 
correspondiente a jyY = . Por ejemplo: ( ) ( ) 0502424 .Y,XP,p ==== . 
Podemos verificar fácilmente que la fdp conjunta definida por esta bien definida. En efecto verifica las 
condiciones a) ( ) ( ) XYjiji Ry,xy,xp ∈∀≥ 0 y b) ( )
( )
∑
∈
=
XYji Ry,x
ji y,xp 1. 
Para contestar la pregunta del enunciado, consideremos el suceso XYRB ⊂ definido 
 
B: “es el suceso que ocurre cuando la línea I produce más artículos que la línea II” o, 
{ }YXB >= . Luego: 
( ) ( ) ( )∑ ∑
= >
==>=
3
0j jiy yx
ji y,xpYXPBP 0.01+0.03+0.05+0.07+0.09+0.04+0.05+0.06+0.08+ 
 +0.05+0.05+0.06+0.06+0.05=0.75. 
 
2- Hay tres cajas registradoras a la salida de un supermercado. Dos clientes llegan a las cajas en 
diferentes momentos cuando no hay otros clientes ante aquellas. Cada cliente escoge una caja al azar e 
independientemente del otro. 
Sean las variables aleatorias X: “ nº de clientes que escogen la caja 1” e Y: “nº de clientes que escogen la 
caja 2”. Hallar la fdp conjunta de (X,Y) 
 
Podemos suponer que el espacio muestral original S es el conjunto de pares ordenados 
{ })3,3();2,3();1,3();3,2();2,2();1,2();3,1();2,1();1,1(=S donde la primera componente del par indica la 
caja elegida por el cliente 1 y lasegunda componente del par indica la caja elegida por el cliente 2. 
Además notar que X como Y pueden tomar los valores 0, 1, 2 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 86 
El punto muestral (3,3) es el único punto muestral que corresponde al evento { }0,0 == YX 
Entonces 
9
1
)0,0( === YXP ; pensando de forma análoga los otros casos: 
9
2
)0,1( === YXP ; 
9
1
)0,2( === YXP ; 
9
2
)1,0( === YXP , 
9
2
)1,1( === YXP , 
9
1
)2,0( === YXP ; 0)2,2()2,1( ====== YXPYXP 
Disponemos estas probabilidades en una tabla de la siguiente forma 
 
 
 
 
 
 
 
3- Supongamos que una partícula radiactiva se localiza aleatoriamente en un cuadrado con lados de 
longitud unitaria. Es decir, si se consideran dos regiones de la misma área, la partícula tendrá igual 
probabilidad de estar en cualquiera de ellas. Sean X e Y las coordenadas que localizan la partícula. Un 
modelo adecuado para la distribución conjunta de X e Y sería considerar a (X, Y) continua con fdp dada 
por 
 
 


 ≤≤≤≤
=
contrario caso 0
10 ;10 si 1
),(
yx
yxf 
 
Es conveniente hacer un gráfico en el plano del dominio de la fdp 
 
 
Nos preguntamos cuál es la probabilidad de que la 
coordenada en x sea menor que 0.2 y la 
coordenada en y menor que 0.4 , es decir, cuál es la 
)4.0,2.0( ≤≤ YXP . Para calcularla, graficamos en 
el plano xy la región que corresponde al evento 
intersección la región que es dominio de la fdp 
 
 
 
 
 
Por lo tanto 
∫ ∫ =×==≤≤
4.0
0
2.0
0
08.04.02.01)4.0,2.0( dxdyYXP 
 
 
 
 
Y \ X 0 1 2 
0 1/9 2/9 1/9 
1 2/9 2/9 0 
2 1/9 0 0 
 
{ }4.0,2.0 ≤≤ YX 
 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 87 
En este ejemplo la fdp es un caso particular de v.a. bidimensional uniformemente distribuida 
Diremos que una variable aleatoria bidimensional continua está uniformemente distribuida en la región 
XYR del plano Euclidiano R si su función de densidad de probabilidad es 
( )
( )
( )



∉
∈
=
XY
XY
Ryxpara
Ryxparac
yxf
,0
,
, 
 
Puesto que la condición de normalización exige ( )∫∫ ∫∫ ==
2
1,
R RXY
cdxdydxdyyxf debe ser 
 
( )XYRárea
c
1
= 
 
A una v.a. ( )Y,X bidimensional continua uniformemente distribuida en su recorrido XYR la indicaremos 
X∼ [ ]XYRU . 
Por ejemplo, supongamos que la v.a. ( )Y,X está distribuida uniformemente en el recorrido XYR que se 
muestra en la figura. ¿Cuál es su fdp conjunta? 
 
 
De la figura calculamos el área del recorrido: 
 
( ) ( )∫ ∫∫ =−==
1
0
1
0
2
6
1
2
dxxxdydxRárea
x
x
XY . Por lo tanto 
 
( )
( )



 ≤≤≤≤
=
puntosdemáslospara
xyxxquetalyxpara
yxf
0
,10,6
,
2
 
 
5.2 - Funciones de distribución marginales de una v.a. (X,Y) discreta 
 
En el ejemplo 1, supongamos que queremos saber cuál es la probabilidad de que el número de artículos 
producidos por la línea I sea 2, o sea )2( =XP 
Como el evento { }2=X es igual a { } { } { } { } { }( )32102 =∪=∪=∪=∩= YYYYX , y a su vez 
0 
0 
1 
2 
y 
1 2 3 x 
y = x 
y = x
2
 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 88 
{ } { } { } { } { }( )
{ } { }( ) { } { }( ) { } { }( ) { } { }( )32221202
32102
=∩=∪=∩=∪=∩=∪=∩==
==∪=∪=∪=∩=
YXYXYXYX
YYYYX
 
Entonces 
 
( )
{ } { }( ) { } { }( ) { } { }( ) { } { }( )
∑
=
=====+==+==+===
==∩=+=∩=+=∩=+=∩==
==
3
0
),2()3,2()2,2()1,2()0,2(
32221202
2
j
jYXPYXPYXPYXPYXP
YXPYXPYXPYXP
XP
 
Razonando de la misma forma podemos escribir 
( ) 5,...,1,0 ),(
3
0
===== ∑
=
ijYiXPiXP
j
 
Es decir obtenemos la función de distribución de probabilidad de X 
 
Análogamente obtenemos 
( ) 3,2,1,0 ),(
5
0
===== ∑
=
jjYiXPjYP
i
 
Que es la función de distribución de probabilidad de Y 
 
En general se las denomina distribuciones marginales de X e Y, y su definición sería la siguiente 
 
Sea (X,Y) discreta y sea ( )ji y,xp (i=1,2,…n, j=1,2,…,m) su función de probabilidad conjunta 
(Eventualmente n y/o m pueden ser ∞ ). 
 
La función de probabilidad marginal de X es 
 
( ) ( ) ( )∑
=
===
m
j
jiii yxpxXPxp
1
, (i=1,2,…,n) 
 
La función de probabilidad marginal de Y es 
 
( ) ( ) ( )∑
=
===
n
i
jijj yxpyYPyq
1
, (j=1,2,…,m) 
 
Observación: Remarcamos que la función de probabilidad marginal de X, es decir ( )ixp calculada a 
partir de ( )ji y,xp en la forma indicada, coincide con la función de probabilidad de la variable aleatoria 
unidimensional X considerada en forma aislada. Análogamente la función de probabilidad marginal de 
Y, es decir ( )jyq calculada a partir de ( )ji y,xp en la forma indicada, coincide con la función de 
probabilidad de variable aleatoria unidimensional Y considerada en forma aislada. 
 
Ejemplo: 
Siguiendo con el ejemplo 1, 
 
( ) ( ) ( ) ( ) ( ) ( )
280
0500600800903525150555
.
....,p,p,p,pXPp
=
+++=+++===
 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 89 
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
260
06005004002001015141312111011
.
.....,p,p,p,p,p,pYPq
=
++++=+++++===
 
Observemos que se verifica la condición de normalización para cada una de las marginales: 
( )∑
=
=+++++=
5
0
1280240210160080030
ix
i ......xp 
( )∑
=
=+++=
3
0
1240250260250
jy
j ....yq 
 
5.3 - Funciones de distribución marginales de una v.a. (X,Y) continua 
 
En el ejemplo 3 supongamos que queremos hallar la probabilidad de que la coordenada x de la partícula 
sea menor o igual a 0.2, es decir )2.0( ≤XP . Podemos escribir 
 
2.01),() ,2.0()2.0(
2.0
0
1
0
2.0
0
===∞<<∞−≤=≤ ∫ ∫∫ ∫
∞
∞−
dydxdydxyxfYXPXP 
En general si queremos hallar )( xXP ≤ podemos plantear 
 
∫∫ ∫
∞−∞−
∞
∞−
==∞<<∞−≤=≤
xx
dxxgdydxyxfYxXPxXP )(),() ,()( 
donde ∫
∞
∞−
= )(),( xgdyyxf 
Por definición de fdp debe ser )(xg la fdp de la v.a. X 
 
Análogamente 
∫∫ ∫
∞−∞−
∞
∞−
==≤∞<<−∞=≤
yy
dxxhdxdyyxfyYXPyYP )(),() ,()( 
donde ∫
∞
∞−
= )(),( xhdyyxf 
Por definición de fdp debe ser )(xh la fdp de la v.a. Y 
 
En general: 
Sea (X,Y) continua y sea ( )y,xf su función de densidad de probabilidad conjunta. 
La función de densidad de probabilidad marginal de X es: 
 
( ) ( )dyy,xfxg ∫
∞
∞−
= 
 
La función de densidad de probabilidad marginal de Y es: 
 
( ) ( )dxy,xfyh ∫
∞
∞−
= 
 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 90 
Observación: Remarcamos aquí también que la función de de densidad de probabilidad marginal de X, 
es decir ( )xg , calculada a partir de ( )y,xf en la forma indicada, coincide con la función de densidad de 
probabilidad de variable aleatoria unidimensional X considerada en forma aislada. Análogamente la 
función de densidad de probabilidad marginal de Y, es decir ( )yh calculada a partir de ( )y,xf en la 
forma indicada, coincide con la función de densidad de probabilidad de variable aleatoria 
unidimensional Y considerada en forma aislada. De manera que podemos calcular probabilidades como, 
por ejemplo 
 
( ) ( )
( )∫
∫ ∫
=
==





∞<<∞−≤≤=≤≤
∞
∞−
b
a
b
a
dxxg
dydxy,xfY,bXaPbXaP
 
 
Ejemplo: Consideremos nuevamente la v.a. continua (X,Y) uniformemente distribuida cuyo recorrido 
XYR dibujamos otra vez 
 
 
 
Ya vimos que la fdp está dada por 
 
( )
( )



 ≤≤≤≤
=
puntosdemáslospara
xyxxquetalyxpara
yxf
0
,10,6
,
2
 
 
Entonces las funciones de densidadde probabilidad de X e Y son 
 
( )
( ) ( )





≤≤−==
=
∫∫
∞
∞−
valoresdemáslospara
xxxdydyy,xf
xg
x
x
0
1066
2
2
 
 
( )
( ) ( )






≤≤−==
= ∫∫
∞
∞−
valoresdemáslospara
yyydxdxyxf
yh
y
y
0
1066,
 
0 
0 
1 
2 
y 
1 2 3 x 
y = x 
y = x
2
 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 91 
 
5.4 - Funciones de probabilidades condicionales 
 
Caso discreto 
Consideremos nuevamente el ejemplo de las dos líneas I y II que producen cierto artículo a pequeña 
escala. Definimos la v.a. ( )Y,X cuya función de probabilidad conjunta ( )ji y,xp está dada por la tabla 
anterior que repetimos 
XY 0 1 2 3 4 5 q(yj) 
0 0 0.01 0.03 0.05 0.07 0.09 0.25 
1 0.01 0.02 0.04 0.05 0.06 0.08 0.26 
2 0.01 0.03 0.05 0.05 0.05 0.06 0.25 
3 0.01 0.02 0.04 0.06 0.06 0.05 0.24 
p(xi) 0.03 0.08 0.16 0.21 0.24 0.28 1 
 
Supongamos que deseamos conocer la probabilidad de que la línea I produzca tres artículos sabiendo 
que la línea II ha fabricado dos. Tenemos que calcular una probabilidad condicional. Entonces 
( )
( )
( )
( )
2.0
25.0
05.0
2
2,3
2
2,3
23 ===
=






==
===
q
p
YP
YXP
YXP 
 
En general definimos la función de probabilidad puntual de X condicional a Y como sigue: 
( ) ( ) ( )( )j
ji
jiji
yq
y,xp
yYxXPyxp ==== , es decir como el cociente de la función de probabilidad 
conjunta de ( )Y,X y la función de probabilidad puntual marginal de Y. 
 
 
Análogamente, definimos la función de probabilidad puntual de Y condicional a X : 
( ) ( ) ( )
( )i
ji
ijij
xp
y,xp
xXyYPxyq ==== , es decir como el cociente de la función de probabilidad puntual 
conjunta de ( )Y,X y la función de probabilidad puntual marginal de X. 
 
 
b) Caso continuo 
Como ocurre con la variables aleatoria continuas en general, el definir la probabilidad condicional de 
ocurrencia de un valor dado de una de las variables aleatorias del par ( )Y,X supuesto que ocurrió la 
otra, presenta las dificultades conocidas relacionadas con el hecho de que la probabilidad de un punto es 
cero. Entonces probabilidades tales como ( )ji yYxXP == tienen el problema que ( ) 0== jyYP . 
 
Sea ( )Y,X una variable aleatoria bidimensional continua cuya fdp conjunta es ( )y,xf . Sean ( )xg y 
( )yh la fdp marginales de X e Y, respectivamente. Definimos la función de densidad de probabilidad de 
X condicional a que Y=y, a la que denotaremos ( )yxg , de la siguiente manera: 
 
( ) ( )
( )
( ) 0>= yhcon
yh
y,xf
yxg . 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 92 
Análogamente, la función de densidad de probabilidad de Y condicional a que X=x, a la que 
denotaremos ( )xyh , se define: 
 
( ) ( )
( )
( ) 0>= xgcon
xg
y,xf
xyh . 
 
De acuerdo con estas definiciones, podemos calcular, por ejemplo, 
 
( ) ( )
( )
( )ch
dxc,xf
dxcxgcYbXaP
b
a
b
a
∫
∫ ===≤≤ 
 
Observemos que si quisiéramos calcular esta probabilidad usando la fdp conjunta, es decir, refiriéndonos 
al recorrido completo, llegaríamos a una indeterminación: 
 
( ) ( ) ( )[ ]
( )
( )
( ) 0
0
==
=
=≤≤
==≤≤
∫ ∫
∫ ∫
∞+
∞−
c
c
b
a
c
c
y,xdyfdx
y,xdyfdx
cYP
cYbXaP
cYbXaP
I
. 
 
Notar la diferencia entre la función de densidad de probabilidad condicional ( )yxg y la función de 
densidad de probabilidad marginal ( )xg : 
 
( ) ( )bXaPdxxg
b
a
≤≤=∫ , mientras que 
 
( ) ( )∫ =≤≤=
b
a
yYbXaPdxyxg . 
 
Ejemplo: 
Una máquina vendedora de refrescos se llena al principio de un día dado con una cantidad aleatoria Y, y 
se despacha durante el día una cantidad aleatoria X (medida en galones). No se le vuelve a surtir durante 
el día y entonces YX ≤ 
Se ha observado que (X,Y) tienen la densidad conjunta 
 
 
 
 
¿Cuál es la probabilidad de que se venda menos de ½ 
galón, dado que la máquina contiene 1 galón al inicio del 
día? 
 
Solución: Primero es conveniente hacer un gráfico de la 
 región del plano donde la densidad conjunta 
está definida 
 


 ≤≤≤≤
=
contrario caso 0
20 ;0 si 2/1
),(
yyx
yxf 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 93 
 
Hallamos la densidad condicional de X dado Y. Para esto primero encontramos la fdp marginal de Y 
 


 ≤≤
=





≤≤== ∫∫
∞
∞− contrario caso 0
2y0 si )2/1(
 
contrario caso 0
20 si )2/1(
),()(
0
yydx
dxyxfyh
y
 
 
Entonces la densidad condicional es 
 



 ≤≤<
=



 ≤≤<
==
contrario caso 0
20 si 
1
 
contrario caso 0
20 si 
)2/1(
2/1
)(
),(
)|(
yx
y
yx
y
xg
yxf
xyh 
 
La probabilidad que interesa es 
 
( )
2
1
1)1|()1|2/1(
2/1
0
2/1
∫∫ =====≤
∞−
dxdxyxfYXP 
 
Notar que si la máquina hubiera contenido 2 galones al principio del día, entonces 
 
4
1
)1|()2|2/1(
2/1
0
2
1
2/1
∫∫ =====≤
∞−
dxdxyxfYXP 
 
Así la probabilidad condicional que 2/1≤X depende de la elección de Y 
 
 
5.5 – Variables aleatorias independientes 
 
Ya se discutió el concepto de independencia entre dos eventos A y B. Esas mismas ideas podemos 
trasladarlas en relación a dos variables aleatorias X e Y que, eventualmente, podemos considerarlas como 
las componentes de una variable aleatoria bidimensional ( )Y,X . 
De acuerdo con esto, intuitivamente decimos que dos variables, X e Y, son independientes si el valor que 
toma una de ellas no influye de ninguna manera sobre el valor que toma la otra. Esto lo establecemos 
más formalmente: 
 
a) Sea ( )Y,X una variable aleatoria bidimensional discreta. Sea ( )ji y,xp su fdp conjunta y ( )ixp y 
( )
jyq las correspondientes fdp marginales de X e Y. Decimos que X e Y son variables aleatorias 
independientes si y sólo si 
 
 ( ) ( ) ( ) ( ) XYjijiji Ry,xyqxpy,xp ∈∀= 
b) Sea ( )Y,X una variable aleatoria bidimensional continua. Sea ( )y,xf su fdp conjunta y ( )xg y ( )yh 
las correspondientes fdp marginales de X e Y. Decimos que X e Y son variables aleatorias 
independientes si y sólo si 
 
( ) ( ) ( ) ( ) 2Ry,xyhxgy,xf ∈∀= 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 94 
 
Observación: Notar que para poder afirmar la independencia de X e Y debe cumplirse la factorización 
de la fdp conjunta como producto de las fdp marginales para todos los pares de valores de la v.a. ( )Y,X . 
Por lo tanto, para verificar la independencia es necesario demostrar la validez de la factorización para 
todos los pares. En cambio, es suficiente encontrar un solo par que no la verifica, para afirmar, de 
acuerdo con la definición, que las variables X e Y son no independientes, es decir, que son dependientes. 
Esto es, para demostrar la dependencia es suficiente con encontrar un solo par que no verifique la 
factorización señalada. 
 
Vimos que dos sucesos A y B son independientes si y sólo si ( ) ( )APBAP = y ( ) ( )BPABP = (donde 
por supuesto debía ser ( ) 0≠AP y ( ) 0≠BP ). En términos de variables aleatorias, esta forma de ver la 
independencia se manifiesta en la igualdad entre las fdp condicionales y las correspondientes fdp 
marginales, como demostramos en este 
 
Teorema 
a) Sea ( )Y,X una variable aleatoria bidimensional discreta cuyas fdp conjunta, condicionales y 
marginales son, respectivamente, ( )ji y,xp ; ( )ji yxp , ( )ij xyq y ( )ixp , ( )jyq . 
 Entonces, X e Y son variables aleatorias independientes si y sólo si 
 
 
a1) ( ) ( ) ( ) XYjiiji Ry,xxpyxp ∈∀= , o 
a2) () ( ) ( ) XYjijij Ry,xyqxyq ∈∀= , que es equivalente a lo anterior 
 
b) Sea ( )Y,X una variable aleatoria bidimensional continua cuyas fdp conjunta, condicionales y 
marginales son, respectivamente, ( )y,xf ; ( )yxg , ( )xyh y ( )xg , ( )yh . 
 Entonces, X e Y son variables aleatorias independientes si y sólo si 
 
b1) ( ) ( ) ( ) 2Ry,xxgyxg ∈∀= , o 
b2) ( ) ( ) ( ) 2Ry,xyhxyh ∈∀= , que es equivalente al anterior. 
 
Dem.) 
a) Demostraremos solamente a1). La equivalencia entre a1) y a2) la dejamos como ejercicio. 
Para demostrar a1) verificaremos la doble equivalencia entre ésta y la definición de v.a. independientes. 
⇒ ) 
Sean X e Y variables aleatorias independientes. Entonces ( ) XYji Ry,x ∈∀ 
( ) ( )( )
( ) ( )
( ) ( )ij
ji
j
ji
ji xp
yq
yqxp
yq
y,xp
yxp === 
Aquí la primera igualdad es la definición de fdp condicional y la segunda sale de la definición de 
independencia al suponer que X e Y son independientes. 
⇐ ) 
Supongamos que se verifica a1). Entonces ( ) XYji Ry,x ∈∀ 
 ( ) ( ) ( )( ) ( ) ( ) ( ) ( )jijiij
ji
iji yqxpy,xpxp
yq
y,xp
xpyxp =→=→= → X e Y independientes 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 95 
Aquí, la primera implicación se debe a la definición de fdp condicional y la tercera a la definición de v.a. 
independientes. 
 
b) También demostramos sólo b1) y dejamos como ejercicio demostrar la equivalencia entre b1) y b2). 
 
⇒ ) 
Sean X e Y variables aleatorias independientes. Entonces ( ) 2Ry,x ∈∀ 
( ) ( )
( )
( ) ( )
( )
( )xg
yh
yhxg
yh
y,xf
yxg === 
Aquí la primera igualdad es la definición de fdp condicional y la segunda sale de la definición de 
independencia al suponer que X e Y son independientes. 
⇐ ) 
Supongamos que se verifica b1). Entonces ( ) 2Ry,x ∈∀ 
 ( ) ( ) ( )
( )
( ) ( ) ( ) ( )yhxgy,xfxg
yh
y,xg
xgyxg =→=→= → X e Y independientes. 
Aquí, la primera implicación se debe a la definición de fdp condicional y la tercera a la definición de v.a. 
independientes. 
 
Ejemplos: 
1- Supongamos que una máquina se usa para un trabajo específico a la mañana y para uno diferente en 
la tarde. Representemos por X e Y el número de veces que la máquina falla en la mañana y en la tarde 
respectivamente. Supongamos que la tabla siguiente da la función de probabilidad conjunta ( )ji y,xp de 
la variable aleatoria bidimensional discreta ( )Y,X . 
 
Y/X 0 1 2 q(yj) 
0 0.1 0.2 0.2 0.5 
1 0.04 0.08 0.08 0.2 
2 0.06 0.12 0.12 0.3 
P(xi) 0.2 0.4 0.4 1 
 
Deseamos saber si las variables aleatorias X e Y son independientes o dependientes. 
Para demostrar que son independientes debemos probar que se verifica ( ) XYji Ry,x ∈∀ 
 ( ) ( ) ( )jiji yqxpy,xp = Verificamos directamente que 
 
( ) ( ) ( ) 5020001000 ..qp.,p ×=== 
( ) ( ) ( ) 20201004010 ..qp.,p ×=== 
( ) ( ) ( ) 30202006020 ..qp.,p ×=== 
( ) ( ) ( ) 5040012001 ..qp.,p ×=== 
( ) ( ) ( ) 20401108011 ..qp.,p ×=== 
( ) ( ) ( ) 30402112021 ..qp.,p ×=== 
( ) ( ) ( ) 5040022002 ..qp.,p ×=== 
( ) ( ) ( ) 20401208012 ..qp.,p ×=== 
( ) ( ) ( ) 30402212022 ..qp.,p ×=== 
 
Luego X e Y son independientes. 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 96 
 
Podríamos haber usado las condiciones a1) ( ) ( ) ( ) XYjiiji Ry,xxpyxp ∈∀= , o su equivalente 
a2) ( ) ( ) ( ) XYjijij Ry,xyqxyq ∈∀= . Veamos, como muestra para un solo valor, que se verifica 
( ) ( )
( )
( )240
20
080
1
12
12 p.
.
.
q
,p
p ==== . Para demostrar la independencia por este camino habría que 
demostrar que se cumple la condición para el resto de los pares de valores. Se deja este cálculo como 
ejercicio optativo. 
 
2- Sean X e Y v.a. continuas que representan el tiempo de vida de dos dispositivos electrónicos. 
Supongamos que la fdp conjunta de la v.a. continua ( )Y,X es: 
 
( )
( )



 ∞<≤∞<≤
=
+−
valoresdemáslospara0
0,0
,
yxe
yxf
yx
 
 
Deseamos saber si X e Y son variables aleatorias independientes. 
 Calculamos las fdp marginales de X e Y : 
 
 ( ) ( ) ( ) xyx edyedyy,xfxg −
+∞
+−
+∞
∞−
∫∫ ===
0
 
 ( ) ( ) ( ) yyx edxedxy,xfyh −
+∞
+−
+∞
∞−
∫∫ ===
0
 
Luego las marginales son: 
 
 ( )



 ∞<≤
=
−
valoresdemáslospara
xe
xg
x
0
0
 
 ( )



 ∞<≤
=
−
valoresdemáslospara
ye
yh
y
0
0
 
Vemos que efectivamente 
 ( ) ( ) ( )
( )



 ∞<≤∞<≤=
==
−−+−
valoresdemáslospara0
0,0
,
yxeee
yhxgyxf
yxyx
 
Es decir X e Y son v.a. independientes. 
 
También podemos verificar la condición b1): 
 
 ( ) ( )
( )
( )
( )xg
xe
e
e
yh
yxf
yxg
x
y
yx
=










∞<≤=
==
−
−
+−
valoresdemáslospara0
0,
 ( ) 2Ry.x ∈∀ 
 
 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 97 
3- Consideremos un ejemplo donde no se verifica la independencia. 
 
Sea una v.a.b cuya fdp conjunta es 
 
( )



 ≤≤≤
=
valoresdemáslospara0
108
,
yxxy
yxf 
 
En la figura siguiente mostramos el recorrido 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Calculamos las fdp marginales de X e Y : 
 
 ( )
( )





≤≤−=
=
∫
valoresdemáslospara0
10148
1
2
x
xxxxydy
xg 
 ( )





≤≤=
= ∫
valoresdemáslospara0
1048
0
3
y
yyxydx
yh 
y podemos apreciar que para 10 ≤≤≤ yx en general es 
 
 ( ) ( ) ( ) ( )yhxgyxxxyy,xf =−≠= 321168 . 
 
Luego X e Y son variables aleatorias dependientes. 
 
Observaciones 
1- De la definición de las fdp marginales, vemos que tanto en el caso discreto como en el continuo, la 
fdp conjunta determina unívocamente las fdp marginales. Es decir, si ( )Y,X es discreta del 
conocimiento de la función de probabilidad conjunta ( )ji y,xp podemos determinar unívocamente las 
funciones de probabilidad ( )ixp y ( )jyq . Análogamente, si ( )Y,X es continua del conocimiento de la 
0 
0 
1 
2 
y 
1 2 3 
x 
y = x 
RXY 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 98 
función de densidad de probabilidad conjunta ( )y,xf podemos determinar unívocamente las funciones 
de densidad ( )xg y ( )yh . Sin embargo la inversa no se cumple en general. Es decir del conocimiento de 
( )ixp y ( )jyq no se puede, en general, reconstruir ( )ji y,xp a menos que X e Y sean variables 
independientes en cuyo caso es ( ) ( ) ( )jiji yqxpy,xp = y, análogamente, en el caso continuo, del 
conocimiento de ( )xg y ( )yh no se puede construir en general ( )y,xf excepto cuando X e Y son 
independientes en cuyo caso puedo escribir ( ) ( ) ( )yhxgy,xf = 
 
2- Podemos observar del último ejemplo, que puede ocurrir que aún cuando la función ( )y,xf ya esté 
escrita en forma factorizada como una función sólo de x por una función sólo de y, las variables X e Y 
no sean independientes puesto que el dominio es tal que hace que las variables sean dependientes. Así, 
en el ejemplo anterior, el recorrido ( ){ }10 ≤≤≤= yx:Y,XRXY condiciona los valores que toma x a 
los valores que toma y. 
 
3- El concepto de independencia entre dos variables aleatorias se puede generalizar a n variables 
aleatorias nXXX ,...,, 21 
 
 
5.6 - Función de una variable aleatoria bidimensional 
 
Existen muchas situaciones en las que dado una variable aleatoria bidimensional nos interesa considerar 
otra variable aleatoria que es función de aquélla. Por ejemplo, supongamosque las variables aleatorias X 
e Y denotan la longitud y el ancho, respectivamente, de una pieza, entonces YXZ 22 += es una v.a. que 
representa el perímetro de la pieza, o la v.a. YXW .= representa el área de la pieza. Tanto Z como W 
son variables aleatorias. 
 
En general, sea S un espacio muestral asociado a un experimento probabilístico ε , sean RS:X → e 
RS:Y → dos variables aleatorias que definen una variable aleatoria bidimensional ( )Y,X cuyo 
recorrido es XYR , y sea una función de dos variables reales RR:H XY → que a cada elemento ( )y,x del 
recorrido XYR le hace corresponder un número real ( )y,xHz = , entonces la función compuesta 
( ) RSYXHZ →= :, es una variable aleatoria, puesto que a cada elemento Ss∈ le hace corresponder 
un número real ( ) ( )[ ]sY,sXHz = . Diremos que la variable aleatoria Z es función de la variable 
aleatoria bidimensional (X,Y). 
 
Algunas variables aleatorias que son función de variables aleatorias bidimensionales son YXZ += , 
Y.XZ = , Y/XZ = , ( )Y,XmínZ = , ( )Y,XmáxZ = , etc. 
 
Lo anterior se puede generalizar si en lugar de dos variables aleatorias tenemos n variables aleatorias 
nXXX ,...,, 21 , y ( )nxxxHz ,..., 21= es una función de n variables a valores reales. 
 
Ejemplos: 
1- Sea ),(~ pnBZ 
Podemos escribir a Z como suma de variables aleatorias de la siguiente forma. 
Recordar que Z cuenta el número de éxitos en n repeticiones o ensayos del experimento ε 
Si definimos 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 99 



 −
=
contrariocaso
éxitoocurrederepeticiónésimaílaensi
X i 0
1 ε
 ni ,...,2,1= 
Notar que a cada iX se la puede considerar ),1( pB , y además nXXX ,...,, 21 son independientes 
Podemos escribir nXXXZ +++= ...21 
 
2- Sea Z v.a. binomial negativa con parámetros r y p, es decir ),( ~ prBNZ 
Si definimos 
1X : “número de repeticiones del experimento requeridos hasta el 1º éxito” 
2X : “número de repeticiones del experimento adicionales requeridos hasta el 2º éxito” 
3X : “número de repeticiones del experimento adicionales requeridos hasta el 3º éxito” 
 Y en general 
iX : “número de repeticiones del experimento adicionales después del (i-1)–ésimo éxito requeridos hasta 
 el i-ésimo éxito” 
 Entonces cada variable tiene distribución geométrica con parámetro p y rXXXZ +++= ...21 
 Notar además que rXXX ,...,, 21 son independientes 
 
 
Esperanza de una v.a. que es función de una v.a. bidimensional 
 
Sea una variable aleatoria bidimensional ( )Y,X cuya fdp conjunta es la función de probabilidad 
conjunta ( )ji y,xp si es discreta o la función de densidad de probabilidad conjunta ( )y,xf si es continua 
y sea una función real de dos variables ( )y,xHz = de manera que podemos definir una variable 
aleatoria Z que es función de la variable aleatoria bidimensional ( )Y,X de la forma ( )Y,XHZ = . Si la 
fdp de Z es ( )izq , si Z es discreta, o ( )zq si es continua, entonces la esperanza matemática de Z es, de 
acuerdo con la definición general, 
 
 ( ) ( )∑
∈
=
Xi Rx
ii zq.zZE (para Z discreta) 
 ( ) ( )∫
∞
∞−
= dzzzqZE (para Z continua) 
Nuevamente lo interesante es considerar la posibilidad de evaluar ( )ZE sin tener que calcular 
previamente la fdp de Z. El siguiente teorema nos muestra cómo hacerlo. 
 
Teorema Sea (X,Y) una variable aleatoria bidimensional y sea Z=H(X,Y) una variable aleatoria que es 
función de (X,Y). 
 
a) Si Z es variable aleatoria discreta que proviene de la variable aleatoria bidimensional discreta (X,Y) 
cuyo recorrido es XYR y su fdp conjunta es ( )ji y,xp , entonces: 
 
 ( ) ( )[ ] ( ) ( )
( )
∑
∈
==
XYji Ry,x
jiji y,xpy,xHY,XHEZE 
 
b) Si Z es variable aleatoria continua que proviene de la variable aleatoria continua bidimensional (X,Y) 
cuya fdp conjunta es ( )y,xf , entonces: 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 100 
 
 ( ) ( )[ ] ( ) ( )∫ ∫
∞
∞−
∞
∞−
== dxdyy,xfy,xHY,XHEZE . 
Dem.) sin demostración 
 
Ejemplo: 
Supongamos que debido a innumerables causas incontrolables la corriente i y la resistencia r de un 
circuito varían aleatoriamente de forma tal que pueden considerarse como variables aleatorias I y R 
independientes. Supongamos que las correspondientes fdp son: 
 
 ( )



 ≤≤
=
valoresdemás
ii
ig
0
102
 ( )





≤≤
=
valoresdemás
r
r
rh
0
30
9
2
 
Nos interesa considerar el voltaje r.iv = de manera que podemos definir la variable aleatoria R.IV = . 
Específicamente deseamos conocer el valor esperado o esperanza matemática del voltaje: ( )VE . 
Usando la propiedad establecida en el teorema anterior: 
 
( ) ( ) ( )didrr,if.r,iHVE ∫ ∫
∞
∞−
∞
∞−
= . Ahora bien, puesto que consideramos que I y R son variables aleatorias 
independientes, la fdp conjunta de la v.a. bidimensional (I,R) es simplemete el producto de las 
marginales o sea de las fdp de las variables aleatorias I y R tomadas como variables aleatorias 
unidimensionales: ( ) ( ) ( )rh.igr,if = , es decir: 
 
 ( )




 ≤≤≤≤
=
valoresdemás
ryisir.i
r,if
0
3010
9
2 2
 
 
Entonces 
 
 ( ) ( )
2
3
9
2
9
2
1
0
2
3
0
32
1
0
3
0
=== ∫∫∫∫ diidrrr.i.r.ididrVE 
 
Esperanza de una suma de variables aleatorias 
 
 
 
 
Dem.) en el teorema anterior consideramos yxyxH +=),( 
Si (X,Y) es discreta 
 
( ) ( )[ ] ( ) ( )
( )
=+=== ∑∑
∈∈
),()(,,,
),(,
j
Ryx
iji
Ryx
jiji yxpyxyxpyxHYXHEZE
XYjiXYji
 
Aplicando la propiedad distributiva y separando en dos sumas 
 
( ) =+=+= ∑∑∑
∈∈∈
),(),(),()(
),(),(),(
j
Ryx
ijji
Ryx
ij
Ryx
iji yxpyyxpxyxpyxZE
XYjiXYjiXYji
 
Sean X e Y dos variables aleatorias arbitrarias. Entonces ( ) ( ) ( )YEXEYXE +=+ . 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 101 
∑ ∑∑ ∑∑∑∑∑ =+=+=
j i
jij
i j
jiiji
i j
jji
i j
i yxpyyxpxyxpyyxpx ),(),(),(),( 
 
Pero )(),(∑ =
j
iji xpyxp y )(),(∑ =
i
jji yqyxp , por lo tanto 
)()()()( YEXEyqyxpx
j
jji
i
i +=+= ∑∑ 
 
Para el caso continuo la demostración es análoga, cambiando sumatorias por integrales. 
 
Podemos generalizar la propiedad anterior a un número finito cualquiera de variables aleatorias: 
 
 
(leeremos: “la esperanza de la suma es la suma de las esperanzas”) 
 
Dem.) Se deduce por inducción completa sobre el número n de variables aleatorias. 
 
 
 Observación: se deduce que la esperanza verifica la propiedad lineal: 
 
 ( )∑∑
==
=




 n
i
ii
n
i
ii XEaXaE
11
. 
 
Ejemplos: 
1- Vamos a aplicar algunas de las propiedades anteriores para calcular de una manera alternativa la 
esperanza matemática de una variable aleatoria X distribuida binomialmente. 
Sea entonces una v.a. X∼B(n,p). 
Ya vimos que podemos escribir nXXXX +++= ...21 donde cada iX se la puede considerar ),1( pB , 
y además nXXX ,...,, 21 son independientes 
Entonces 
pXPXPXPXE iiii ====×+=×= )1()0(0)1(1)( para cualquier i 
Por lo tanto 
( ) ( ) ( ) ( ) nppppXEXEXEXXXEXE
vecesn
nn =+++=+++=+++=
4434421
.........)( 2121 
Observación: muchas veces es convenientedescomponer una variable aleatoria como suma de otras más 
simples para facilitar los cálculos 
 
2- Esperanza de una v.a. binomial negativa 
Cuando se trató la v.a. binomial negativa se dijo cuál era su esperanza. Ahora damos una demostración 
Sea X v.a. binomial negativa con parámetros r y p, es decir ),( ~ prBNX 
Si definimos 
Sean nX,...,X,X 21 n variables aleatorias arbitrarias. Entonces: 
 
( ) ( ) ( ) ( )nn XE...XEXEX...XXE +++=+++ 2121 o, en notación más concentrada,: 
 
( )∑∑
==
=




 n
i
i
n
i
XEXE
11
1 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 102 
1X : “número de repeticiones del experimento requeridos hasta el 1º éxito” 
2X : “número de repeticiones del experimento adicionales requeridos hasta el 2º éxito” 
3X : “número de repeticiones del experimento adicionales requeridos hasta el 3º éxito” 
 Y en general 
iX : “número de repeticiones del experimento adicionales después del (i-1)–ésimo éxito requeridos hasta 
 el i-ésimo éxito” 
 Entonces cada variable tiene distribución geométrica con parámetro p y rXXXX +++= ...21 
Por lo tanto 
( ) ( ) ( ) ( )
p
r
p
r
ppp
XEXEXEXXXEXE
vecesr
rr ==+++=+++=+++=
11
...
11
......)( 2121
44 344 21
 
 
3- Esperanza de una v.a. hipergeométrica 
 )( entonces ) ,( ~ Si
N
nM
XENM,nHX = 
Para facilitar la demostración supongamos que tenemos N bolillas en una urna de las cuales M son rojas 
y N-M son blancas. Queremos hallar el número esperado de bolillas rojas extraídas 
Definimos las variables 
 



 −
=
contrariocaso
extraídaesrojabolillaésimailasi
X i 0
1
 
Las variables MXXX ,..., 21 no son independientes 
Se puede escribir MXXXX +++= ...21 , además 
 
N
n
n
N
n
N
XPXE ii =












−
−






===
1
1
1
1
)1()( 
Por lo tanto 
 
( ) ( ) ( ) ( )
N
nM
N
n
M
N
n
N
n
N
n
XEXEXEXXXEXE
vecesM
MrM ==+++=+++=+++=
44 344 21
.........)( 2121 
 
 
En general la esperanza de un producto de variables aleatorias no es igual al producto de las 
esperanzas 
 
(leeremos:” la esperanza del producto es el producto de las esperanzas”). 
 
Dem.) (caso continuo) 
Si ( )Y,X es una variable aleatoria bidimensional tal que X e Y son variables aleatorias 
independientes, entonces: ( ) ( ) ( )YE.XEY.XE = 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 103 
Sea ( ) Y.XY,XHZ == y sea ( )y,xf la fdp conjunta de la v.a. ( )Y,X . Entonces, usando el teorema 
que establece que ( ) ( )[ ] ( ) ( )∫ ∫
∞
∞−
∞
∞−
== dxdyy,xfy,xHY,XHEZE , tenemos: 
 
( ) ( ) ( )∫
∞
∞−
= dxdyy,xfy.xY.XE . Pero siendo X e Y variables aleatorias independientes es 
( ) ( ) ( )yhxgy,xf = , donde ( )xg y ( )yh son las fdp marginales de X e Y que sabemos coinciden con las 
fdp de X e Y tomadas como variables aleatorias unidimensionales. Luego: 
 
( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ,YE.XE
dyyyhdxxxgdxdyyhxgy.xY.XE
=
== ∫∫∫
∞
∞−
∞
∞−
∞
∞− 
 
donde en la última igualdad tuvimos en cuenta la definición de esperanza de v.a. unidimensionales. 
 
 Ejemplo: 
Nuevamente consideramos el siguiente ejemplo 
Supongamos que debido a innumerables causas incontrolables la corriente i y la resistencia r de un 
circuito varían aleatoriamente de forma tal que pueden considerarse como variables aleatorias I y R 
independientes. Supongamos que las correspondientes fdp son: 
 
 ( )



 ≤≤
=
valoresdemás
ii
ig
0
102
 ( )





≤≤
=
valoresdemás
r
r
rh
0
30
9
2
 
Nos interesa considerar el voltaje r.iv = de manera que podemos definir la variable aleatoria R.IV = . 
Hallar el valor esperado o esperanza matemática del voltaje: ( )VE . 
Como I y R son independientes, usando la propiedad anterior 
 
 ( ) )()( REIEVE = 
 
3
2
3
2)2()(
1
0
31
0
=== ∫
i
diiiIE 1
9
3
9
1
49
1
9
)(
4
3
0
43
0
2
=×==





= ∫
r
dr
r
rRE 
 
3
2
1
3
2
)( =×=∴ VE 
 
 
 Varianza de una suma de variables aleatorias 
 
 
. 
 
 
Dem.) Escribimos la varianza en su forma alternativa 
 
( ) ( ) ( ) XYYVXVYXV σ2++=+ con ( ) ( ) ( )YE.XEY.XEσXY −= 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 104 
( ) [ ]( ) ( )[ ]22 YXEYXEYXV +−+=+ . Desarrollamos los cuadrados y aplicamos la propiedad lineal de 
la esperanza: 
 
( ) ( ) ( ) ( )[ ]
( ) ( ) ( ) ( )[ ] ( ) ( ) ( )[ ]{ }2222
222
22
2
YEYEXEXEYEY.XEXE
YEXEYY.X.XEYXV
++−++=
+−++=+
 
 
Agrupando convenientemente: 
 
( ) ( ) ( )[ ]{ } ( ) ( )[ ]{ } ( ) ( ) ( ){ }
( ) ( ) ( ) ( ) ( ){ }YEXEY.XEYVXV
YEXEY.XEYEYEXEXEYXV
−++=
−+−+−=+
2
2
2222
 , es decir 
 
( ) ( ) ( ) XYσYVXVYXV 2++=+ 
 
 
 
 
 
Observaciones: 
1- Teniendo presente la definición de la desviación estándar de una v.a. X: ( )XVσX = , vemos que a la 
propiedad anterior la podemos escribir: 
 
( ) XYYX σσσYXV 222 ++=+ 
 
2- Análogamente se prueba que ( ) XYYXYXV σσσ 222 −+=− 
 
3- X e Y son independientes, entonces ( ) ( ) ( )YVXVYXVYXV +=−=+ )( 
Esto es porque si las variables aleatorias X e Y son independientes, entonces ( ) ( ) ( )YE.XEY.XE = . 
Por lo tanto la covarianza vale cero : ( ) ( ) ( ) 0=−= YE.XEY.XEσXY . 
 
4- Podemos generalizar, usando el principio de inducción completa, al caso de n variables aleatorias 
independientes: 
Si nX,...,X,X 21 son n variables aleatorias independientes entonces: 
( ) ( ) ( ) ( )nn XV...XVXVX...XXV +++=+++ 2121 o, en forma más compacta, ( )∑∑
==
=




 n
i
i
n
i
i XVXV
11
. 
5- Vemos que la esperanza de la suma de dos variables aleatorias X e Y es igual a la suma de las 
esperanzas ( ) ( ) ( )YEXEYXE +=+ cualesquiera sean X e Y . En cambio la varianza de la suma de las 
variables aleatorias X e Y es, en general, igual a la suma de las varianzas, ( ) ( ) ( )YVXVYXV +=+ , sólo 
si X e Y son variables independientes. 
 
 
 Ejemplos: 
1- Podemos ejemplificar la aplicación de las propiedades de la varianza, calculando nuevamente la 
varianza de una v.a. X distribuida binomialmente con parámetros n y p. 
Sea entonces una v.a. X∼B(n,p). Vimos que se puede escribir: 
( ) ( ) ( )YE.XEY.XEσXY −= se la llama la covarianza de X e Y. 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 105 
nXXXX +++= ...21 , donde las n variables aleatorias son independientes entre sí y tienen todas la 
misma distribución: 
( )pBX i ,1∼ n,...,,i 21=∀ 
Entonces, tratándose de n variables aleatorias independientes 
( ) ( ) ( ) ( )nXVXVXVXV +++= ...21 todas la varianzas son iguales y podemos escribir la suma como n 
veces una cualquiera de ellas: 
( ) ( )iXnVXV = . Pero 
( ) ( ) ( )[ ]22 iii XEXEXV −= . 
Ya vimos que ( ) ( ) 010.1 =−+= ppXE i 
Además es: ( ) ( ) pppXE i =−+= 10.1 222 
Entonces: ( ) ( ) ( )[ ] ( )ppppXEXEXV iii −=−=−= 1222 . 
Luego: 
( ) ( ) ( )pnpXnVXV i −== 1 
que es el resultado que habíamos obtenido a partir de la definición y llevando las sumas involucradas a 
la forma del desarrollo de un binomiode Newton. 
 
2- Varianza de una v.a. binomial negativa 
Ya vimos que podemos escribir rXXXX +++= ...21 , donde cada variable iX tiene distribución 
geométrica con parámetro p 
Por lo tanto 
( ) ( ) ( ) ( )
221
1
...
p
p
rXVXVXVXV r
−
=+++= 
 
 
 
5.7 - Covarianza 
 
Sean X e Y dos variables aleatorias. La covarianza de X e Y se define: 
 
 
 
 
Notación: la notación usual para la covarianza de X e Y es XYσ o ),( YXCov 
 
La última igualdad surge de desarrollar el producto y aplicar las propiedades de la esperanza: 
( )[ ] ( )[ ]{ } ( ) ( ) ( ) ( ){ }YEXEY.XEYE.XY.XEYEY.XEXE +−−=−− 
 
Teniendo presente que ( )XE y ( )YE son constantes: 
( )[ ] ( )[ ]{ } ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )YE.XEY.XEYEXEYEXEYE.XEY.XEYEY.XEXE −=+−−=−− . 
 
La esperanza en la definición debe pensarse de la siguiente manera (suponiendo que la v.a. ( )Y,X es 
continua): 
( ){ } ( ) ( )∫ ∫
∞
∞−
∞
∞−
== dxdyyxfyxHYXHEYXCov ,,,),( con ( ) ( )[ ] ( )[ ]YEy.XExy,xH −−= 
 
Ya vimos la siguiente propiedad 
 ( )[ ] ( )[ ]{ } ( ) ( ) ( )YEXEYXEYEYXEXEYXCov ...),( −=−−= 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 106 
 
 
 
 
Dem. ) 
Según vimos, si X e Y son variables aleatorias independientes, entonces ( ) ( ) ( )YE.XEY.XE = , de donde 
se sigue la propiedad. 
 
Propiedades de la covarianza 
 
Las siguientes propiedades son útiles y su verificación se deja como ejercicio 
1- ),(),( YXbdCovdYcbXaCov =++ 
2- ),(),(),( ZYCovZXCovZYXCov +=+ 
3- ∑∑∑∑
= ===
=




 n
i
m
j
ji
m
j
j
n
i
i YXCovYXCov
1 111
),(, 
4- )(),( XVXXCov = 
 
Ejemplo: Varianza de una v.a. hipergeométrica 






−
−





 −=
1
)( entonces ) ,( ~ Si
N
nN
N
MN
N
M
nXVNM,nHX 
Para facilitar la demostración supongamos que tenemos N bolillas en una urna de las cuales M son rojas 
y N-M son blancas. Queremos hallar la varianza del número de bolillas blancas extraídas 
Como antes definimos las variables 
 



 −
=
contrariocaso
extraídaesrojabolillaésimailasi
X i 0
1
 
Las variables MXXX ,..., 21 no son independientes 
Se puede escribir MXXXX +++= ...21 , además 
 
N
n
n
N
n
N
XPXE ii =












−
−






===
1
1
1
1
)1()( y 
( ) 




 −=




−=−=
N
n
N
n
N
n
N
n
XEXEXV iii 1)()()(
2
22
 
 
Por lo tanto ),(2)()...()(
1 1
21 j
M
i Mji
iiM XXCovXVXXXVXV ∑ ∑
= ≤≤<
+=+++= 
Por otro lado )()()();( jijiji YEXEXXEXXCov −= 
 
Y 
)1(
)1(
)(
−
−
=
NN
nn
XXE ji , entonces 
2
)1(
)1(
);( 




−
−
−
=
N
n
NN
nn
XXCov ji 
 
Si X e Y son variables aleatorias independientes, entonces 0),( =YXCov . 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 107 
Aplicando algunos pasos algebraicos se llega a 




 −





−
−=




−
−
−
=
N
n
NN
n
N
n
NN
nn
XXCov ji 1
1
1
)1(
)1(
);(
2
 
Reemplazando 











 −





−
−





+




 −=+=∑ ∑
= ≤≤< N
n
N
n
N
M
N
n
N
n
MXXCovXVXV j
M
i Mji
ii 1
1
1
2
21),(2)()(
1 1
 
 
Nuevamente, luego de algunos cálculos algebraicos se llega a 
 






−
−





 −=
1
)( 
N
nN
N
MN
N
M
nXV 
 
 
 
5.8 - Coeficiente de correlación lineal. 
 
En realidad más que la covarianza aquí nos interesa considerar una cantidad relacionada con XYσ y que 
según veremos nos dará información sobre el grado de asociación que existe entre X e Y . Más 
concretamente nos contará si existe algún grado de relación lineal entre X e Y . Esa cantidad es el 
coeficiente de correlación lineal. 
En el mismo sentido en que podemos tener una idea aproximada sobre la probabilidad de un suceso A si 
repetimos el experimento y consideramos las ocurrencias de A en las n repeticiones, 
así podemos tener también una primera idea sobre la existencia de una relación funcional, 
específicamente una relación lineal, entre X e Y si consideramos un diagrama de dispersión. Consiste en 
dibujar pares de valores ( )ji y,x medidos de la variable aleatoria ( )Y,X en un sistema de coordenadas. 
En la figura mostramos diversas situaciones posibles. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
De la figura a se deduciría que entre X e Y no hay ningún tipo de relación funcional. La figura b sugiere 
la posibilidad de que exista una relación funcional que corresponde a una parábola. La figura c, por su 
parte, sugiere una relación lineal entre X e Y . Este último es el comportamiento que nos interesa 
caracterizar. Con ese fin definimos el coeficiente de correlación lineal como sigue: 
0 0 
a b c 
x x 
y y y 
(xi yi) 
x 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 108 
 
En consecuencia: 
 
( )[ ] ( )[ ]{ }
( ) ( )
( ) ( ) ( )
( ) ( )YV.XV
YE.XEY.XE
YV.XV
YEY.XEXE
ρXY
−
=
−−
= . 
 
Daremos una serie de propiedades de XYρ que nos permitirán establecer más concretamente su 
significado. 
 
Propiedad 1 
 
 
 
 
Dem.) inmediata a partir del hecho que si X e Y son independientes entonces )()()( YEXEXYE = 
 
Observación: La inversa no es necesariamente cierta. Puede ser que 0=XYρ y sin embargo X e Y no 
sean variables aleatorias independientes. En efecto si tenemos una v.a. bidimensional ( )Y,X que da 
lugar a un diagrama de dispersión como el que se muestra en la figura, veremos que correspondería a un 
coeficiente de correlación lineal 0=XYρ y sin embargo la figura sugiere que entre X e Y existe la 
relación funcional 122 =+YX , es decir X e Y son v.a. dependientes. En realidad, como veremos, XYρ es 
una medida de la existencia de una relación lineal entre X e Y y una circunferencia se aleja mucho de 
una línea recta. 
 
 
 
Propiedad 2 : 
 
 
Dem.) 
y 
x 0 
1 2 3 -1 -2 
-1 
1 
Sea ( )Y,X una variable aleatoria bidimensional. Definimos el coeficiente de correlación lineal entre 
X e Y como 
YX
XY
YXCov
σσ
ρ
),(
= 
 Si X e Y son variables aleatorias independientes entonces 0=XYρ . 
11 ≤≤− XYρ 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 109 
Si consideramos la v.a. 
YX
YX
σσ
+ entonces 
( )XY
YXYXYX
YXCovYVXVYX
V ρ
σσσσσσ
+=++=





+≤ 12
),(2)()(
0
22
 
 
Implicando que XYρ≤−1 
 
Por otro lado: ( )XY
YXYXYX
YXCovYVXVYX
V ρ
σσσσσσ
−=−+=





−≤ 12
),(2)()(
0
22
 
 
Implicando que 1≤XYρ 
 
 11 ≤≤−∴ XYρ 
 
 
Propiedad 3 : 
 
 
 
 
 
 
Dem.) Si 12 =XYρ entonces 1=XYρ o 1−=XYρ 
Si 1−=XYρ entonces de la demostración anterior se deduce que 
 
( ) 012 =+=





+ XY
YX
YX
V ρ
σσ
, lo que implica que la v.a. 
YX
YX
Z
σσ
+= tiene varianza cero. Según la 
interpretación de varianza podemos deducir (en forma intuitiva) que la v.a. no tiene dispersión con 
respecto a su esperanza, es decir la v.a. Z es una constante con probabilidad 1 
Por lo tanto esto implica que BX.AY += con 0<−=
X
YA
σ
σ
 
Análogamente 1=XYρ implica que BX.AY += con 0>=
X
YA
σ
σ
 
 
Propiedad 4 : 
 
 
 
 
 
 
Dem.) se deja como ejercicioObservación: Claramente las propiedades anteriores establecen que el coeficiente de correlación lineal 
es una medida del grado de linealidad entre X e Y. 
Si 12 =XYρ , entonces con probabilidad 1 es BX.AY += donde A y B son constantes. 
 Si X e Y son dos variables aleatorias tales que BX.AY += , donde A y B son constantes, 
 entonces 12 =XYρ . Si 0>A es 1=XYρ y si 0<A es 1−=XYρ . 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 110 
6- SUMA DE VARIABLES ALEATORIAS Y TEOREMA 
 CENTRAL DEL LÍMITE 
 
6.1 – Suma de variables aleatorias independientes 
 
Cuando se estudiaron las variables aleatorias bidimensionales se habló de una función de variable 
aleatoria bidimensional. En particular se nombró la suma de n variables aleatorias, pero no se dijo nada 
sobre la distribución de esa v.a. suma. 
Es a menudo importante saber cuál es la distribución de una suma de variables aleatorias independientes. 
Consideramos algunos ejemplos en el caso discreto 
 
1- Suma de variables aleatorias independientes con distribución Poisson 
 
 )(~ ntesindependie Yy ; )(~ ; )(~ 2121 λλλλ ++⇒ PYXXPYPX 
Dem.) 
Consideramos el evento { }nYX =+ como unión de eventos excluyentes { } nkknYkX ≤≤−== 0 , 
, entonces 
( )
=
−
=−===−====+
−
−
=
−
==
∑∑∑
!!
)()(),()( 2
0
1
00
21
kn
e
k
eknYPkXPknYkXPnYXP
knn
k
kn
k
n
k
λλ λλ
 
 
 X e Y independientes 
 
( ) ( )
( )nkn
n
k
k
n
k
knk
n
e
knk
n
n
e
knk
e 21
)(
2
0
1
)(
0
21)(
!!!
!
!!!
2121
21 λλλλ
λλ λλλλλλ +=
−
=
−
=
+−
−
=
+−
=
−
+− ∑∑ 
 
 Binomio de Newton 
 
 O sea X+Y tiene distribución Poisson con parámetro 21 λλ + 
 
2- Suma de variables aleatorias binomiales independientes 
 
 ),(~ ntesindependie Yy ; ),(~ ; ),(~ 2121 pnnBYXXpnBYpnBX ++⇒ 
 
Dem.) 
Nuevamente consideramos el evento { }kYX =+ como unión de eventos excluyentes 
{ } 10 , niikYiX ≤≤−== , entonces 
=−





−
−





=−===−====+ +−−−
===
∑∑∑ iknikini
n
k
n
i
n
i
pp
ik
n
pp
i
n
ikYPiXPikYiXPkYXP 21
111
)1()1()()(),()(
2
0
1
00
 
 X e Y independientes 






−






−= ∑
=
−+
ik
n
i
n
pp
n
i
knnk 2
0
1
1
21)1( 
 
 
En la expresión anterior si rj > entonces 0=





j
r
 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 111 
Por último usamos la siguiente identidad combinatoria ∑
=





 +
=





−





1
0
2121
n
i k
nn
ik
n
i
n
 
Y entonces 
 
knnk pp
k
nn
kYXP
−+−




 +
==+ 21)1()( 21 
O sea X+Y tiene distribución binomial con parámetros 21 nn + y p 
 
Observación: en los dos casos anteriores se puede generalizar el resultado a n variables aleatorias 
independientes, usando el principio de inducción completa, es decir 
1- Si nXXX ,...,, 21 son n variables aleatorias independientes donde )(~ ii PX λ para todo 
 ni ,...,2,1= entonces )(~
00
∑∑
==
n
i
i
n
i
i PX λ 
2- Si nXXX ,...,, 21 son n variables aleatorias independientes donde ),(~ pnBX ii para todo 
 ni ,...,2,1= entonces ),(~
00
pnBX
n
i
i
n
i
i ∑∑
==
 
 
 
Suma de variables aleatorias normales independientes 
 
Si X e Y son dos variables aleatorias continuas independientes con densidades g(x) y h(y) 
respectivamente se puede probar (no lo demostraremos aquí) que la v.a. YXZ += tiene densidad dada 
por ∫
∞
∞−
+ −= dyyhyzgzf YX )()()( 
Usando esto se puede demostrar el siguiente importante resultado: 
 
 
Por inducción completa se puede generalizar este resultado a n variables: 
 
De lo anterior y del hecho que ( ) ),~ ,~ 222 σµσµ abN(abaXNX ++⇒ tenemos: 
 
 
 
Se dice 
que 
∑
=
n
i
ii Xa
0
Si nXXX ,...,, 21 son n variables aleatorias independientes donde ),(~
2
iii NX σµ para todo 
ni ,...,2,1= entonces ),(~
1
2
00
∑∑∑
===
n
i
i
n
i
i
n
i
i NX σµ 
Si nXXX ,...,, 21 son n variables aleatorias independientes donde ),(~
2
iii NX σµ para todo 
ni ,...,2,1= entonces ),(~
1
22
00
∑∑∑
===
n
i
ii
n
i
ii
n
i
ii aaNXa σµ donde naaa ,...,, 21 son números reales 
Si X e Y son variables aleatorias independientes donde ( ) ,~ 211 σµNX y ( ) ,~ 222 σµNY entonces 
( ) ,~ 222121 σσµµ +++ NYX 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 112 
 es una combinación lineal de variables aleatorias. 
 
Ejemplos: 
1- La envoltura de plástico para un disco magnético está formada por dos hojas. El espesor de cada 
 una tiene una distribución normal con media 1.5 milímetros y desviación estándar de 0.1 milí- 
 metros. Las hojas son independientes. 
 a) Determine la media y la desviación estándar del espesor total de las dos hojas. 
 b) ¿Cuál es la probabilidad de que el espesor total sea mayor que 3.3 milímetros? 
 
 Solución: Sean las variables aleatorias 
 X: “espesor de la hoja 1” e Y: “espesor de la hoja 2” 
 Entonces )1.0,5.1~ 2N(X ; )1.0,5.1~ 2N(Y y X e Y independientes 
 a) Si definimos la v.a. Z: “espesor total de las dos hojas” , entonces YXZ += 
 Por lo tanto )1.01.0 ,5.15.1~ 22 ++N(Z es decir )02.0 ,3~ N(Z 
 En consecuencia 3)( =ZE , 02.0)( == ZVZσ 
 b) Se pide calcular )3.3( >ZP 
 ( ) 017.0983.0112132.21
02.0
33.3
1
02.0
33.3
02.0
3
)3.3( =−=Φ−=




 −
Φ−=




 −
>
−
=>
Z
PZP 
 
2-Tengo tres mensajes que atender en el edificio administrativo. Sea Xi : “ el tiempo que toma el i- 
 ésimo mensaje” (i = 1, 2 ,3), y sea X4 : “ el tiempo total que utilizo para caminar hacia y desde el 
 edificio y entre cada mensaje”. Suponga que las Xi son independientes, normalmente distribui- 
 das, con las siguientes medias y desviaciones estándar: 
 3 ,12 ,2 ,8 ,1 ,5 ,4 min,15 44332211 ======== σµσµσµσµ 
 Pienso salir de mi oficina precisamente a las 10.00 a.m. y deseo pegar una nota en mi puerta que 
 dice “regreso a las t a.m.” ¿A qué hora t debo escribir si deseo que la probabilidad de mi llegada 
 después de t sea 0.01? 
 
 Solución: Definimos la v.a. Z: “tiempo transcurrido desde que salgo de mi oficina hasta que re- 
 greso”, entonces 4321 XXXXT +++= 
 Por lo tanto 




 ∑∑
==
4
1
2
4
1
 ,~
i
i
i
iNT σµ , y se pide hallar t tal que 01.0)( => tTP 
 50128515
4
1
=+++=∑
=i
iµ y 303214
222
4
1
22 =+++=∑
=i
iσ 
 
 Entonces 01.0
30
50
1)( =




 −
Φ−=>
t
tTP , es decir 99.0
30
50
=




 −
Φ
t
 
 Buscando en la tabla de la normal 7619.62503033.2 33.2
30
50
=+×=⇒=
−
t
t
 
 
3- El ancho del marco de una puerta tiene una distribución normal con media 24 pulgadas y des- 
 viación estándar de 1/8 de pulgada. El ancho de la puerta tiene una distribución normal con me- 
 dia 23.875 de pulgadas y desviación estándar de 1/16 de pulgadas. Suponer independencia. 
 a) Determine la distribución, la media y la desviación estándar de la diferencia entre el ancho 
 del marco y de la puerta. 
 b) ¿Cuál es la probabilidad de que la diferencia entre el ancho del marco y de la puerta sea ma- 
 yor que ¼ de pulgada?. 
Parte 1 – Variables aleatorias bidimensionalesProf. María B. Pintarelli 
 113 
 c) ¿Cuál es la probabilidad de que la puerta no quepa en el marco?. 
 
 Solución: Sean las variables aleatorias 
 X: “ancho del marco de la puerta en pulgadas” 
 Y: “ancho de la puerta en pulgadas” 
 Entonces )1/8)( ,24~ 2N(X , )1/16)( ,875.23~ 2N(Y , X e Y independientes 
 a) Se pide la distribución de X-Y , )( YXE − , )( YXVYX −=−σ 
 125.0875.2324)()()( =−=−=− YEXEYXE 
 
16
5
 
256
5
16
1
8
1
)()()(
22
=∴=




+




=+=− −YXYVXVYXV σ 
 Por lo tanto 















−
2
16
5
 ,125.0~ NYX 
 b) Se pide la probabilidad )4/1( >−YXP 
 1867.08133.01)8944.0(1
5
52
1
16
5
125.025.0
1)4/1( =−=Φ−=







Φ−=












−
Φ−=>−YXP 
 c) Si la puerta no entra en el marco entonces se da el evento { }YX < o equivalentemente 
 { }0<−YX , por lo tanto 
 1867.0
5
52
1
5
52
16
5
125.00
)0( =







Φ−=







−Φ=












−
Φ=<−YXP 
 
4- Supongamos que las variables aleatorias X e Y denotan la longitud y el ancho en cm, respecti- 
 vamente, de una pieza. 
 Supongamos además que X e Y son independientes y que X ~ N(2 , 0.1
2
 ) , Y ~ N(5 , 0.2
2
 ). 
 Entonces Z = 2X + 2Y es una v.a. que representa el perímetro de la pieza. 
 Calcular la probabilidad de que el perímetro sea mayor que 14.5 cm. 
 
 Solución: tenemos que ( )2222 2.021.02 ,5222 ~ ×+××+×NZ , o sea ( )0.2 ,14 ~ NZ 
 La probabilidad pedida es )5.14( >ZP , entonces 
 ( ) 119.08810.011180.11
2
5
1
2.0
145.14
1)5.14( =−=Φ−=







Φ−=




 −
Φ−=>ZP 
 
5- Si se aplican dos cargas aleatorias 21 y XX a una viga voladiza como se muestra en la figura si- 
 guiente, el momento de flexión en 0 debido a las cargas es 2211 XaXa + . 
a) Suponga que 21 y XX son v.a. independientes con medias 2 
 y 4 KLbs respectivamente, y desviaciones estándar 0.5 y 
 1.0 KLbs, respectivamente. 
 Si 51 =a pies y 102 =a pies, ¿cuál es el momento de flexión 
esperado y cuál es la desviación 
 estándar del momento de flexión? 
 b) Si 21 y XX están normalmente distribuidas, ¿cuál es la 
 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 114 
probabilidad de que el momento de 
 flexión supere 75 KLbs? 
 
 Solución: Sea la v.a. Z: “momento de flexión en 0”, entonces 21 105 XXZ += 
 Por lo tanto 
 a) 5041025)(10)(5)( 21 =×+×=+= XEXEZE 
 
4
65
 
4
65
11025.0251105.05)( 2222 =∴=×+×=×+×= ZZV σ 
 b) Si 21 y XX están normalmente distribuidas, entonces 





4
65
 ,50 ~ NZ 
 Por lo tanto 
 ( ) 01120.61
13
6510
1
4
65
5075
1)75( =−≈Φ−=







Φ−=












−
Φ−=>ZP 
 
 
Promedio de variables aleatorias normales independientes 
 
 
 
 
 
 
 
 
 
 
 
Dem.) Notar que 
n
X
X
n
i
i∑
== 1 es un caso particular de combinación lineal de variables aleatorias donde 
n
ai
1
= para todo ni ,...,2,1= 
Además en este caso µµ =i y 
22 σσ =i para todo ni ,...,2,1= 
Por lo tanto, X tiene distribución normal con esperanza µµµµ ===∑∑
==
n
i
n
i
i n
nnn 11
111
 y varianza 
n
n
nnn
n
i
i
n
i
2
2
2
2
2
1
2
2
1
111 σ
σσσ =




=




=




 ∑∑
==
 
Es decir, 





n
NX
2
,~
σ
µ 
Observación: a X se lo llama promedio muestral o media muestral 
 
 
 
 
Si nXXX ,...,, 21 son n variables aleatorias independientes donde ),(~
2σµNX i para todo 
ni ,...,2,1= entonces la v.a. 
n
X
X
n
i
i∑
== 1 tiene distribución normal con 
 media µ y varianza 
n
2σ
 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 115 
Ejemplo: 
Una máquina embotelladora puede regularse de tal manera que llene un promedio de µ onzas por 
botella. Se ha observado que la cantidad de contenido que suministra la máquina presenta una 
distribución normal con 1=σ onza. De la producción de la máquina un cierto día, se obtiene una 
muestra de 9 botellas llenas (todas fueron llenadas con las mismas posiciones del control operativo) y se 
miden las onzas del contenido de cada una. 
 a) Determinar la probabilidad de que la media muestral se encuentre a lo más a 0.3 onzas de la 
 media real µ para tales posiciones de control 
 b) ¿Cuántas observaciones deben incluirse en la muestra si se desea que la media muestral esté a 
 lo más a 0.3 onzas de µ con una probabilidad de 0.95? 
 
Solución: 
a) Sean las variables aleatorias :iX “contenido en onzas de la botella i” 9,...,2,1=i 
 Entonces ( )1,~ µNX i para cada i. 
 Por lo tanto 





9
1
,~ µNX . Se desea calcular 
 
6318.01)9.0(2
)9.0()9.0(9.09.0
3.03.0
3.03.0
)3.03.0()3.0(
=−Φ=
=−Φ−Φ=










≤
−
≤−=










≤
−
≤−=
=










≤
−
≤−=≤−≤−=≤−
n
X
P
nn
X
n
P
nn
X
n
PXPXP
σ
µ
σσ
µ
σ
σσ
µ
σ
µµ
 
 
 b) Ahora se pretende que 
 95.0)3.03.0()3.0( =≤−≤−=≤− µµ XPXP 
 Entonces 
 95.03.0
1
3.0
3.03.0
)3.0( =










≤
−
≤−=










≤
−
≤
−
=≤− n
n
X
nP
nn
X
n
PXP
µ
σσ
µ
σ
µ 
 Mediante la tabla de la acumulada de la normal estándar se tiene que 
 
 ( ) ( ) ( ) 96.13.0 0.9753.0 95.013.023.0
1
3.0 =⇒=Φ⇒=−Φ=










≤
−
≤− nnnn
n
X
nP
µ
 
 
 O sea 68.42
3.0
96.1
2
=




≈n 
 Si tomamos 43=n , entonces )3.0( ≤− µXP será un poco mayor que 0.95 
 
 
 
 
 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 116 
6.2 - Teorema central del límite 
 
Acabamos de ver que la suma de un número finito n de variables aleatorias independientes que están 
normalmente distribuidas es una variable aleatoria también normalmente distribuida. Esta propiedad 
reproductiva no es exclusiva de la distribución normal. En efecto, por ejemplo, ya vimos que existen 
variables aleatorias discretas que la cumplen, es el caso de la Poisson y la Binomial. 
En realidad, la propiedad que le da a la distribución normal el lugar privilegiado que ocupa entre todas 
las distribuciones es el hecho de que la suma de un número muy grande, rigurosamente un número 
infinito numerable, de variables aleatorias independientes con distribuciones arbitrarias (no 
necesariamente normales) es una variable aleatoria que tiene, aproximadamente, una distribución 
normal. Este es, esencialmente, el contenido del 
 
Dem.) sin demostración 
 
Observaciones: 
1- Notar que ( ) ( ) µnXEXESE
n
i
i
n
i
in ==





= ∑∑
== 11
 y ( ) ( ) 2
11
σnXVXVSV
n
i
i
n
i
in ==





= ∑∑
==
 
 Por lo tanto 
2σ
µ
n
nS
Z nn
−
= es la v.a. nS estandarizada 
2- Notar que 










−
=












≤
−
=







≤
−
n
X
Pz
n
n
n
nS
Pz
n
nS
P
n
n
σ
µ
σ
µ
σ
µ
22
, por lo tanto también se puede enunciar 
el Teorema central del límite de la siguiente forma 
 
 Donde 
n
X
Z n σ
µ−
= es el promedio muestral estandarizado 
Teorema central del límite (T.C.L.): 
Sean nX,...,X,X 21 variables aleatorias independientes con ( ) µ=iXE y ( ) 2σ=iXV para todo 
n,...,,i 21= , es decir independientes idénticamente distribuidas 
 Sea la v.a. ∑
=
=
n
i
in XS
1
 y sea 
2σ
µ
n
nS
Z nn
−
= . 
Entonces ( ) ( )zzZPlim n
n
Φ=≤
∞→
 , esto es ∫
∞−
−
∞→
=







≤
− z xn
n
dxez
n
nS
P 2
2
22
1
lim
πσ
µ
 
Sean nX,...,X,X 21 variables aleatorias independientes con ( ) µ=iXE y ( ) 2σ=iXV para todo 
n,...,,i 21= , es decir independientes idénticamente distribuidas 
 Sea la v.a. promedio muestral ∑
=
=
n
i
iX
n
X
1
1
 y sea 
n
X
Z n σ
µ−
= . 
 Entonces ( ) ( )zzZPlim n
n
Φ=≤
∞→
 , esto es ∫
∞−
−
∞→
=







≤
− z x
n
dxez
n
X
P 2
2
2
1
lim
πσ
µ
 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 117 
3- Aunque en muchos casos el T.C.L. funciona bien para valores de n pequeños , en particular donde la 
población es continua y simétrica, en otras situaciones se requieren valores de n mas grandes, 
dependiendo de la forma de la distribución de las iX . En muchos casos de interés práctico, si 30≥n , la 
aproximación normal será satisfactoria sin importar cómo sea la forma de la distribución de las iX . Si 
30<n , el T.C.L. funciona si la distribución de las iX no está muy alejada de una distribución normal 
 
4- Para interpretar el significado del T.C.L., se generan (por computadora) n valores de una v.a. 
exponencial con parámetro 5.0=λ , y se calcula el promedio de esos n valores. Esto se repite 1000 
veces, por lo tanto tenemos 1000 valores de la v.a. X . 
Hacemos un histograma de frecuencias de X , esto es, tomamos un intervalo ),( ba donde “caen” 
todos los valores de X , y lo subdividimos en intervalos mas chicos de igual longitud. La frecuencia de 
cada subintervalo es la cantidad de valores de X que caen en dicho subintervalo. Se grafican estas 
frecuencias obteniéndose los gráficos siguientes que se pueden considerar una aproximación a la 
verdadera distribución de X . 
Se observa que a medida que aumenta el valor de n los gráficos se van haciendo más simétricos, 
pareciéndose a la gráfica de una distribución normal. 
 
 
 
 
 
 
Ejemplos: 
1- Supóngase que 30 instrumentos electrónicos D1, D2, ......,D30, se usan de la manera siguiente: tan 
pronto como D1 falla empieza a actuar D2. Cuando D2 falla empieza a actuar D3, etc. Supóngase que el 
tiempo de falla de Di es una v.a. distribuida exponencialmente con parámetro λ = 0.1 por hora. Sea T el 
tiempo total de operación de los 30 instrumentos. ¿Cuál es la probabilidad de que T exceda 350 horas? 
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
50
100
150
 12 34 567 891011121314151617181920212223242526272829303132
20
40
60
80
 
1 2 3 4 5 6 7 8 91011121314151617181920212223242526272829
10
20
30
40
50
 
 
1 2 3 4 5 6 7 8 9 10111213141516171819202122
10
20
30
40
 
 
n=2 
n = 5 
 n = 15 
n = 30 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 118 
 
Solución: 
Si iX : “tiempo de falla del instrumento iD ” 30,...,2,1=i 
Entonces )1.0(~ ExpX i para 30,...,2,1=i 
El tiempo total de operación de los 30 instrumentos es ∑
=
=
30
1i
iXT , donde 
300
1.0
1
30)(30)(
30
1
=×=×=





= ∑
=
i
i
i XEXETE 
 
3000
1.0
1
30)(30)(
2
30
1
=×=×=





= ∑
=
i
i
i XVXVTV 
Entonces por T.C.L. N(0,1)~
3000
300−T
 aproximadamente pues 30=n 
La probabilidad pedida es 
( ) 18141.081859.019128.01
3000
300350
1
3000
300350
3000
300
)350( =−=Φ−=




 −
Φ−≈




 −
>
−
=>
T
PTP 
 T.C.L. 
 
2- Suponga que el consumo de calorías por día de una determinada persona es una v.a. con media 
3000 calorías y desviación estándar de 230 calorías. ¿Cuál es la probabilidad de que el promedio de 
consumo de calorías diario de dicha persona en el siguiente año (365 días) sea entre 2959 y 3050? 
 
Solución: 
Definimos las variables aleatorias 
iX : “cantidad de calorías que una persona consume en el día i” 365,...,2,1=i 
Se sabe que 3000)( =iXE y 
2230)( =iXV 
Si ∑
=
=
365
1365
1
i
iXX entonces 3000)( =XE y 
365
230
)(
22
==
n
XV
σ
 
La probabilidad pedida es 
( )
( ) ( ) 10140.315.4
365
230
30002959
365
230
30003050
365
230
30003050
365
230
3000
365
230
30002959
30502959
=−≈−Φ−Φ=










−
Φ−










−
Φ≈
≈










−
≤
−
≤
−
=≤≤
X
PXP
T.C.L. 
 
 
Aplicaciones del Teorema central del límite 
 
Aproximación normal a la distribución binomial 
El Teorema central del límite se puede utilizar para aproximar las probabilidades de algunas variables 
aleatorias discretas cuando es difícil calcular las probabilidades exactas para valores grandes de los 
parámetros. 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 119 
Supongamos que X tiene una distribución binomial con parámetros n y p. Para calcular )( kXP ≤ 
debemos hacer la suma ∑
=
==≤
k
i
iXPkXP
0
)()( o recurrir a las tablas de la F.d.a. , pero para valores de 
n grandes no existen tablas, por lo tanto habría que hacer el cálculo en forma directa y muchas veces es 
laborioso. 
Como una opción podemos considerar a X como suma de variables aleatorias más simples, 
específicamente, si definimos 



 −
=
contrariocaso
éxitoocurrederepeticiónésimaílaensi
X i 0
1 ε
 ni ,...,2,1= 
entonces cada iX se la puede considerar ),1( pB , y además nXXX ,...,, 21 son independientes 
Podemos escribir ∑
=
=+++=
n
i
in XXXXX
1
21 ... y si n es grande entonces X tendrá aproximadamente 
una distribución normal con parámetros np y )1( pnp − , es decir 
( )
( )1,0
1.
.
2
N
ppn
pnX
n
nX
Z n ≈
−
−
=
−
=
σ
µ
 si n es lo suficientemente grande 
 
Observaciones: 
1- La aproximación normal a la distribución binomial funciona bien aun cuando n no sea muy grande si 
p no está demasiado cerca de cero o de uno. En particular la aproximación normal a la binomial es buena 
si n es grande , 5>np y 5)1( >− pn , pero es más efectivo aplicar esta aproximación cuando 10>np 
y 10)1( >− pn 
 
2- Corrección por continuidad. 
Acabamos de ver que si X∼B(n,p) entonces, para n suficientemente grande, podemos considerar que 
aproximadamente es X∼ ( )[ ]pp.n,p.nN −1 . El problema que surge de inmediato si deseo calcular, por 
ejemplo, la probabilidad de que kX = (con k alguno de los valores posibles 0,1,2,…,n) es que la 
binomial es una distribución discreta y tiene sentido calcular probabilidades como ( )kXP = mientras 
que la normal es una distribución continua y, en consecuencia, ( ) 0== kXP puesto que para una 
variable aleatoria continua la probabilidad de que ésta tome un valor aislado es cero. Esto se resuelve si 
se considera ( ) 




 +≤≤−≈=
2
1
2
1
kXkPkXP 
También se puede usar esta corrección para mejorar la aproximación en otros casos, específicamente en 
lugar de )( kXP ≤ calculamos 





 +≤≈≤
2
1
)( kXPkXP 
Y en lugar de 




 −≥≈≥
2
1
)( kXPkXP 
En los gráficos siguientes se muestra para diferentes valores de n y p cómo aproxima la distribución 
))1( ,( pnpnpN − a la distribución ) ,( pnB 
 
 
 
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli 
 120 
 5 10 15 20 25
0.025
0.05
0.075
0.1
0.125
0.15
0.175
2 4 6 8 10 12 14
0.05
0.1
0.15
0.2
 
 
 
5 10 15 20
0.05
0.1
0.15
0.2
0.25
0.3
0.35
50 60 70 80 90 100
0.02
0.04
0.06
0.08
 
 
 
 
 
20 40 60 80 100 120 140
0.02
0.04
0.06
0.08
0.1
2 4 6 8 10
0.1
0.2
0.3
0.4
 
 
 
 
Ejemplos: 
1- Sea X∼ B(25,0.4). Hallar las probabilidades exactas de que 8≤X y 8=X y comparar estos 
resultados con los valores correspondientes encontrados por la aproximación normal. 
 
Solución: 
De la tabla de la F.d.a.

Continuar navegando

Materiales relacionados

31 pag.
Estadística (Probabilidad)

User badge image

BPstudios Oficial

24 pag.
Apuntes Econometría

User badge image

Central de Apuntes