Logo Studenta

Apunte 5 - Variables Aleatorias - Tercera Parte

¡Este material tiene más páginas!

Vista previa del material en texto

5. 5. VARIABLES ALEATORIAS DE MAS DIMENSIONES
CONTENIDO
5 VARIABLES ALEATORIAS DE MAS 
DIMENSIONES.......................................111
5.1 VARIABLE ALEATORIA BIDIMENSIONAL DISCRETA.......................111
5.1.1 DISTRIBUCION DE PROBABILIDAD PUNTUAL CONJUNTA.111
5.1.2 DISTRIBUCIONES MARGINALES...............................................112
5.2 VARIABLE ALEATORIA BIDIMENSIONAL CONTINUA..................... 113
5.2.1 DISTRIBUCION DE PROBABILIDAD CONJUNTA................... 113
5.2.2 DISTRIBUCIONES MARGINALES...............................................113
5.3 VARIABLES ALEATORIAS INDEPENDIENTES......................................114
5.4 COVARIANZA Y CORRELACION DE VARIABLES ALEATORIAS....115
5.4.1 COVARIANZA............................................................................... 115
5.4.2 COEFICIENTE DE CORRELACION........................................... 115
5.5.1 SUMA DE VARIABLES ALEATORIAS......................................... 117
5.5.2 DIFERENCIA DE VARIABLES ALEATORIAS.............................120
5.6 PROPIEDADES REPRODUCTIVAS............................................................ 120
5.7 TEOREMA CENTRAL DEL LIMITE...........................................................122
5.8 EJERCICIOS PROPUESTOS........................................................................124
VARIABLES ALEATORIAS DE MAS DIMENSIONES
5 VARIABLES ALEATORIAS DE MAS DIMENSIONES
El capítulo anterior trató distribuciones de probabilidad para una única variable. Sin embargo 
frecuentemente es útil definir en un experimento aleatorio más de una variable aleatoria.
Por ejemplo, en la clasificación de señales transmitidas, puede definirse una variable aleatoria 
X como el número de señales de alta calidad recibidas y otra variable Y número de señales de 
baja calidad recibidas. 
En otro ejemplo, la variable X puede denotar la longitud de una pieza moldeada por inyección 
y la variable aleatoria Y puede ser el ancho de la pieza.
En ambos casos el interés recae en probabilidades que pueden expresarse en términos de X e 
Y y por lo tanto, el resultado de la experiencia queda definida con dos valores. 
Tales situaciones son modelizadas a través del vector aleatorio o variable aleatoria 
bidimensional (X , Y). 
En el caso de que el resultado de la experiencia quede definido por una n-upla de valores el 
modelo será un vector o variable aleatoria n - dimensional.
En general, si (X , Y) es una variable aleatoria bidimensional, el espacio muestral asociado se 
indica como Rxy y la distribución de probabilidad que define su comportamiento se conoce 
como distribución de probabilidad conjunta.
 
5.1 VARIABLE ALEATORIA BIDIMENSIONAL DISCRETA
 
( X , Y ) es una variable bidimensional discreta si R xy es finito o infinito numerable.
5.1.1 DISTRIBUCION DE PROBABILIDAD PUNTUAL CONJUNTA
Ejemplo :
Dos líneas de producción manufacturan un tipo de artículo. La producción, en cualquier día 
dado, es de a lo sumo 3 artículos para la línea A y 2 artículos para la línea B.
 Sean las variables aleatorias:
 X : número de artículos producidos por la línea A 
 Y : número de artículos producidos por la línea B. 
La siguiente tabla da la distribución de probabilidad conjunta de la variable ( X , Y ) :
 G.Carnevali-E.Franchelli-G.Gervasoni 
111
VARIABLES ALEATORIAS DE MAS DIMENSIONES
X 
 Y 0 1 2 3
0 0,00 0,04 0,06 0, 09
1 0,01 0,04 0,09 0,19
2 0,02 0,08 0,11 0,27
Por ejemplo, 0,27 da la probabilidad de que la línea A produzca 3 artículos y la línea B 2 
artículos. Esto se puede escribir de la siguiente forma:
P3 , 2 = P (3 , 2) = P (X = 3 ∩ Y = 2) = P (X = 3 , Y = 2) = 0,27 Probabilidad puntual conjunta
En general: 
 Pi j = P ( xi , yj ) = P ( X = xi ∩ Y = yj ) = P ( X = xi , Y = yj ) 
Los valores pij son tales que:
 p i j ≥ 0 ∀ i , j 
 1pij
i j
=∑ ∑ ( condición de cierre )
5.1.2 DISTRIBUCIONES MARGINALES
Volviendo al ejemplo, puede interesar conocer la probabilidad de que en la línea B se 
produzcan dos artículos: P ( Y = 2 ). 
Para calcularlo se deben sumar las probabilidades de la fila Y = 2 , es decir : 
P ( Y = 2 ) = 0,02 + 0,08 + 0,11 + 0,27 = 0,48 . 
De igual forma se puede obtener la probabilidad de Y = 0 , Y = 1 que junto con la P ( Y = 2 ) 
constituyen la distribución de probabilidad marginal de la variable aleatoria Y.
La tabla siguiente da (junto con la distribución de probabilidad conjunta) las distribuciones 
marginales de las variables X e Y:
 X
 Y
0 1 2 3
Probabilidad 
marginal de Y
p. j
0 0,00 0,04 0,06 0,09 0,19
1 0,01 0,04 0,09 0,19 0,33
2 0,02 0,08 0,11 0,27 0,48
Probabilidad 
marginal de X
p i .
0,03 0,16 0,26 0,55 1,00
 G.Carnevali-E.Franchelli-G.Gervasoni 
112
VARIABLES ALEATORIAS DE MAS DIMENSIONES
En general 
 .pp ) x X ( P i
j
iji === ∑ Distribución de probabilidad marginal de X
 j
i
ijj p.p ) y Y ( P === ∑ Distribución de probabilidad marginal de Y
5.2 VARIABLE ALEATORIA BIDIMENSIONAL CONTINUA
( X , Y ) es una variable bidimensional continua si R xy es infinito no numerable.
5.2.1 DISTRIBUCION DE PROBABILIDAD CONJUNTA
Sea ( X , Y ) una variable aleatoria bidimensional continua que toma todos los valores R del 
plano. La función de densidad de probabilidad conjunta f ( x , y ) es una función que 
satisface las siguientes condiciones :
 f ( x , y ) ≥ 0 ∀ x , y ε Rxy 
 
 ∫ ∫
+ ∞
∞−
+ ∞
∞−
= 1dy dx y)(x, f ( condición de cierre )
5.2.2 DISTRIBUCIONES MARGINALES
Al igual que en caso discreto a cada una de las variables que forman el vector se le puede 
asociar una función que modelice el comportamiento probabilístico de la variable. Así se 
obtienen:
 ∫
+ ∞
∞−
= dy y)(x, f ) x ( f1 función de densidad de probabilidad marginal de la variable X
 
 ∫
+ ∞
∞−
= dx y)(x, f ) y ( f2 función de densidad de probabilidad marginal de la variable Y
 G.Carnevali-E.Franchelli-G.Gervasoni 
113
VARIABLES ALEATORIAS DE MAS DIMENSIONES
Ejemplo : 
Sea la variable aleatoria bidimensional continua (X,Y) con función de densidad de 
probabilidad 
 f ( x, y ) = 1 / 4 x y 0 < x < 2 0 < y < 2 
Se verifica la condición de cierre ya que: ∫ ∫ =
2
0
2
0
1dy dx x y 4
1
Además las funciones de densidad de probabilidad marginales resultan:
( ) ∫ ==
2
0
 1 x2
1 dy x y 4
1 xf 0
( ) ∫ ==
2
0
 2 y2
1 dx x y 4
1 yf 
 
5.3 VARIABLES ALEATORIAS INDEPENDIENTES
En el capítulo 3 se trabajó con el concepto de independencia entre dos sucesos A y B. De igual 
forma, en este capítulo se dará la definición de variables aleatorias independientes. 
Dos variables aleatorias, X e Y son independientes si el resultado de una no modifica el 
resultado de la otra.
Para hacer más precisa la anterior noción de independencia se dice que dos variables 
aleatorias son independientes si:
 
 P ( X = xi , Y = yj ) = P ( X = xi ) . P ( Y = yj ) (caso discreto)
 f ( x , y ) = f 1 ( x ) . f 2 ( y ) (caso continuo)
La definición anterior lleva a la siguiente conclusión: 
• si la distribución de probabilidad conjunta es conocida siempre se pueden obtener las 
marginales
• si se conocen las distribuciones de probabilidad marginales solamente se puede conocer la 
conjunta si las variables son independientes.
Ejemplo : 
En los dos ejemplos trabajados, uno para variable bidimensional discreta y otro para el 
caso continuo. Se analizará si las variables X e Y son o no independientes.
 G.Carnevali-E.Franchelli-G.Gervasoni 
114
VARIABLES ALEATORIAS DE MAS DIMENSIONES
En el caso discreto: 
 P (X = 3 , Y = 2) = 0,27 
 P (X = 3) . P (Y = 2) = 0,55 . 0,48 = 0,264Al ser 0,27 ≠ 0,264 ⇒ X e Y no son independientes.
En el caso continuo:
 f ( x , y ) = 1/4 x y
 f1 ( x ) . f2 ( y ) = 1/2 x . 1/2 y = 1/4 x y 
Al coincidir ambas igualdades ⇒ X e Y son independientes
5.4 COVARIANZA Y CORRELACION DE VARIABLES ALEATORIAS
En la sección anterior se definió la independencia de dos variables aleatorias. En este punto 
se considerará los distintos tipos de dependencia que puede haber entre ellas y cómo se 
pueden medir.
Son muchos los tipos de dependencia que pueden tener dos variables y muchas las medidas 
que se pueden utilizar.
Dos de ellas: la covarianza y el coeficiente de correlación, son particularmente importantes 
porque están íntimamente relacionadas con el concepto de varianza de una variable aleatoria.
Ejemplo : 
Con respecto al ejemplo de las dos líneas de producción ( A y B ) que manufacturan un tipo 
de artículo, en la tabla se observa que existe relación entre X e Y: cuando el número de 
unidades producidas por la línea A es mayor, hay más probabilidad de que la línea B 
produzca más unidades. En general, los resultados X e Y tienden a variar juntos.
5.4.1 COVARIANZA
Dadas dos variables aleatorias X e Y , la covarianza entre X e Y denotada por Cov ( X , Y ) se 
define como :
Cov ( X , Y ) = E { [ ( X - E ( X ) ] [ ( Y - E ( Y )] }
Trabajando algebraicamente resulta : 
 Cov ( X , Y ) = E ( X . Y ) - E ( X ) . E ( Y ) 
Se demuestra fácilmente (queda propuesto para el alumno) que si las variables X e Y son 
independientes, E ( X . Y ) = E ( X ) . E ( Y ) , en consecuencia la covarianza se anula.
 G.Carnevali-E.Franchelli-G.Gervasoni 
115
VARIABLES ALEATORIAS DE MAS DIMENSIONES
5.4.2 COEFICIENTE DE CORRELACION
Dadas dos variables aleatorias X e Y, el coeficiente ce correlación entre X e Y denotado por
 ρ xy se define como :
 D(Y) D(X)
 Y)X, ( Cov ρ xy = 
Se demuestra : - 1 ≤ ρ xy ≤ + 1
El coeficiente de correlación es a menudo, de más fácil interpretación que la covarianza.
Al no expresarse en unidades es útil para comparar las relaciones lineales entre pares de 
variables que tienen unidades distintas.
Si los puntos en la distribución de probabilidad conjunta de X e Y tienden a caer a lo largo de 
una recta con pendiente positiva ( o negativa ) entonces ρ xy es próximo a + 1 ( ó -1 ) . 
Si ρ xy es igual a +1 o a -1, entonces puede demostrarse que los puntos en la distribución de 
probabilidad conjunta caen exactamente a lo largo de una recta. 
Demostración :
Sea Y = AX + B
- E ( Y ) = A E ( X ) + B
- V ( Y ) = A2 V ( X ) 
- D ( Y ) = | A | D ( X )
- Cov ( X , Y ) = E { [ X - E ( X ) ] [ Y - E ( Y )] } = E { A [ X - E ( X ) ]2} =
 = A E [ X - E ( X ) ]2 = A V ( X ) 
Recordando que:
 
 D(Y) D(X)
 Y)Cov(X, ρ xy = 
y reemplazando resulta : 
 
 V(X)A
 A V(X) ρ xy = = 
Si X e Y son independientes ⇒ ρ xy = 0 
 G.Carnevali-E.Franchelli-G.Gervasoni 
116
 + 1 si A > 0
 - 1 si A < 0
VARIABLES ALEATORIAS DE MAS DIMENSIONES
La recíproca no es válida, si ρ xy = 0 ⇒ ausencia de relación lineal entre las variables.
Gráficamente :
5.5 FUNCIONES DEL VECTOR ALEATORIO
Hay situaciones en las que puede interesar el estudio de una variable aleatoria Z, que sea 
función de la variable aleatoria bidimensional ( X , Y ), por ejemplo : 
Z = X + Y ; Z = X - Y ; Z = X . Y ; Z = mín ( X , Y ) ; etc.
Para el ejemplo del caso discreto, la variable Z = X + Y está representando el número total de 
artículos producidos en ambas líneas o Z = mín (X,Y) será el menor número de artículos 
producidos por ambas líneas.
Encontrar la distribución de probabilidad de la variable Z es bastante sencillo si el vector 
aleatorio es discreto, siendo más complicado en el caso del vector aleatorio continuo.
5.5.1 SUMA DE VARIABLES ALEATORIAS
Dada la variable aleatoria Z = X + Y se desarrollarán los parámetros estadísticos que 
caracterizan la distribución de probabilidad de dicha variable:
 G.Carnevali-E.Franchelli-G.Gervasoni 
117
VARIABLES ALEATORIAS DE MAS DIMENSIONES
♦ ESPERANZA MATEMATICA 
E(Y) E(X) dy (y) fy dx (x) fx 
dy dx y)(x, f y dx dy y)(x, f x 
dydx y)(x, f y)(x )Y X ( E (Z) E
21 +=∫+∫=
=∫








∫+∫








∫=
=+=+=
∞+
∞−
∞+
∞−
∞+
∞−
∞+
∞−
∞+
∞−
∞+
∞−
+ ∞
∞−
+ ∞
∞−
∫ ∫
 
 
Así como se demostró para el caso continuo se puede demostrar para el discreto.
Generalizando: si )(X E (Z) E resulta X Z
n
1i
i
n
1i
i ∑∑
==
== 
♦ VARIANZA
 V ( X + Y ) = E [ X + Y - E ( X ) - E ( Y ) ]2 = E {[ X - E ( X ) ] + [ Y - E ( Y ) ] }2 = 
 
 E [ X - E ( X )]2 + E [ Y - E ( Y ) ]2 + 2 E { [ ( X - E ( X ) ] [ ( Y - E ( Y )] } 
Recordando lo visto en el punto anterior, el último término del desarrollo de la V (X + Y) es la 
covarianza entre X e Y, de donde:
V ( X + Y ) = V ( X ) + V ( Y ) + 2 Cov ( X , Y ) 
En el caso de variables independientes:
V ( X + Y ) = V ( X ) + V ( Y ) 
 
Generalizando:
)(X V (Z) V :ntesindependie X variables las siendo X Z si
n
1i
i
n
1i
ii ∑∑
==
==
♦ DESVIO ESTANDAR
 D ( X + Y ) = [ V ( X ) + V ( Y ) + 2 Cov ( X , Y ) ]½
 D ( X + Y ) = [ V ( X ) + V ( Y ) ]½ si X e Y son independientes
Ejemplo : 
 G.Carnevali-E.Franchelli-G.Gervasoni 
118
VARIABLES ALEATORIAS DE MAS DIMENSIONES
En el ejemplo de los artículos producidos por dos líneas se definieron las variables:
X : número de artículos producidos por la línea A
Y : número de artículos producidos por la línea B
Z = X + Y: número de artículos producidos por ambas líneas.
La distribución de probabilidad de la variable Z es la que se muestra en la siguiente tabla:
zi Probabilidad
0 0,00
1 0,05
2 0,12
3 0,26
4 0,30
5 0,27
1,00
Las probabilidades que figuran en la última columna surgen de la distribución de 
probabilidad conjunta del vector (X , Y), por ejemplo: 
P ( Z = 2 ) = P ( X = 2 , Y = 0 ) + P ( X = 1 , Y = 1 ) + P ( X = 0 , Y = 2 ) 
 = 0,06 + 0,04 + 0,02 = 0,12 
Además E ( Z ) = 1 . 0,05 + 2 . 0,12 + 3 . 0,26 + 4 . 0,30 + 5 . 0,27 = 3,62 
 V ( Z ) = E ( Z2 ) - [ E ( Z )] 2 = 14,42 - ( 3,62)2 = 1,3156
A través del ejemplo verificaremos las relaciones vistas con respecto a la esperanza y 
varianza de la suma:
 E ( X + Y ) = E ( X ) + E ( Y ) 
 V ( X + Y ) = V ( X ) + V ( Y ) + 2 Cov ( X , Y )
E ( X ) = 1 . 0,16 + 2 . 0,26 + 3 . 0,55 = 2,33
E ( Y ) = 1 . 0,33 + 2 . 0,48 = 1,29
de donde E ( X + Y ) = 2,33 + 1,29 = 3,62
E ( X2 ) = 12 . 0,16 + 22 . 0,26 + 32 . 0,55 = 6,15
V ( X ) = 6,15 - 2,332 = 0,7211
D ( X ) = 0,8492
 G.Carnevali-E.Franchelli-G.Gervasoni 
119
VARIABLES ALEATORIAS DE MAS DIMENSIONES
E ( Y2 ) = 12 . 0,33 + 22 . 0,48 = 2,25
V ( Y ) = 2,25 - 1,292 = 0,5859
D ( Y ) = 0,7654
E ( X . Y ) = 1 . 1 . 0,04 + 1 . 2 . 0,09 + 1 . 3 . 0,19 + 2 . 1 . 0,08 + 2 . 2 . 0,11 + 2 . 3 . 0,27 
= 3,01
Cov ( X , Y ) = 3,01 - 2,33 . 1,29 = 0,0043
de donde V ( X + Y ) = 0,7211 + 0,5859 + 2 . ( 0,0043 ) = 1,3156 
 Se puede también calcular el coeficiente de correlación 
0,007 
 0,7654 0,8492 
0,0043 ρxy ==
5.5.2 DIFERENCIA DE VARIABLES ALEATORIAS
Sea una variable Z = X - Y 
Se demuestra fácilmente que:
 E ( X - Y ) = E ( X ) - E ( Y )
 V ( X - Y ) = V ( X ) + V ( Y ) - 2 Cov ( X , Y ) 
y en caso de ser las variables X e Y independientes :
 V ( X - Y ) = V ( X ) + V ( Y ) 
 D ( X - Y ) = [ V ( X) + V ( Y ) ] ½
5.6 PROPIEDADES REPRODUCTIVAS
Hay algunas distribuciones de probabilidad que tienen la siguiente propiedad de mucha utilidad: 
“si dos (o más) variables aleatorias independientes se suman, la variable aleatoria que 
resulta tiene una distribución del mismo tipo que la de los sumandos”.
Esta propiedad recibe el nombre de propiedad reproductiva y se establece para algunas 
distribuciones importantes que se enuncian a continuación:
 Sean X1, X2……… Xn n variables aleatorias independientes con
distribución N ( µi , σi2 ) , i = 1,2,…..n 
 G.Carnevali-E.Franchelli-G.Gervasoni 
120
VARIABLES ALEATORIAS DE MAS DIMENSIONES
Sea Z = X1 + X2 +……… + Xn. 
Se demuestra que : Z ∼ 







∑ ∑
= =
n
1i
n
1i
2
ii σ,μ N
 
 Sean X1, X2……… Xn , n variables aleatorias independientes con
distribución de Poisson de parámetro λi , i = 1,2,…..n. 
Sea Z = X1 + X2 +……… + Xn. 
 Se demuestra que : 
Z ∼ 







∑
=
n
1i
io λ P
 Sean X1, X2……… Xk , k variables aleatorias independientes con 
distribución binomial Xi ∼ Bi ( ni , p ) , i = 1,2,…..k.
Sea Z = X1 + X2 +……… + Xk. 
 Se demuestra que :
 Z ∼ Bi (n, p ) con n = n1 + n2 + ……+ nk
 
 Sean X1, X2……… Xk , k variables aleatorias independientes con
distribución χ2ni , i = 1,2,…..k. 
 
 Sea Z = X1 + X2 +……… + Xk. 
 Se demuestra que :
 Z ∼ χ2n con n = n1 + n2 + ……+ nk
Ejemplo : 
Un aparato de televisión puede tener dos tipos de roturas: debido a falla de transistores o 
debido a la falla de condensadores. Ambas fuentes de rotura son independientes.
El número de roturas debido a la falla de transistores durante los dos primeros años de 
utilización del aparato es una variable aleatoria que sigue una ley de Poisson con promedio 
1. 
El número de roturas debido a la falla de condensadores durante el mismo período sigue 
una ley de Poisson con promedio 2.
Calcule la probabilidad de que en el primer año de utilización del aparato, éste tenga 
exactamente dos roturas.
Sean las variables: 
Xt : número de roturas debido a fallas de transistores en un período de t años
 G.Carnevali-E.Franchelli-G.Gervasoni 
121
VARIABLES ALEATORIAS DE MAS DIMENSIONES
Yt : número de roturas debido a fallas de condensadores en un período de t años
 Xt ∼ Po ( λ1t ) ⇒ X2 ∼ Po ( 1 ) ⇒ X1 ∼ Po ( 0,5 )
Yt ∼ Po ( λ2t ) ⇒ Y2 ∼ Po ( 2 ) ⇒ Y1 ∼ Po ( 1 )
Sea Zt : Número de roturas en un período de t años
 Zt = Xt + Yt
Por la propiedad reproductiva de la distribución de Poisson : 
 Zt ∼ Po ( λt ) ⇒ Z1 ∼ Po ( 0,5 + 1 = 1,5 )
Entonces : P ( Z1 = 2 ) = 0,2510
5.7 TEOREMA CENTRAL DEL LIMITE
Sean X1 , X2 , ….. Xn , …… una sucesión de variables aleatorias independientes con :
E ( Xi ) = µ i y V ( Xi ) = σ2i i = 1, 2,……, n
Sea Y = X1 + X2 + ……... + Xn
Sea Z = 
2
1
n
1i
2
i
n
1i
y 
σ
μ Y
 








−
∑
∑
=
=
 
Se demuestra que, bajo ciertas condiciones generales, en el límite cuando n tiende a infinito:
 Z ∼ N ( 0 , 1 )
con lo cual Y ∼ 







∑ ∑
= =
n
1i
n
1i
2
ii σ,μ N
En la práctica el número de variables aleatorias independientes necesarias depende de la 
forma de la distribución de las variables que integran la suma. Cuando no se conoce la forma 
de las mismas o éstas son asimétricas, el criterio general es sumar al menos 30 variables 
aleatorias independientes. Sin embargo, si la distribución es uniforme, sumando al menos 6 
variables aleatorias independientes alcanza para que la suma sea aproximadamente normal.
La aplicación de este importante teorema se verá en el desarrollo de la Unidad 3: Inferencia 
Estadística.
 G.Carnevali-E.Franchelli-G.Gervasoni 
122
VARIABLES ALEATORIAS DE MAS DIMENSIONES
Ejemplo : 
Una construcción consta de 80 etapas. El tiempo de ejecución de cada etapa (en días) es 
una variable aleatoria distribuida uniformemente en el intervalo (1 , 5).
Calcule la probabilidad de que la construcción tarde en su ejecución más de 260 días. Se 
supone que los tiempos de ejecución de cada etapa son variables aleatorias 
independientes.
Ti : tiempo de ejecución ( en días ) de la etapa i
Ti ∼ U ( 1 , 5 ) , donde E (Ti ) = 2
 15 +
 = 3 días
V (Ti ) = 
3
4 
12
 ) 1-5 ( 2 = días2
D (Ti ) = 1,15 días
T : tiempo de ejecución de la construcción ∑
=
80
1i
iT 
E ( T ) = días 240 3 . 80 )E(T )T ( E
80
1i
i
80
1i
i === ∑∑
==
V ( T ) = 2
80
1i
i
80
1i
i días 106,6 4/3 . 80 ) V(T )T (V === ∑∑
==
D ( T ) = 10,33 días
por el teorema central del límite : T ∼ N ( 240 ; 10,33 )
y en consecuencia : Z = 
10,33
 240T −
 ∼ N ( 0 , 1 )
P ( T > 260 ) = 1 - P ( T < 260 ) = 1 - P ( Z < 1,94 ) = 1 - 0,9738 = 0,0262
Observación: La aproximación normal a la distribución binomial y de Poisson vistas en el 
capítulo 4, son casos especiales de la aplicación del Teorema Central del Límite.
 G.Carnevali-E.Franchelli-G.Gervasoni 
123
VARIABLES ALEATORIAS DE MAS DIMENSIONES
5.8 EJERCICIOS PROPUESTOS
1.- El número de camiones que llegan a un establecimiento durante la mañana de un día es 
una variable aleatoria X con la siguiente distribución de probabilidad:
x 0 1 2 3
Probabilidad 0,2 0,1 0,3 0,4
El número de camiones que llega en un día durante la tarde es una variable aleatoria Y con 
la siguiente distribución de probabilidad :
y 0 1 2
Probabilidad 0,5 0,2 0,3
Calcule la probabilidad de que un día determinado lleguen a lo sumo tres camiones. Se 
supone que las variables X e Y son independientes.
2.- El siguiente cuadro muestra la distribución conjunta de ( X , Y ) 
a ) Calcule 
el 
coeficiente 
de correlación.
b ) ¿ Son X e Y independientes ? Justifique su respuesta.
3.- La entrada de un sistema de comunicación binario es una variable aleatoria X que toma los 
valores 0 ó 1 con probabilidades 3 / 4 y 1 / 4 respectivamente. En algunas ocasiones, debido 
a errores causados por ruidos en el sistema, la salida Y difiere de la entrada X.
El comportamiento del sistema está dado por las siguientes probabilidades :
 P ( Y = 1 / X = 1 ) = 3 / 4
 P ( Y = 0 / X = 0 ) = 7 / 8
a ) Halle la distribución de probabilidad conjunta del vector ( X , Y ) :
 X
Y 0 1
0
1
b) Halle la distribución de probabilidad de Y.
c) Calcule ρ xy . ¿Son X e Y independientes? Justifique.
 G.Carnevali-E.Franchelli-G.Gervasoni 
 
X
 Y
- 1 0 1
0 0 1/3 0
1 1/3 0 1/3
124
VARIABLES ALEATORIAS DE MAS DIMENSIONES
4.- La longitud de un artículo se distribuye normalmente con esperanza matemática 13 cm y 
desvío estándar 0,15 cm. Este artículo se envasa en cajas de plástico cuya longitud interior 
está distribuida normalmente con desvío estándar 0,12 cm.
 ¿Cuánto debe valer la esperanza matemática de la longitud interior de las cajas para que la 
probabilidad de que la longitud de un artículo supere la de la caja sea del 1%?
5.- Al sumar números una computadora aproxima cada uno de ellos al entero más próximo. Se 
supone que todos los errores de aproximación ( Xi ) son independientes y se distribuyen 
uniformemente en el intervalo ( - 0,5 ; 0,5 ).
 a) Si se suman 500 números, ¿cuál es la probabilidad de que la magnitud del error total 
exceda 15?
 b) ¿Cuántos números deben sumarse para que la magnitud del error total sea menor que 
10 con probabilidad 0,9? 
6.- Una empresa dedicada a la venta de repuestos para un sistema electrónico conoce que la 
demanda diaria del mismo es 0, 1 o 2 repuestos con probabilidad 0,25 ; 0,5 y 0,25 
respectivamente. Se conoce que desde el momento en que se hace elpedido hasta que el 
mismo ingresa al stock transcurren 90 días. 
 Determine cuántas unidades deben tenerse en existencia en el momento de hacer el pedido 
si se quiere que la probabilidad de que la demanda durante los 90 días supere la existencia 
sea igual a 0,05 
7.- Un conmutador recibe llamadas dirigidas hacia dos oficinas A y B. El número de llamadas 
que llegan al conmutador sigue un proceso de Poisson con promedio 2 llamadas por minuto.
a) Si el promedio de llamadas dirigidas a la oficina A por hora es de 90 llamadas, ¿cuál es 
el promedio de llamadas dirigidas a la oficina B por hora?
b) Se consideran 200 períodos de 4 minutos cada uno. Halle la probabilidad de que a lo 
sumo en 20 de ellos el número de llamadas dirigidas a la oficina A sea superior a 9 
(Llegar al resultado numérico).
8.- El diámetro (en mm) de una pieza es una variable aleatoria (X) con función de densidad:
1/7 (4x + 1) 1 ≤ x ≤ 2
f (x ) =
0 en otro caso
Una pieza es considerada buena si 1,05 ≤ X ≤ 1,95.
El costo de fabricación es de $ 15.
El precio de venta depende del diámetro. Si éste cumple con la especificación, el precio de 
venta será de $ 40, si el diámetro supera 1,95 queda reducido a $30 y si no alcanza 1,05 se 
descarta la pieza.
a) Halle la distribución de probabilidad de la variable aleatoria: ganancia neta por pieza.
b) Halle su esperanza matemática y varianza.
c) ¿Cuál es la probabilidad de que se obtenga una ganancia superior a $2.300 de la venta 
de un lote de 100 piezas?
 G.Carnevali-E.Franchelli-G.Gervasoni 
125

Otros materiales