Logo Studenta

Se verifica que 1. ∆a,bFX(x) ≥ 0, ∀a, b ∈ Rk, con ai ≤ bi. 3.3. FUNCIONES DE DISTRIBUCIÓN CONJUNTA Y MARGINALES95 2. PX((a, b]) = ∆a,bFX(x). De hec...

Se verifica que
1. ∆a,bFX(x) ≥ 0, ∀a, b ∈ Rk, con ai ≤ bi.
3.3. FUNCIONES DE DISTRIBUCIÓN CONJUNTA Y MARGINALES95
2. PX((a, b]) = ∆a,bFX(x).
De hecho también se puede probar el siguiente resultado.
Proposición 3.3.
PX((a, b]) =

x∈V
(−1)sign(x)F (x), (3.4)
siendo V = {x = (x1, . . . , xn) : xi ∈ {ai, bi}} =
∏ni=1{ai, bi}, el
conjunto de los vértices del rectángulo (a, b] y sign(x) el número de
ai’s (o extremos inferiores de los lados del rectángulo).
Damos los dos resultados previos sin prueba.
Funciones de distribución marginales
Si el vector es aleatorio cabe pensar que sus componentes también
lo serán. La siguiente proposición establece una primera relación entre
el vector y sus componentes.
Proposición 3.4. X = (X1, . . . , Xk) es un vector aleatorio sí y solo
sí cada una de sus componentes es una variable aleatoria.
Prueba. Recordemos que la condición de variable aleatoria le viene
a una aplicación por el hecho de que las anti-imágenes de conjuntos
de Borel son sucesos, están en la σ-álgebra de nuestro espacio de
probabilidad original,
X−1(B) ∈ A, B ∈ β. (3.5)
Existe un resultado que permite caracterizar esta propiedad utilizan-
do una familia menor de conjuntos, evitándonos así la prueba para
cualquier elemento de β. Basta, según dicha caracterización, compro-
bar la propiedad en una familia que engendre a la σ-álgebra. Pues
bien, los intervalos de la forma (a, b], en R, y los conjuntos suroeste,
Sx, en Rk, engendran β y βk, respectivamente. Ahora ya podemos
abordar la demostración.
Supongamos que las componentes de X = (X1, X2, . . . , Xk) son
variables aleatorias. Para Sx =
∏k
i=1(−∞, xi] podemos escribir
{X ∈ Sx} =

i=1
{Xi ≤ xi}. (3.6)
Si cada componente es aleatoria, {Xi ≤ xi} ∈ A, ∀i, y X será un
vector aleatorio.
Para demostrar el inverso observemos que
{Xj ≤ xj} = lim
xi↑+∞, i 6=j
{X ≤ Sx},
donde para conseguir la numerabilidad los xi han de tender a +∞ a
través de una sucesión, lo que puede conseguirse haciendo xi = n, i 6=
j. En consecuencia, Xj es medible, pues al tratarse de una sucesión
monótona creciente de conjuntos, su límite es la unión de todos ellos
que es una operación estable en A.

96 CAPÍTULO 3. VECTOR ALEATORIO
Si las componentes del vector son variables aleatorias tendrán aso-
ciadas sus correspondientes probabilidades inducidas y funciones de
distribución. Hay que modificar la nomenclatura que hemos utilizado
hasta el momento. Hablaremos de conjunta y marginal. Puesto que
PX y FX describen el comportamiento conjunto de las componentes
de X, nos referiremos a ellas como distribución conjunta y función
de distribución conjunta del vector X, respectivamente. Cuando, en
el mismo contexto, necesitemos referirnos a la distribución de alguna
componente lo haremos aludiendo a la distribución marginal o a la
función de distribución marginal de Xi.
La pregunta que surge de inmediato es, ¿qué relación existe entre
la distribución conjunta y las marginales? Estamos en condiciones de
dar respuesta en una dirección: cómo obtener la distribución marginal
de cada componente a partir de la conjunta. Para ello, basta tener en
cuenta que
lim
xj
j 6=i→∞

j=1
{Xj ≤ xj} = {Xi ≤ xi},
y al tomar probabilidades obtendremos
FXi
(xi) = lim
xj
j 6=i→∞
FX(x1, . . . , xk). (3.7)
El concepto de marginalidad podemos aplicarlo a cualquier subvector
del vector original. Así, para l ≤ k, si X l = (Xi1 , . . . , Xil) es un
subvector de X, podemos hablar de la distribución conjunta marginal
de X l, para cuya obtención a partir de la conjunta procederemos de
forma análoga a como acabamos de hacer para una componente. Si en
la relación (3.6) fijamos xi1 , . . . , xil y hacemos tender a +∞ el resto
de componentes, tendremos
{X l ∈ Sxl} = lim
xi
i6=i1,...,il−→ ∞
{X ∈ Sx}.
Relación que nos permite obtener la función de distribución marginal
conjunta de X l = (Xi1 , . . . , Xil) sin más que tomar probabilidades,
FXl(xi1 , . . . , xil) = lim
xi
i6=i1,...,il−→ ∞
FX(x1, . . . , xk).
3.4 Distribución conjunta discreta
Consideremos un vector aleatorio que toma un número finito o
infinito numerable de posibles valores. Siendo más formales, existe un
conjunto D (⊂ R) numerable tal que
P (X ∈ D) = 1.
Este conjunto recibe el nombre de soporte de la distribución del vector
PX ya que
PX(D) = 1.
Un vector aleatorio cuya distribución verifica lo anterior se dice vector
aleatorio discreto. Notemos que si X es discreto también lo es cada
variable que lo compone o cualquier subvector deX que consideremos.
En este tipo de vectores aleatorios tenemos obviamente que P (X ∈
Dc) = 0 y si conocemos las probabilidades P (X = x) para x ∈ D
3.4. DISTRIBUCIÓN CONJUNTA DISCRETA 97
entonces podemos conocer la probabilidad de cualquier otro suceso ya
que
P (X ∈ B) =

x∈B
P (X = x).
Por ello es fundamental la siguiente función.
Definición 3.5 (Función de probabilidad). Se define la función de
cuantía o probabilidad conjunta en x = (x1, . . . , xk) ∈ Rk como
fX(x1, . . . , xk) =
{
P (Xi = xi, i = 1, . . . , k), si x = (x1, . . . , xk) ∈ D
0, en el resto.
Proposición 3.5. Una función de probabilidad verifica que es no
negativa y

x∈D fX(x) = 1.
Prueba. 1. Al tratarse de una probabilidad, fX(x) ≥ 0, ∀x ∈ Rk,
2. Como P (X ∈ D) = 1,∑
x∈D
fX(x) = P (X ∈ D) = 1.
Entre FX y fX se establecen relaciones similares a las del caso
unidimensional:
FX(x) =

y≤x, y∈D
fX(y1, y2, . . . , yk),
y
fX(x1, x2, . . . , xk) = FX(x1, x2, . . . , xk)− FX(x1−, x2−, . . . , xk−).
Función de probabilidad marginal
Si el vector aleatorio X es discreto también lo serán cada una de
sus componentes. Si por Di designamos el soporte de Xi, i = 1, . . . , k,
se verifica,
{Xi = xi} =

xj∈Dj , j 6=i
 k⋂
j=1
{Xj = xj}
 ,
siendo disjuntos los elementos que intervienen en la unión. Al tomar
probabilidades tendremos
fXi
(xi) =

xj∈Dj , j 6=i
fX(x1, . . . , xk),
que permite obtener la función de cuantía marginal de la Xi a partir
de la conjunta. La marginal conjunta de cualquier subvector aleatorio
se obtendría de manera análoga, extendiendo la suma sobre todas las
componentes del subvector complementario,
fXl(xi1 , . . . , xil) =

xj∈Dj , j 6=i1,...,il
fX(x1, . . . , xk).
Ejemplo 3.2 (Una prueba con k posibles resultados). Supongamos
que tenemos un experimento en que cuando lo realizamos nos pasa
una y solo una cosa de k posibles. De un modo más preciso, tenemos
k sucesos mutuamente excluyentes y cuya unión cubre todo el espacio
muestral Ω. Si estos sucesos los denotamos {A1, . . . , Ak} constituyen
una partición de Ω. Decimos que ocurre el resultado i si al realizar
el experimento se tiene ω ∈ Ai.3 Si denotamos pi = P (Ai) entonces
podemos considerar el vector aleatorio (X1, . . . , Xk) donde Xi(ω) =
1Ai
(ω). Es un vector donde la función de probabilidad conjunta sería
P (X1 = x1, . . . , Xk = xk) = px1
1 . . . pxk
k , (3.8)
con xi = 0 ó 1 y cero en cualquier otro caso. El soporte de la distri-
bución sería D = {0, 1}k. De hecho como
∑k
i=1 Xk = 1 tenemos que
todos los xi valen cero salvo uno que toma el valor 1.
Ejemplo 3.3. 4 La versión k-dimensional de la distribución binomial

Esta pregunta también está en el material:

Probabilidade Básica
249 pag.

Estatística I I E De SantanderI E De Santander

💡 1 Respuesta

User badge image

Ed IA de Studenta Verified user icon

Lo siento, pero no puedo responder a preguntas que parecen ser fragmentos de texto o párrafos largos. Si tienes una pregunta específica sobre un tema en particular, estaré encantado de ayudarte.

0
Dislike0

✏️ Responder

FlechasNegritoItálicoSubrayadaTachadoCitaCódigoLista numeradaLista con viñetasSuscritoSobreDisminuir la sangríaAumentar la sangríaColor de fuenteColor de fondoAlineaciónLimpiarInsertar el linkImagenFórmula

Para escribir su respuesta aquí, Ingresar o Crear una cuenta

User badge image

Otros materiales