Logo Studenta

TFG_ORTUÑO ORTIZ_Distribuciones de estadisticos ordenados en el muestreo

¡Este material tiene más páginas!

Vista previa del material en texto

UNIVERSIDAD DE MURCIA
FACULTAD DE MATEMÁTICAS
DISTRIBUCIONES DE ESTADÍSTICOS
ORDENADOS EN EL MUESTREO
Sara Yolanda Ortuño Ortiz
Grado en Matemáticas
Trabajo Fin de Grado
Curso 2015-2016
Declaración de originalidad
SARA YOLANDA ORTUÑO ORTIZ, autora del TFG ”DISTRIBUCIONES DE
ESTADÍSTICOS ORDENADOS EN EL MUESTREO”, bajo la tutela del profesor
FÉLIX BELZUNCE TORREGROSA, declara que el trabajo que presenta es origi-
nal, en el sentido de que ha puesto el mayor empeño en citar debidamente todas las
fuentes utilizadas.
En Murcia, a 12 de julio de 2016
Usuario
Sello
Índice general
Introducción 1
Abstract 3
1. Preliminares y resultados básicos 5
2. Estad́ısticos ordenados en el caso de observaciones independientes
e idénticamente distribuidas 11
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2. Distribución en el muestreo de estad́ısticos ordenados . . . . . . . . . 13
2.3. Algunas propiedades fundamentales de los estad́ısticos ordenados . . . 18
2.4. Momentos de estad́ısticos ordenados . . . . . . . . . . . . . . . . . . . 21
2.5. Distribución de la mediana, el rango y otros estad́ısticos . . . . . . . 28
2.6. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3. Estad́ısticos ordenados en el caso de observaciones independientes
y no idénticamente distribuidas 35
3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2. Distribución en el muestreo de estad́ısticos ordenados. . . . . . . . . . 36
3.3. Algunas propiedades fundamentales . . . . . . . . . . . . . . . . . . . 40
3.4. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
Bibliograf́ıa 53
i
Introducción
Este Trabajo de Fin de Grado está dedicado al estudio de estad́ısticos ordenados.
Consideramos en primer lugar variables aleatorias independientes e idénticamente
distribuidas y en segundo lugar variables aleatorias independientes y no necesaria-
mente idénticamente distribuidas. En ambos casos considerando variables aleatorias
de tipo continuo. El objetivo es estudiar la distribución de estos estad́ısticos or-
denados, aśı como algunas de sus caracteŕısticas bajo los dos supuestos anteriores.
Ejemplos de estad́ısticos basados en estad́ısticos ordenados son el mı́nimo, el máxi-
mo, el rango y la mediana de la muestra, por citar algunos.
La organización de este trabajo es la siguiente:
En el primer caṕıtulo introducimos una serie de definiciones y resultados que
serán de utilidad en los sucesivos caṕıtulos. Comenzamos por una definición formal
del concepto de estad́ıstico ordenado y continuamos con otras definiciones necesa-
rias como el concepto de permanente, de gran utilidad en el caṕıtulo 3, el concepto
de distribución truncada, tanto por la derecha, como por la izquierda o por ambos
lados, que permitirá dar la distribución condicionada entre estad́ısticos ordenados,
aśı como el concepto de cadena de Markov.
El segundo caṕıtulo está centrado en estad́ısticos ordenados correspondientes
a variables aleatorias continuas, independientes e idénticamente distribuidas. Co-
menzamos con un caso práctico desarrollando el papel que juegan los estad́ısticos
ordenados en el proceso de inferencia estad́ıstica. A continuación estudiamos las fun-
ciones de distribución y de densidad de forma individual y conjunta de los mismos y
damos algunas propiedades de las funciones de densidad condicionada, aśı como que
la sucesión de estad́ısticos ordenados forman una cadena de Markov y algún resulta-
do bajo la hipótesis de simetŕıa respecto del origen de la distribución. Estudiamos los
momentos de estad́ısticos ordenados centrándonos, por su importancia, en la media,
varianza y covarianza. Obtenemos las distribuciones y los momentos anteriores para
distintos modelos probabiĺısticos. Por último, estudiamos la distribución de algunos
estad́ısticos basados en estad́ısticos ordenados concretos.
En el tercer y último caṕıtulo nos centramos en el caso de variables aleatorias
continuas, independientes y no necesariamente idénticamente distribuidas. Comen-
tamos una importante aplicación en sistemas k-out-of-n y pasamos a estudiar la
distribución de estad́ısticos ordenados, utilizando en este caso el concepto de per-
manentes. Estudiamos algunas relaciones e identidades que satisfacen las funciones
1
de densidad y distribución, y momentos como la media, varianza y covarianza, tam-
bién de manera individual y conjunta, de estad́ısticos ordenados. Por último, damos
una serie de resultados para el caso especial de variables simétricas respecto del
origen.
2
Abstract
The following dissertation is focused on the study of order statistics. Firstly, we
consider the case of independent and identically distributed random variables and
secondly, the case when the random variables are independent and not necessarily
identically distributed. In both cases, we assume that we have a random sample from
a continuous population. The main aim of this document is to study the distribution
of these order statistics and also, some of their features. Some examples of statistics
based on order statistics are the minimum and the maximum, the range and the
median from a sample.
This dissertation is organised as follows:
In the first chapter, we introduce some definitions and results that will be useful
on the following chapters. We begin with the formal definition of order statistic, and
continue with other necessary definitions as the concept of permanent, which will be
very useful on the third chapter, the concept of distribution obtained by truncating
the original population distribution on the left, on the right or doubly truncated,
that will be used to provide the conditioned distribution among order statistics and
the Markov chain concept.
The second chapter is focused on the case of samples of independent and identi-
cally distributed random variables from a continuous population. We consider first
an example, which show the role that order statistics play in statistical inference.
We continue studying the cumulative distribution function and probability density
function of a single order statistic and, similarly, the joint cumulative distribution
and probability density functions, and we give some properties of conditional distri-
bution of order statistics. Also, we show that the sequence of order statistics forms
a Markov chain and we give some results under the supposition of a symmetric
population. After that, we study the moment of order statistics, focused, by their
importance, on the average, variance and covariance. We obtain the distributions
and the prior moments for different probabilistic models. To finish this chapter, we
study the distribution of some statistics based on specific order statistics.
In the third, and the last chapter, we are focused on the case of samples of
independent and not necessarily identically distributed random variables from a
continuous population. We explain an important application on k-out-of-n systems
and study the distribution of order statistics using, in this case, the concept of
permanent. We, also, study some recurrence relations and identities satisfied by dis-
3
tributions of single order statistics, by joint distributions of pairs of order statistics,
and by moments as the average, the variance and the covariance of order statistics.
At the end, we give some results for the special case in which the random variables
are symmetric about 0.
4
Caṕıtulo 1
Preliminares y resultados básicos
Dedicaremos este primer caṕıtulo a la introducción de una serie de conceptos y
resultados, que nos serán de utilidad en el desarrollo de posteriores caṕıtulos. Los
resultados se han obtenido de [2], [3], [5] y [7].
En primer lugar vamos a considerar un conjunto de n variables aleatorias X1, X2,
. . . , Xn continuas e independientes y consideramos ahora la ordenación de estas va-
riables de forma creciente,que denotaremos por X1:n, X2:n, . . . , Xn:n, donde X1:n =
min(X1, X2, . . . , Xn), X2:n es el segundo valor más pequeño de X1, X2, . . . , Xn, y
aśı sucesivamente hasta llegar a Xn:n = max(X1, X2, . . . , Xn).
Al tratarse de variables aleatorias de tipo continuo se tiene que P (Xi = Xj) = 0
(es decir, no se producen empates). Y si consideramos el conjunto de estad́ısticos
ordenados X1:n, X2:n, ..., Xn:n, entonces se sigue con probabilidad 1 que:
X1:n < X2:n < · · · < Xn:n.
Definición 1.1. La función Xk:n de X1, X2, . . . , Xn que toma el valor k-ésimo de
X1:n, X2:n, . . . , Xn:n es conocido como el k-ésimo estad́ıstico ordenado o el estad́ısti-
co de orden k y X1:n, X2:n, . . . , Xn:n es el conjunto de estad́ısticos ordenados de
X1, X2, . . . , Xn.
Una vez definido formalmente el concepto de estad́ıstico ordenado, vamos a intro-
ducir la definiciones de distribución Binomial y de permanentes, que como veremos
más adelante, serán necesarios a la hora de estudiar las distribuciones de los es-
tad́ısticos ordenados.
Definición 1.2. Un experimento de Bernoulli consiste en una prueba en la que
aparecen dos sucesos: éxito (E) y fracaso (F), con probabilidades p ∈ [0, 1] y q = 1−p,
respectivamente.
Definición 1.3. Sean n experimentos de Bernoulli ε1, ..., εn independientes y sea
Xr la variable aleatoria que toma el valor 1 si en εr sale éxito y 0 si sale fracaso.
Llamamos variable aleatoria Binomial a aquella que nos indica el número de éxitos
en los n experimentos: Sn = X1 + · · · + Xn y su función puntual de probabilidad
viene dada por P (Sn = r) =
(
n
r
)
prqn−r, r = 0, ..., n.
5
Pasamos a dar la definición de permanentes y unos comentarios que también
serán de utilidad.
Definición 1.4. Sea una matriz cuadrada A = (ai,j)i,j ∈ Rn×n, se define el perma-
nente de la matriz A como
Per A =
∑
P
n∏
j=1
aj,σj , (1.1)
donde
∑
P denota la suma extendida a las n! permutaciones {σ1, σ2, . . . , σn} de
{1, 2, . . . , n}.
Si A(i, j) denota la submatriz de orden n − 1 obtenida de A eliminando la fila
i-ésima y la columna j-ésima, entonces
Per A =
n∑
i=1
ai,jPer A(i, j), j = 1, 2, ..., n
=
n∑
j=1
ai,jPer A(i, j), i = 1, 2, ..., n.
Es decir, el permanente de una matriz puede extenderse por cualquier fila o columna.
Vamos a usar la notación
a1,1 a1,2 · · · a1,n
a2,1 a2,2 · · · a2,n
· · · · · ·
an,1 an,2 · · · an,n

}n1
}n2
}nn
para indicar que en la matriz, la primera fila está repetida n1 veces, la segunda fila
está repetida n2 veces, y aśı sucesivamente hasta la última fila, que está repetida nn
veces.
A continuación damos las definiciones de las funciones eulerianas y su relación
entre ellas.
Definición 1.5. La función Beta B se define por
B(p, q) =
∫ 1
0
tp−1(1− t)q−1dt, para todo p > 0, q > 0.
Definición 1.6. La función Gamma Γ se define por
Γ(p) =
∫ +∞
0
e−ttp−1dt, para todo p > 0.
Verifica la fórmula recurrente: Γ(p) = (p− 1)Γ(p− 1). Además, si p ∈ Z+, entonces
Γ(p) = (p− 1)!.
6
Proposición 1.7. Entre las funciones Beta y Gamma existe la siguiente relación:
B(p, q) =
Γ(p)Γ(q)
Γ(p+ q)
.
Además, si p, q ∈ Z+, la igualdad anterior puede escribirse como:
B(p, q) =
(p− 1)!(q − 1)!
(p+ q − 1)!
.
Vamos a definir la función cuantil y su relación con una variable aleatoria dada.
Definición 1.8. Dada una variable aleatoria X con función de distribución F , se
llama función cuantil a F−1(u) y viene dada por
F−1(u) = inf{x | F (x) > u}, ∀u ∈ (0, 1).
Una de las principales propiedades de la función cuantil, ampliamente utilizada
en la teoŕıa de simulaciones, es la que se da a continuación.
Proposición 1.9. Dada una variable aleatoria X con función de distribución F y
sea U una variable aleatoria con distribución uniforme estándar, entonces
X
d
= F−1(U) y F (X)
d
= U,
donde
d
= representa la igualdad en la distribución.
Demostración. Considerando la función de distribución inversa F−1(u) = inf{x :
F (x) > u}, 0 < u < 1, por la continuidad por la derecha de F , se sigue que
F (F−1(u)) > u y F−1(F (x)) 6 x. Por lo tanto, u 6 F (x) si y solo si F−1(u) 6 x. Y
para 0 6 F (x) 6 1 tenemos que
P (X 6 x) = F (x) = P (U 6 F (x)) = P (F−1(U) 6 x),
es decir, X
d
= F−1(U).
Por último, P (F (X) 6 u) = P (X 6 F−1(u)) = F (F−1(u)) = u, de donde
F (X)
d
= U .
Una consecuencia directa del resultado anterior es el siguiente corolario.
Corolario 1.10. Dada una variable aleatoria X con función de distribución F y
sea U una variable aleatoria con distribución uniforme estándar, entonces
E(X) = E(F−1(U)) =
∫ 1
0
F−1(u)du.
A continuación introducimos una serie de conceptos probabiĺısticos, sobre varia-
bles aleatorias truncadas y cadenas de Markov, que aparecen de forma natural en
los desarrollos de algunas propiedades de los estad́ısticos ordenados en el caso de
variables aleatorias independientes e idénticamente distribuidas.
7
Definición 1.11. Dada la variable aleatoria X con función de distribución F , la
variable aleatoria X truncada por la derecha en el punto x, {X : X 6 x}, es aquella
cuya función de distribución viene dada por
F (u|x) =P (X 6 u|X 6 x) = P (X 6 u,X 6 x)
P (X 6 x)
=
P (X 6 min(u, x))
P (X 6 x)
=
F (min(u, x))
F (x)
=
{
F (u)
F (x)
si u 6 x
1 si u > x
definida en el conjunto D = {x : F (x) > 0}.
Por lo tanto, su función de densidad viene dada por
f(u|x) =
{
f(u)
F (x)
si u 6 x
0 si u > x.
Definición 1.12. Dada la variable aleatoria X con función de distribución F , la
variable aleatoria X truncada por la izquierda en el punto x, {X : X > x}, es
aquella cuya función de distribución viene dada por
F (u|x) =P (X 6 u|X > x) = P (X 6 u,X > x)
P (X > x)
=

P (φ)
P (X>x) = 0 si u < x
P (x6X6u)
P (X>x) =
F (u)−F (x)
1−F (x) si u > x
definida en el conjunto D = {x : F (x) < 1}.
Por lo tanto, su función de densidad viene dada por
f(u|x) =
{
0 si u < x
f(u)
1−F (x) si u > x.
Definición 1.13. Dada la variable aleatoria X con función de distribución F , la
variable aleatoria X bitruncada por los puntos x, y (x < y), {X : x 6 X 6 y}, es
aquella cuya función de distribución viene dada por
F (u|x, y) =P (X 6 u|x 6 X 6 y) = P (x 6 X 6 min(u, y))
P (x 6 X 6 y)
=

P (φ)
P (x6X6y) = 0 si u < x
P (x6X6u)
P (x6X6y) =
F (u)−F (x)
F (y)−F (x) si x 6 u 6 y
1 si u > y
definida en el conjunto D = {(x, y) ∈ R2 : F (y) > F (x)}.
8
Por lo tanto, su función de densidad viene dada por
f(u|x) =
{
f(u)
F (y)−F (x) si x 6 u 6 y
0 si no.
Definición 1.14. Una cadena de Markov finita homogénea en el tiempo, o lo que
es lo mismo, con probabilidades de transición estacionarias, es una sucesión de va-
riables aleatorias X0, X1, X2, X3, ... que cumplen
a) Cada variable Xn toma solo valores en un conjunto fijo S = {1, 2..., N} ⊂ R,
P (Xn ∈ S) = 1, ∀n = 0, 1, 2, 3, ....
b) Existe una matriz 1×N de números reales a = a(0) =
[
a
(0)
1 a
(0)
2 · · · a
(0)
N
]
,
tal que, a
(0)
j > 0, ∀j = 1, ..., n y
∑n
j=1 a
(0)
j = 1.
c) Existe una matriz N ×N de números reales
P =

P11 P12 · · · P1N
P21 P22 · · · P2N
...
...
...
...
PN1 PN2 · · · PNN
 ,
tal que,
Pij > 0, ∀i, j y
N∑
j=1
Pij = 1 ∀i = 1, 2, ..., N.
d) Para n = 0, 1, 2, ... la distribución de la variable aleatoria de n+1 dimensiones
(X0, X1, ..., Xn) está definida por
P (X0 = j0, X1 = j1, ..., Xn = jn) = a
(0)
j0
Pj0j1Pj1j2 · · ·Pjn−1jn ,
∀(j0, j1, ..., jn) ∈ S×
n+1· · · ×S.
Las probabilidades Pij = P (Xn = j|Xn−1 = i) se llaman probabilidades de tran-
sición en un paso o salto, por tanto la matriz P es la matriz de probabilidades de
transición en un paso.
La condición de Markov
P (Xn = j|X0 = j0, X1 = j1, ..., Xn−1 = jn−1) = P (Xn = j|Xn−1 = jn−1) (1.2)
expresa la siguiente idea:
Conocida la situación del proceso X0, X1, X2, X3... en la etapa n − 1, el conoci-
miento de resultados anteriores no agrega ninguna información para el conocimiento
de etapas futuras.
9
10
Caṕıtulo 2
Estad́ısticos ordenados en el caso
de observaciones independientes e
idénticamentedistribuidas
2.1. Introducción
Vamos a ver, con un ejemplo, que los estad́ısticos ordenados constituyen el esti-
mador de máxima verosimilitud de algún parámetro de determinadas distribuciones,
como es el caso de la distribución uniforme. Conocer, por tanto, las funciones de dis-
tribución o de densidad, o los momentos de los estad́ısticos ordenados puede resultar
de utilidad en el proceso de inferencia estad́ıstica.
Vamos a considerar el caso concreto de una muestra aleatoria simple de tamaño
n de una variable aleatoria X con distribución uniforme de parámetros 0, θ, con
θ > 0 desconocido, cuya función de densidad viene dada por
f(x) =
{
1
θ
si 0 < x < θ,
0 en el resto.
Vamos a obtener el estimador de máxima verosimilitud de θ, que es aquel que a
cada muestra fija le asocia como estimación el valor del parámetro que da máxima
verosimilitud para dicha muestra.
En este caso, la función de verosimilitud viene dada por
L(x1, x2, ..., xn, θ) =
1
θn
si 0 < xi < θ, ∀i
=
{
1
θn
si θ > xn:n
0 si θ < xn:n,
como 1
θn
es decreciente respecto de θ, el máximo de dicha función se alcanza en xn:n.
Por lo tanto se obtiene que el estimador de máxima verosimilitud de θ es θ̂ = Xn:n.
11
Como la función de distribución de la variable aleatoria X viene dado por
FX(x) = P (X 6 x) =
∫ x
0
1
θ
dt =
[
t
θ
]x
0
=

0 si x 6 0
x
θ
si 0 < x < θ
1 si x > θ,
la función de distribución del máximo viene dada por
FXn:n(t) =P (Xn:n 6 t) = P (X1 6 t, . . . , Xn 6 t) =
(
FX(t)
)n
=

0 si t 6 0(
t
θ
)n
si 0 < t < θ
1 si t > θ,
su función de densidad es
fXn:n(t) =
{
n t
n−1
θn
si 0 < t < θ
0 en el resto,
y podemos calcular su esperanza, que viene dada por
E (Xn:n) =
∫ θ
0
t n
tn−1
θn
dt =
n
n+ 1
θ.
Por lo que un estimador insesgado para θ en función del estimador de máxima ve-
rosimilitud θ̂ viene dado por θ̃ = n+1
n
Xn:n.
A continuación vamos a obtener un intervalo de confianza para θ con nivel de
confianza 100(1− α) %, que obtenemos de
P
(
a 6
(
Xn:n
θ
)n
6 b
)
= 1− α,
por lo que,
P
(Xn:n
n
√
b
6 θ 6
Xn:n
n
√
a
)
= 1− α,
entonces, el intervalo de confianza para θ con nivel de confianza 100(1 − α) % es[
Xn:n
n√
b
, Xn:nn√a
]
, con a y b satisfaciendo b− a = 1−α. Vemos que también aparece, este
intervalo de confianza, en términos de estad́ısticos ordenados.
Por tanto, uno de los tópicos de interés en fiabilidad es el estudio de estad́ısticos
ordenados asociados a muestras aleatorias simples, y en particular, el estudio de su
distribución en el muestreo.
Por ello, en este caṕıtulo se lleva a cabo el estudio de la distribución en el
muestreo en el caso de observaciones independientes e idénticamente distribuidas,
que denotamos por i.i.d. Damos algunas propiedades de los estad́ısticos ordenados
y estudiamos los momentos de los mismos. Los resultados se han obtenido de [1] y
[3].
12
2.2. Distribución en el muestreo de estad́ısticos
ordenados
En esta sección estudiamos, para el estad́ıstico ordenado Xi:n con i = 1, ...n, su
función de distribución y su función de densidad, que denotamos respectivamente por
Fi:n y fi:n, y extendemos el resultado al caso de varios estad́ısticos ordenados. Además
vemos un resultado sobre la igualdad en distribución de estad́ısticos ordenados de
una población cualquiera y de la distribución uniforme.
Definición 2.1. Dada una variable aleatoria X con función de distribución F ,
decimos que X1, X2, ..., Xn es una muestra aleatoria simple de X, y lo denotamos
por m.a.s., de tamaño n si verifica las siguientes condiciones:
a) X1, X2, ..., Xn son variables aleatorias independientes.
b) Cada Xi, con i = 1, ..., n, tiene la misma distribución que X.
La función de distribución conjunta de la muestra viene dada por G(x) =
∏n
i=1 F (xi).
Si X tiene función de densidad f , la función de densidad conjunta de la muestra
viene dada por g(x) =
∏n
i=1 f(xi).
A lo largo de todo el caṕıtulo asumimos que X1, X2, ..., Xn es una muestra alea-
toria simple de tamaño n de X de tipo continuo, con función de densidad f y función
de distribución F .
Para los casos particulares del máximo y mı́nimo de la muestra, Xn:n y X1:n, sus
funciones de distribución vienen dadas por:
Fn:n(x) = P (Xn:n 6 x) = P (Xr 6 x, para r = 1, ..., n) = [F (x)]
n, (2.1)
donde la última igualdad es válida por tratarse de una m.a.s., y
F1:n(x) =P (X1:n 6 x) = 1− P (X1:n > x)
=1− P (Xr > x, para r = 1, ..., n) = 1− [1− F (x)]n,
(2.2)
donde, al igual que en el caso anterior, la última igualdad es válida por tratarse de
una m.a.s.
A continuación vamos a obtener la función de distribución del estad́ıstico orde-
nado Xi:n.
Teorema 2.2. Sea Xi:n el i-ésimo estad́ıstico ordenado (i = 1, ..., n) correspondiente
a una m.a.s. de tamaño n, con distribución F . La función de distribución de Xi:n
viene dada por
Fi:n(x) =
n∑
r=i
(
n
r
)
[F (x)]r[1− F (x)]n−r. (2.3)
13
Demostración. Consideramos la m.a.s. X1, X2, ..., Xn y el suceso A = {w : X(w) 6
x}, se tiene P (A) = P ({Xi 6 x}) = F (x).
Si consideramos la variable aleatoria Y que indica el número de sucesos A que
aparecen según la m.a.s., es decir, el número de variables X1, X2, ..., Xn que toman
valores menores o iguales que x, dicha variable aleatoria Y sigue una distribución
Binomial de parámetros n, p = F (x), y por la Definición 1.3 tenemos
P (Y = r) =
(
n
r
)
[F (x)]r[1− F (x)]n−r, r = 0, ..., n.
Entonces la función de distribución del estad́ıstico ordenado Xi:n viene dada por
Fi:n(x) = P (Xi:n 6 x) = P (Al menos i de los X1, ..., Xn sean 6 x)
=
n∑
r=i
P (Exactamente r de los X1, ..., Xn sean 6 x)
=
n∑
r=i
(
n
r
)
[F (x)]r[1− F (x)]n−r.
Entonces vemos que la función de distribución de Xi:n, 1 6 i 6 n es la probabilidad
de la cola (empezando en i) de una distribución binomial cuya probabilidad de éxito
es F (x) y n es el número de pruebas.
Si en (2.3) tomamos i = n se obtiene a la distribución del máximo dada en (2.1)
y si i = 1 se obtiene la función de distribución del mı́nimo, dada en (2.2).
Es importante mencionar que podemos escribir la función de distribución de Xi:n
en términos de la probabilidad binomial negativa, en lugar de la forma binomial an-
terior (véase [1], pág. 13).
Una distribución equivalente para la función de distribución viene dada en la
siguiente proposición.
Proposición 2.3. Sea Xi:n el i-ésimo estad́ıstico ordenado (i = 1, ..., n) correspon-
diente a una m.a.s. de tamaño n, con distribución F . La función de distribución de
Xi:n puede expresarse como
Fi:n(x) =
n!
(i− 1)!(n− i)!
∫ F (x)
0
ti−1(1− t)n−idt. (2.4)
Demostración. Realizando partes en la integral (2.4) de forma reiterada se obtiene
la expresión (2.3).
En el caso en el que la función de distribución de un estad́ıstico ordenado sea
derivable, podemos obtener la función de densidad de dicho estad́ıstico ordenado.
14
Corolario 2.4. Sea Xi:n el i-ésimo estad́ıstico ordenado (i = 1, ..., n) correspon-
diente a una m.a.s. de tamaño n, con distribución F y función de densidad f . La
función de densidad de Xi:n viene dada por
fi:n(x) =
n!
(i− 1)!(n− i)!
[F (x)]i−1[1− F (x)]n−if(x). (2.5)
Demostración. Se obtiene derivando la igualdad (2.4).
La función de densidad para el máximo de la muestra se obtienen para i = 1,
resultando
f1:n(x) = n[1− F (x)]n−1f(x),
y la función de densidad para el máximo de la muestra se obtiene para i = n,
resultando
fn:n(x) = n[F (x)]
n−1f(x).
Una vez vista la distribución para un estad́ıstico ordenado, vamos a pasar a
estudiar en el siguiente teorema la distribución conjunta correspondiente a los es-
tad́ısticos ordenados (Xi:n, Xj:n).
Teorema 2.5. Sean Xi:n, Xj:n dos estad́ısticos ordenados (1 6 i < j 6 n) corres-
pondientes a una m.a.s., con función de distribución F . La función de distribución
conjunta de (Xi:n, Xj:n), con xi < xj, viene dada por
Fi,j:n(xi, xj) =
n∑
s=j
s∑
r=i
n!
r!(s− r)!(n− s)!
[F (xi)]
r[F (xj)− F (xi)]s−r[1− F (xj)]n−s,
xi <xj
(2.6)
Demostración.
Fi,j:n(xi, xj) = P (Xi:n 6 xi, Xj:n 6 xj)
= P
(
Al menos i de los X1, ..., Xn sean 6 xi, y
al menos j de los X1, ..., Xn sean 6 xj
)
=
=
n∑
s=j
s∑
r=i
P
(
Exactamente r de los X1, ..., Xn sean 6 xi, y
exactamente s de los X1, ..., Xn sean 6 xj
)
=
=
n∑
s=j
s∑
r=i
n!
r!(s− r)!(n− s)!
[F (xi)]
r[F (xj)− F (xi)]s−r[1− F (xj)]n−s.
Vemos que la función de distribución conjunta de (Xi:n, Xj:n), con 1 6 i < j 6 n,
es la probabilidad de la cola, en la región rectangular (j, i), (j, i + 1), ..., (n, n), de
una variable aleatoria bidimensional con distribución binomial.
15
A continuación vamos a dar una expresión equivalente para la función de distri-
bución conjunta de (Xi:n, Xj:n).
Proposición 2.6. Sean Xi:n, Xj:n dos estad́ısticos ordenados (1 6 i < j 6 n) corres-
pondientes a una m.a.s., con función de distribución F . La función de distribución
conjunta de (Xi:n, Xj:n), con xi < xj, puede escribirse como
Fi,j:n(xi, xj) =
n!
(i− 1)!(j − i− 1)!(n− j)!
×
∫ F (xi)
0
∫ F (xj)
t1
ti−1(t2 − t1)j−i−1(1− t2)n−jdt2dt1,
xi < xj.
(2.7)
Demostración. Realizando partes en la integral (2.7) de forma reiterada se obtiene
la expresión (2.6).
A partir de la función de distribución conjunta, en el siguiente corolario obtene-
mos la función de densidad conjunta de (Xi:n, Xj:n).
Corolario 2.7. Sean Xi:n, Xj:n dos estad́ısticos ordenados (1 6 i < j 6 n) corres-
pondientes a una m.a.s., con función de distribución F y función de densidad f . La
función de densidad conjunta de (Xi:n, Xj:n), con xi < xj, viene dada por
fi,j:n(xi, xj) =
n!
(i− 1)!(j − i− 1)!(n− j)!
[F (xi)]
i−1[F (xj)− F (xi)]j−i−1
× [1− F (xj)]n−jf(xi)f(xj), xi < xj.
(2.8)
Demostración. Se obtiene derivando (2.7) respecto de xi y xj.
En particular, tomando i = 1 y j = n obtenemos la función de densidad conjunta
del mı́nimo y el máximo de la muestra:
f1,n:n(x1, xn) = n(n− 1)[F (xn)− F (x1)]n−2f(x1)f(xn), x1 < xn. (2.9)
Análogamente, tomando j = i + 1 obtenemos la función de densidad conjunta
de dos estad́ısticos ordenados consecutivos, (Xi:n, Xi+1:n), con 1 6 i 6 n− 1:
fi,i+1:n(xi, xi+1) =
n!
(i− 1)!(n− i− 1)!
[F (xi)]
i−1[1− F (xi+1)]n−i−1f(xi)f(xi+1),
xi < xi+1.
(2.10)
El resultado anterior se puede generalizar para el caso de k estad́ısticos ordena-
dos, en cuyo caso tenemos la siguiente proposición.
16
Proposición 2.8. Sean Xn1:n, ..., Xnk:n k estad́ısticos ordenados (1 6 n1 < · · · <
nk 6 n; 1 6 k 6 n) correspondientes a una m.a.s de tamaño n, con función de
distribución F y función de densidad f . La función de densidad conjunta de los k
estad́ısticos ordenados (Xn1:n, ..., Xnk:n), con x1 < . . . < xk, viene dada por
fIk(x1, ..., xk) =
n!
(n1 − 1)!(n2 − n1 − 1)! · · · (n− nk)!
f(x1)f(x2) · · · f(xk)
×[F (x1)]n1−1[F (x2)− F (x1)]n2−n1−1 · · · [1− F (xk)]n−nk ,
x1 < . . . < xk,
(2.11)
donde Ik = n1, ..., nk : n.
Definiendo x0 = −∞, xk+1 = +∞, n0 = 0, nk+1 = n+1, la función de densidad
conjunta se puede expresar como:
fIk(x1, ..., xk) = n!
[
k∏
j=1
f(xj)
]
k∏
j=0
[F (xj+1)− F (xj)]nj+1−nj−1
(nj+1 − nj − 1)!
, x1 < . . . < xk.
donde Ik = n1, ..., nk : n.
En particular, la función de probabilidad conjunta de (X1:n, X2:n, ..., Xn:n) viene
dado por
fIn(x1, ..., xn) = n!f(x1) · · · f(xn) = n!
n∏
i=1
f(xi), x1 < · · · < xn,
donde In = 1, ..., n : n.
Obsérvese que de la expresión anterior podŕıan obtenerse la función de densidad
del estad́ıstico ordenado Xi:n y la función de densidad conjunta de (Xi:n, Xj:n) como
densidades marginales de fIn(x1, ..., xn).
Pasamos a continuación a estudiar la igualdad en distribución de las funcio-
nes de distribución de los estad́ısticos ordenados correspondientes a distribuciones
cualesquiera y a distribuciones uniformes.
Proposición 2.9. Sea U1, U2, ..., Un una muestra aleatoria simple de una distribu-
ción uniforme estándar y sea X1, X2, ..., Xn una muestra aleatoria simple de una
población con función de distribución F (x), y sean {U1:n 6 U2:n 6 ... 6 Un:n},
{X1:n 6 X2:n 6 ... 6 Xn:n} los estad́ısticos ordenados respectivos de cada muestra.
Se verifica
F (Xi:n)
d
= Ui:n, i = 1, 2, ..., n,
F−1(Ui:n)
d
= Xi:n, i = 1, 2, ..., n,
donde
d
= representa la igualdad en la distribución.
17
Demostración. Aplicando la Proposición 1.9 se tiene que(
F−1(U1), . . . , F
−1(Un)
) d
=
(
X1, . . . , Xn
)
,(
F (X1), . . . , F (Xn)
) d
=
(
U1, . . . , Un
)
,
de donde se obtiene el resultado.
2.3. Algunas propiedades fundamentales de los es-
tad́ısticos ordenados
Teorema 2.10. Sean X1, X2, ..., Xn una muestra aleatoria simple de una distribu-
ción X con función de distribución F y función de densidad f , y sea X1:n, X2:n, ..., Xn:n
el conjunto de estad́ısticos ordenados correspondiente. Entonces, la distribución de
Xj:n condicionada por Xi = xi con 1 6 i < j 6 n coincide con la distribución
del estad́ıstico ordenado Xj−i:n obtenida de una muestra de tamaño n − i de una
población cuya distribución es la de F truncada por la izquierda de xi.
Demostración. De las funciones de densidad fi:n y fi,j:n dadas en (2.5) y (2.8),
respectivamente, obtenemos la función de densidad de Xj:n condicionada por Xi:n =
xi como
fj:n(xj|Xi:n = xi) =
fi,j:n(xi, xj)
fi:n(xi)
=
(n− i)!
(j − i− 1)!(n− j)!
[
F (xj)− F (xi)
1− F (xi)
]j−i−1 [
1− F (xj)
1− F (xi)
]n−j
f(xj)
1− F (xi)
,
xi < xj,
(2.12)
El resultado se sigue de la Definición 1.12 observando que
F (xj)−F (xi)
1−F (xi) y
f(xj)
1−F (xi) son la
función de distribución y la función de densidad de una población cuya distribución
se obtiene truncando la de F a la izquierda de xi.
Teorema 2.11. Sean X1, X2, ..., Xn una muestra aleatoria simple de una distribu-
ción X con función de distribución F y función de densidad f , y sea X1:n, X2:n, ..., Xn:n
el conjunto de estad́ısticos ordenados correspondientes. Entonces, la distribución de
Xi:n condicionada por Xj = xj con 1 6 i < j 6 n coincide con la distribución del
estad́ıstico ordenado Xi:n obtenida de una muestra de tamaño j−1 de una población
cuya distribución es la de F truncada por la derecha de xj.
Demostración. De las funciones de densidad fj:n y fi,j:n dadas en (2.5) y (2.8), res-
pectivamente, obtenemos la función de densidad de Xi:n condicionada por Xj:n = xj
como
18
fi:n(xi|Xj:n = xj) =
fi,j:n(xi, xj)
fj:n(xj)
=
(j − 1)!
(i− 1)!(j − i− 1)!
[
F (xi)
F (xj)
]i−1 [
F (xj)− F (xi)
F (xj)
]j−i−1
f(xi)
F (xj)
,
xi < xj.
La demostración se completa con la Definición 1.11, observando que F (xi)
F (xj)
y f(xi)
F (xj)
son la función de distribución y la función de densidad de una población cuya dis-
tribución se obtiene truncando la de F a la derecha de xj.
En el siguiente teorema vamos a probar que la sucesión de estad́ısticos ordenados
forma una cadena de Markov.
Teorema 2.12. Sea {Xi}i una sucesión de variables aleatorias independientes de
una población X con función de distribución F y función de densidad f y sea {Xi:n}i
la correspondiente sucesión de estad́ısticos ordenados. Entonces esta sucesión de
estad́ısticos ordenados forman una cadena de Markov.
Demostración. En primer lugar obtenemos de (2.11) la función de densidad conjunta
de (X1:n, X2:n, ..., Xi:n), con 1 6 i 6 n e Ii = 1, 2, ..., i : n, y viene dada por
fIi(x1, x2, ..., xi) =
n!
(n− i)!
[1− F (xi)]n−if(x1)f(x2) · · · f(xi),
x1 < x2 < · · · < xi,
y la función de densidad conjunta de (X1:n, X2:n, ..., Xi:n, Xj:n), con 1 6 i < j 6 n e
Ii,j = 1, 2, ..., i, j : n
fIi,j(x1, x2, ..., xi, xj) =
n!
(j − i− 1)!(n− j)!
[F (xj)− F (xi)]j−i−1
× [1− F (xj)]n−jf(x1)f(x2) · · · f(xi)f(xj),
x1 < x2 < · · · < xi < xj,
de las cuales obtenemos la función de densidad de Xj:n condicionada por X1:n =
x1, X2:n = x2, ..., Xi:n = xi, como
fj:n(xj|X1:n = x1, X2:n = x2, ..., Xi:n = xi) =
fIi,j(x1, x2, ..., xi, xj)
fIi(x1, x2, ..., xi)
=
(n− i)!
(j − i− 1)!(n− j)!
[
F (xj)− F (xi)
1− F (xi)
]j−i−1 [
1− F (xj)
1− F (xi)
]n−j
f(xj)
1− F (xi)
,
x1 < x2 < · · · < xi < xj,que como podemos observar es la misma que la función de densidad de Xj:n condi-
cionada por Xi = xi dada en (2.12), i.e.,
fj:n(xj|X1:n = x1, X2:n = x2, ..., Xi:n = xi) = fj:n(xj|Xi:n = xi),
lo que establece, por la Definición 1.14, que los estad́ısticos ordenados en una muestra
del caso continuo forman una cadena de Markov.
19
Además, la función de densidad de transición viene dada por (2.5) y (2.10):
fi+1:n(xi+1|Xi = xi) =
fi,i+1:n(xi, xi + 1)
fi:n(xi)
=(n− i)
[
1− F (xi+1)
1− F (xi)
]n−i−1
f(xi+1)
1− F (xi)
, xi < xi+1.
En el siguiente teorema vamos a ver la función de densidad condicionada, en este
caso, por dos estad́ısticos ordenados.
Teorema 2.13. Sean X1, X2, ..., Xn una muestra aleatoria simple de una distribu-
ción X con función de distribución F y función de densidad f , y sean X1:n, X2:n, ..., Xn:n
los estad́ısticos ordenados obtenidos de la muestra. Entonces, la distribución de Xj:n
condicionada por Xi = xi y Xk:n = xk con 1 6 i < j < k 6 n es la misma que
la distribución del estad́ıstico ordenado Xj−i:n obtenida de una muestra de tamaño
k − i− 1 de una población cuya función de distribución es la de F truncada por la
izquierda de xi y por la derecha de xk.
Demostración. En primer lugar obtenemos de (2.11) la función de densidad conjunta
de (Xi:n, Xj:n, Xk:n), 1 6 i < j < k 6 n
fi,j,k:n(xi, xj, xk) =
n!
(i− 1)!(j − i− 1)!(k − j − 1)!(n− k)!
f(xi)f(xj)f(xk)
×[F (xi)]i−1[F (xj)− F (xi)]j−i−1[F (xk)− F (xj)]k−j−1[1− F (xk)]n−k,
xi < xj < xk.
De ésta y de la función de densidad conjunta de (Xi:n, Xk:n) dada por (2.8) obtenemos
la función de densidad de Xj:n condicionada por Xi:n = xi y Xk:n = xk, como
fj:n(xj|Xi:n = xi, Xk:n = xk) =
fi,j,k:n(xi, xj, xk)
fi,k:n(xi, xk)
=
(k − i− 1)!
(j − i− 1)!(k − j − 1)!
[
F (xj)− F (xi)
F (xk)− F (xi)
]j−i−1
×
[
F (xk)− F (xj)
F (xk)− F (xi)
]k−j−1
f(xj)
F (xk)− F (xi)
.
El resultado se obtiene de la Definición 1.13 observando que
F (xj)−F (xi)
F (xk)−F (xi)
y
f(xj)
F (xk)−F (xi)
son las funciones de distribución y densidad, respectivamente, de una población cuya
distribución se obtiene truncando la de F por la izquierda de xi y por la derecha de
xk.
Además de estos resultados, los estad́ısticos ordenados tienen más propiedades
interesantes sobre su distribución si ésta es simétrica respecto del origen.
Definición 2.14. Dada la variable aleatoria X continua, diremos que es simétrica
respecto del origen si X y −X tienen la misma distribución, es decir, si se verifica
alguna de las siguientes condiciones equivalentes:
20
a) f(−x) = f(x).
b) F (−x) = 1− F (x).
Proposición 2.15. Sean X1, X2, ..., Xn una muestra aleatoria simple con distribu-
ción simétrica respecto del origen, función de distribución F y función de densidad
f , y sea X1:n, X2:n, ..., Xn:n el conjunto de estad́ısticos ordenados obtenidos de la
muestra. Entonces se verifica
a) Xi:n
d
= −Xn−i+1:n.
b) (Xi:n, Xj:n)
d
= (−Xn−j+1:n,−Xn−i+1:n).
Demostración. Los dos apartados resultan inmediatos de la Definición 2.14, al tra-
tarse de una distribución simétrica respecto del origen.
Este resultado ayudará a reducir cálculos en la evaluación de momentos de es-
tad́ısticos ordenados en el caso de una población simétrica.
2.4. Momentos de estad́ısticos ordenados
En esta sección estudiamos distintos momentos de estad́ısticos ordenados, cen-
trándonos por su importancia, en la media, la varianza y la covarianza. Terminamos
este apartado aplicándolo a distintos modelos de probabilidad.
Representamos por Ci,n y Ci,j,n a las constantes:
Ci,n =
n!
(i− 1)!(n− i)!
, Ci,j,n =
n!
(i− 1)!(j − i− 1)!(n− j)!
.
Denotamos el momento de orden uno del estad́ıstico ordenado Xi:n como µi:n y
toma el valor E(Xi:n) si esta esperanza matemática existe, en cuyo caso su expresión
viene dada por
µi:n =
∫ ∞
−∞
xfi:n(x)dx,
que por (2.5) puede escribirse como
µi:n = Ci,n
∫ ∞
−∞
x[F (x)]i−1[1− F (x)]n−if(x)dx,
y considerando el cambio u = F (x) en la integral anterior, se obtiene
µi:n = Ci,n
∫ 1
0
F−1(u)ui−1[1− u]n−idu.
La existencia de µi:n está garantizada si existe E(X) ya que
|µi:n| 6 Ci,n
∫ 1
0
|F−1(u)|du = Ci,nE(|X|),
21
por la Proposición 1.10 y porque |ui−1| 6 1, |[1−u]n−i| 6 1. Por lo tanto µi:n existe
siempre que E(X) exista.
De la misma forma, si g(x) es alguna función de x y existe E (g(X)), enton-
ces también existe E (g(Xi:n)). En los casos especiales en que g(x) = x
k, g(x) =
(x − µi:n)k y g(x) = etx se obtienen, respectivamente, los momentos ordinarios, los
momentos centrales o respecto de la media y la función generatriz de momentos del
estad́ıstico ordenado Xi:n.
Denotamos el momento ordinario (o respecto del origen) de orden m del es-
tad́ıstico ordenado Xi:n, i = 1, ..., n y m > 1 como µ
(m)
i:n y toma el valor E(X
m
i:n).
Entonces, considerando (2.5), 1 6 i 6 n tenemos
µ
(m)
i:n = Ci,n
∫ ∞
−∞
xm[F (x)]i−1[1− F (x)]n−if(x)dx.
Alternativamente, de la Proposición 2.9 podemos escribirlo de la forma
µ
(m)
i:n = Ci,n
∫ 1
0
[F−1(u)]mui−1[1− u]n−idu.
Denotamos el momento mixto de orden (mi,mj) de los estad́ısticos ordenados
Xi:n, Xj:n, i, j = 1, ..., n y mi,mj > 1 como µ
(mi,mj)
i,j:n y toma el valor E(X
mi
i:nX
mj
j:n ).
Considerando ahora (2.8), 1 6 i < j 6 n tenemos
µ
(mi,mj)
i,j:n =Ci,j,n
∫ ∞
−∞
∫ xj
−∞
xmii x
mj
j [F (xi)]
i−1[F (xj)− F (xi)]j−i−1[1− F (xj)]n−j
× f(xi)f(xj)dxidxj.
De nuevo por la Proposición 2.9, podemos escribirlo de la forma
µ
(mi,mj)
i,j:n = Ci,j,n
∫ 1
0
∫ uj
0
[F−1(ui)]
mi [F−1(uj)]
mjui−1i (uj − ui)j−i−1(1− uj)n−jduiduj.
(2.13)
Denotamos la covarianza de Xi:n, Xj:n como σi,j:n y toma el valor
σi,j:n = Cov(Xi:n, Xj:n) = E
(
(Xi:n − µi:n)(Xj:n − µj:n)
)
,
de donde resulta inmediato que
σi,j:n = E(Xi:nXj:n)− E(Xi:n)E(Xj:n). (2.14)
Como observamos se verifica que la covarianza es simétrica respecto de i, j, es decir,
σi,j:n = σj,i:n. Si i = j, entonces σi,i:n = σ
2
i:n que coincide con la varianza de Xi:n, es
decir,
σ2i:n = V ar(Xi:n) =
∫ ∞
−∞
(x− µi:n)2fi:n(x)dx
que puede escribirse como
σ2i:n = µ
(2)
i:n − (µi:n)2 (2.15)
22
En el caso en el que i < j tenemos
σi,j:n =
∫ ∞
−∞
∫ x2
−∞
(x1 − µi:n)(x2 − µj:n)fi,j:n(x1, x2)dx1dx2,
donde la función de densidad conjunta fi,j:n(x1, x2) está definida por (2.8).
Una expresión equivalente para σi,j:n, utilizando la Proposición 2.9, es
σi,j:n = E
[
[F−1(Ui:n)− µi:n][F−1(Uj:n)− µj:n]
]
= Ci,j,n
∫ 1
0
∫ u2
0
[F−1(u1)− µi:n][F−1(u2)− µj:n]
× ui−11 (u2 − u1)j−i−1(1− u2)n−jdu1du2.
A continuación vamos a dar dos proposiciones sobre los momentos, la primera consi-
derando que las variables aleatorias son simétricas respecto del origen y la segunda
para variables aleatorias en general.
Proposición 2.16. Sean X1, X2, ..., Xn una muestra aleatoria simple de una distri-
bución simétrica respecto del origen, entonces se verifica
a) µ
(m)
i:n = (−1)mµ
(m)
n−i+1:n.
b) µ
(mi,mj)
i,j:n = (−1)mi+mjµ
(mj ,mi)
n−j+1,n−i+1:n.
c) σi,i:n = σn−i+1,n−i+1:n.
d) σi,j:n = σn−j+1,n−i+1:n.
Demostración. Basta aplicar la Proposición 2.15.
En particular, tomando en a) m = 1, entonces µi:n = −µn−i+1:n, y tomando en
b) mi = mj = 1, entonces µi,j:n = µn−j+1,n−i+1:n
Proposición 2.17. Sean µ y σ la media poblacional y la varianza, respectivamente.
Se tienen los resultados siguientes:
a)
∑n
i=1 µi:n = nµ.
b)
∑n
i=1E(X
2
i:n) = nE(X
2).
c)
∑n
i=1
∑n
j=1E(Xi:nXj:n) = nE(X
2) + n(n− 1)µ2.
d)
∑n−1
i=1
∑n
j=i+1E(Xi:nXj:n) =
1
2
n(n− 1)µ2.
e)
∑n
i=1
∑n
j=1 σi,j:n = nσ
2.
f) Si µ = 0⇒
∑n
j=i+1 µi,j:n +
∑i
l=1 µl,i+1:n = 0, i = 1, ..., n− 1.
23
Demostración. Los dos primeros resultados se prueban de la relación(
n∑
i=1
Xmi:n
)k
=
(
n∑
i=1
Xmi
)k
,
la cual es cierta ya que el lado izquierdo de la igualdad es únicamente una reordena-
ción del lado derecho. Tomando entonces los valores de (m, k) iguales a (1, 1) y (2, 1),
se obtienen respectivamente a) y b).
El apartado c) se demuestra aplicando b) pues
n∑
i=1
n∑
j=1
E(Xi:nXj:n) =
n∑
i=1
E(X2i:n) + 2
∑
i<jE(Xi:nXj:n)
=nE(X2) + 2
∑
i<j
µ2 = nE(X2) + n(n− 1)µ2.
Para demostrar d) basta restar b) de c) ya que
n−1∑
i=1
n∑
j=i+1
E(Xi:nXj:n) =
1
2
(
n∑
i=1
n∑
j=1
E(Xi:nXj:n)−
n∑
i=1
E(X2i:n)
)
=
1
2
n(n− 1)µ2.
Elevando al cuadrado la igualdad
∑n
i=1(Xi:n − µi:n) =
∑n
i=1(Xi − µ), la cual es
válida por a), obtenemos e).
Para demostrar f) vamos a considerar en primer lugar
J1 = nCi,n−1
∫ 1
0
∫ v
0
F−1(u)F−1(v)ui−1(1− u)n−i−1dudv,
si en la integral anterior escribimos (1− u) = (1− v) + (v − u) se tiene
J1 = nCi,n−1
n−i−1∑
k=0
(
n− i− 1
k
)∫ 1
0
∫ v
0
F−1(u)F−1(v)ui−1(v−u)k(1−v)n−i−1−kdudv,
y por la expresión (2.13) podemos escribir
J1 =
n!
(i− 1)!(n− i− 1)!
n−i−1∑
k=0
(
n− i− 1
k
)
(i− 1)!k!(n− i− 1− k)!
n!
µi,i+1+k:n
=
n∑
j=i+1
µi,j:n.
Sea ahora
J2 = nCi,n−1
∫ 1
0
∫ 1
v
F−1(u)F−1(v)ui−1(1− u)n−i−1dudv
24
si consideramos en la integral anterior u = v + (u− v), se tiene
J2 = nCi,n−1
i−1∑
k=0
(
i− 1
k
)∫ 1
0
∫ 1
v
F−1(u)F−1(v)vk(u− v)i−1−k(1− u)n−i−1dudv.
y de nuevo por la expresión (2.13) podemos escribir
J2 =
n!
(i− 1)!(n− i− 1)!
i−1∑
k=0
(
i− 1
k
)
k!(i− 1− k)!(n− i− 1)!
n!
µk+1,i+1:n
=
i∑
l=1
µl,i+1:n.
Como J1 + J2 = nµi:n−1µ = 0, se obtiene el resultado.
Para distribuciones especiales puede ser posible complementar las relaciones vis-
tas en la Proposición 2.17 con los resultados de distribuciones simétricas de la Pro-
posición 2.15. Además de proporcionar más control en el cálculo, estas relaciones
pueden conducir a útiles simplificaciones.
Veamos a continuación algunos ejemplos.
Ejemplo 2.18. Sea X una variable aleatoria con distribución potencial, cuya fun-
ción de densidad viene dada por
f(x) =
{
νxν−1 si 0 < x < 1, ν > 0
0 en el resto.
Vamos a estudiar los momentos y momentos mixtos de los estad́ısticos ordenados
X1:n, ..., Xn:n.
Observamos que la función de distribución de X viene dada por
F (x) =

0 si x < 0
xν si 0 < x < 1, ν > 0
1 si x > 1.
Vamos a comenzar obteniendo la función de distribución de Xi:n, 1 6 i 6 n, que de
(2.4), viene dada por
Fi:n(x) =
n!
(i− 1)!(n− i)!
∫ xν
0
ti−1(1− t)n−idt, 0 < x < 1, ν > 0.
Su función de densidad, de (2.5), viene dada por
fi:n(x) =
n!
(i− 1)!(n− i)!
νxiν−1(1− xν)n−i, 0 < x < 1, ν > 0.
El momento de orden m de Xi:n, para 1 6 i 6 n viene dado por
µ
(m)
i:n =
∫ 1
0
xmfi:n(x)dx =
n!
(i− 1)!(n− i)!
∫ 1
0
νxiν+m−1(1− xν)n−idx,
25
y considerando el cambio de variable y = xν
µ
(m)
i:n =
1
B(i, n− i+ 1)
∫ 1
0
yi+
m
ν
−1(1− y)n−idy
=
1
B(i, n− i+ 1)
B
(
i+
m
ν
, n− i+ 1
)
=
Γ(n+ 1)
Γ(i)
Γ
(
i+ m
ν
)
Γ
(
n+ 1 + m
ν
) .
En particular tomando m = 1 y m = 2, respectivamente, tenemos
µi:n = E(Xi:n) =
Γ(n+ 1)
Γ(i)
Γ
(
i+ 1
ν
)
Γ
(
n+ 1 + 1
ν
) , (2.16)
µ
(2)
i:n = E(X
2
i:n) =
Γ(n+ 1)
Γ(i)
Γ
(
i+ 2
ν
)
Γ
(
n+ 1 + 2
ν
) ,
y la varianza de Xi:n, por (2.15), viene dada por
V ar(Xi:n) =
Γ(n+ 1)
Γ(i)
[
Γ
(
i+ 2
ν
)
Γ
(
n+ 1 + 2
ν
) − Γ(i+ 1ν )
Γ
(
n+ 1 + 1
ν
)µi:n] .
Pasamos ahora a la distribución conjunta de los estad́ısticos ordenados (Xi:n, Xj:n)
(1 6 i < j 6 n). En primer lugar, su función de distribución conjunta, por (2.7),
viene dada por
Fi,j:n(xi, xj) =
n!
(i− 1)!(j − i− 1)!(n− j)!
×
∫ xνi
0
∫ xνj
t1
ti−11 (t2 − t1)j−i−1(1− t2)n−jdt2dt1,
0 < xi < xj < 1, ν > 0,
y la función de densidad conjunta de (Xi:n, Xj:n) (1 6 i < j 6 n), considerando
(2.8), es
fi,j:n(xi, xj) =
n!
(i− 1)!(j − i− 1)!(n− j)!
(xνi )
i−1(xνj−xνi )j−i−1(1−xνj )n−jνxν−1i νxν−1j .
(2.17)
A partir de (2.17) obtenemos el momento mixto de orden (mi,mj)
µ
(mi,mj)
i,j:n = E(X
mi
i:nX
mj
j:n ) =
∫ 1
0
∫ xj
0
xmii x
mj
j fi,j:n(xi, xj)dxidxj
=
n!
(i− 1)!(j − i− 1)!(n− j)!
B
(
i+
mi
ν
, j − i
)
B
(
j +
mi +mj
ν
, n− j + 1
)
=
Γ(n+ 1) Γ
(
i+ mi
ν
)
Γ
(
j +
mi+mj
ν
)
Γ(i) Γ
(
j +
mj
ν
)
Γ
(
n+ 1 +
mi+mj
ν
) , 1 6 i < j 6 n.
En particular, tomando mi = mj = 1 obtenemos el momento mixto de orden (1, 1)
de Xi:n, Xj:n :
µi,j:n = E(Xi:nXj:n) =
Γ(n+ 1) Γ
(
i+ 1
ν
)
Γ
(
j + 2
ν
)
Γ(i) Γ
(
j + 1
ν
)
Γ
(
n+ 1 + 2
ν
) , 1 6 i < j 6 n, (2.18)
26
y considerando la expresión de covarianza de Xi:n, Xj:n dada en (2.14), junto a las
expresiones (2.16) y (2.18) tenemos
σi,j:n =
Γ(n+ 1)
Γ(i)
[
Γ
(
j + 2
ν
)
Γ
(
j + 1
ν
) Γ(i+ 1ν )
Γ
(
n+ 1 + 2
ν
) − Γ(i+ 1ν )
Γ
(
n+ 1 + 1
ν
)µj:n] ,
1 6 i < j 6 n, ν > 0.
En el caso particular en que ν = 1, la distribución potencial corresponde a una
distribución uniforme en el intervalo [0, 1] y de las expresiones anteriores se ob-
tendŕıan las funciones de distribución y de densidad de los estad́ısticos ordenados,
al igual que los momentos de los mismos.
Los primeros momentos de estad́ısticos ordenados en muestras aleatorias de ta-
maño n se pueden obtener expĺıcitamente solo para algunas poblaciones, como la
uniforme o la potencial. En algunos casos para obtener dichos momentos es necesario
utilizar integración numérica. Para muchas de estas distribuciones, dichas medias,
varianzas y covarianzas están tabuladas.
A continuación vamos a ver otro ejemplo, cuando la variable aleatoria X sigue
una distribución normal. En este caso vamos a obtener relaciones recurrentes entre la
suma de momentos, cuyo uso es t́ıpico para proporcionar más control en computación
y reducir el número de cálculos en la evaluación de momentos.
Ejemplo 2.19. Sea una variable aleatoria X ∼ N(0, 1), con función de densidad
dada por
f(x) =
1√
2π
e−
1
2
x2 , −∞ < x <∞.
Sabemos que X =
∑n
i=1Xi
n
∼ N(0, 1
n
) y que nE(X
2
) = 1. Además es conocido
que, en el caso de la normal,
(
X1−X,X2−X, . . . , Xn−X
)
y X son independientes,
por lo que
(
X1:n−X,X2:n−X, . . . , Xn:n−X
)
y X son independientes. Entonces de
la independencia de Xi:n −X y X resulta
E
[
(Xi:n −X)X
]
= 0 o equivalentemente E(Xi:nX) = E(X
2
) =
1
n
. (2.19)
A continuación vamos a obtener que
∑n
j=1 µi,j:n = 1, i = 1, ..., n, para ello
basta aplicar (2.19). Lo vemos:
n∑
j=1
µi,j:n =
n∑
j=1
E(Xi:nXj:n) = E
(
n∑
j=1
Xi:nXj:n
)
= E
(
Xi:n
n∑
j=1
Xj:n
)
= E
(
Xi:n(nX)
)
= nE(Xi:nX) = 1,
27
de donde se tiene que
n∑
j=1
σi,j:n =
n∑
j=1
[E(Xi:nXj:n)− E(Xi:n)E(Xj:n)]
=
n∑
j=1
E(Xi:nXj:n)−
n∑
j=1
E(Xi:n)E(Xj:n)
=
n∑
j=1
µi,j:n − E(Xi:n)E
(
n∑
j=1
Xj:n
)
= 1− E(Xi:n)E(nX) = 1− 0 = 1,
i = 1, ..., n.
Por otra parte, considerando la matriz (µi,j:n) y aplicando el apartado f) de la
Proposición 2.17 tenemos que
∑i
j=1 µi+1,j:n = −
∑n
j=i+1 µi,j:n, por tanto
n∑
j=i
µi,j:n =
n∑
j=1
µi,j:n −
i−1∑
j=1
µi,j:n = 1−
i−1∑
j=1
µi,j:n = 1 +
n∑
j=i
µi−1,j:n, i = 1, ..., n,
que puede escribirse también como
µi,i:n = 1 +
n∑
j=i
µi−1,j:n −
n∑
j=i+1
µi,j:n, i = 1, ..., n, (2.20)
Sumando ahora la expresión (2.20) desde i+ 1 hasta n obtenemos
n∑
j=i+1
µi,j:n =
n∑
j=i+1
µj,j:n − (n− i) i = 1, ..., n− 1.
2.5. Distribución de la mediana, el rango y otros
estad́ısticos
Vamos a pasar a definir algunos estad́ısticos, el primero de localización (fija la
muestra en torno a un valor), y los dos siguientes de dispersión (miden la variabilidad
de la muestra), para posteriormente estudiar la distribución de cada uno de ellos.
En esta sección se aplica en algunos casos el Teorema de Fubini para intercambiar
el orden de integración ya que se cumple que el integrando es una función continua.
Definición 2.20. Dado una muestra de variables aleatorias X1, X2, ...., Xn, llama-
mos mediana muestral al valor
X̃n =

Xn+1
2
:n si n impar
1
2
(Xn
2
:n +Xn
2
+1:n) si n par.
Definición 2.21. Dado una muestra de variables aleatorias X1, X2, ...., Xn, llama-
mos rango muestral al valor
W = Xn:n −X1:n.
28
Definición 2.22. Dado una muestra de variables aleatorias X1, X2, ...., Xn, llama-
mos rango medio muestral al valor
W =
1
2
(Xn:n +X1:n).
Mediana muestral
Teorema 2.23. Sea X̃n la mediana muestral de una m.a.s. de tamaño n, con n
impar, y con función de distribución F y función de densidad f . La función de
densidad de X̃n viene dada por
fX̃n(x) =
n![(
n−1
2
)
!
]2 [F (x)(1− F (x))]n−12f(x).
Demostración. La mediana muestral cuando el tamaño de la muestra es impar es
X̃n = Xn+1
2
:n. Tomando entonces i =
n+1
2
en (2.5) se obtiene el resultado.
Obsérvese que la función de densidad de la mediana muestral es simétrica res-
pecto del origen si lo es la distribución de X.
Teorema 2.24. Sea X̃n la mediana muestral de una m.a.s. de tamaño n, con n par,
y con función de distribución F y función de densidad f . La función de densidad de
X̃n viene dada por
fX̃n(x) =
2n![(
n
2
− 1
)
!
]2 ∫ x
−∞
[F (x1)]
n
2
−1[1− F (2x− x1)]
n
2
−1f(x1)f(2x− x1)dx1.
(2.21)
Demostración. La mediana muestral cuando el tamaño de la muestra es par es
X̃n =
1
2
(Xn
2
:n +Xn
2
+1:n). Consideramos primero la función de densidad conjunta de
(Xn
2
:n, Xn
2
+1:n) obtenida de (2.8) tomando i =
n
2
y j = n
2
+ 1:
fn
2
,n
2
+1:n(x1, x2) =
n![(
n
2
− 1
)
!
]2 [F (x1)]n2−1[1− F (x2)]n2−1f(x1)f(x2),
x1 < x2.
Obtenemos de ésta la función de densidad conjunta de (Xn
2
:n, X̃n) considerando el
cambio de variable x2 = 2x − x1, (ya que Xn
2
+1:n = 2X̃n −Xn
2
:n) y notando que la
transformación de (x1, x2) a (x1, x) tiene Jacobiano igual a 2, resulta
fXn
2
,X̃n
(x1, x) =
2n![(
n
2
− 1
)
!
]2 [F (x1)]n2−1[1− F (2x− x1)]n2−1f(x1)f(2x− x1),
x1 < x.
La función de densidad de la mediana muestral X̃n dada en (2.21) es la integral de
la expresión anterior sobre x1 en el intervalo (−∞, x).
29
La obtención exacta de dicha densidad no resulta fácil, no obstante, en el si-
guiente teorema damos una expresión de la función de distribución de la mediana
muestral X̃n.
Teorema 2.25. Sea X̃n la mediana muestral de una m.a.s. de tamaño n, con n par,
función de distribución F y función de densidad f . La función de distribución de
X̃n viene dada por
FX̃n(x0) =
n!(
n
2
− 1
)
!
(
n
2
)
!
[∫ x0
−∞
[F (x1)]
n
2
−1[1− F (x1)]
n
2 f(x1)dx1
−
∫ x0
−∞
[F (x1)]
n
2
−1[1− F (2x0 − x1)]
n
2 f(x1)dx1
]
.
Demostración. La función de distribución de X̃n, por (2.21), viene dada por
FX̃n(x0) =
∫ x0
−∞
fX̃n(x)dx =
2n![(
n
2
− 1
)
!
]2 ∫ x0
−∞
∫ x
−∞
[F (x1)]
n
2
−1[1− F (2x− x1)]
n
2
−1
× f(x1)f(2x− x1)dx1dx.
Aplicando el teorema de Fubini e intercambiando el orden de integración
FX̃n(x0) =
2n![(
n
2
− 1
)
!
]2
×
∫ x0
−∞
[F (x1)]
n
2
−1f(x1)
[∫ x0
x1
[1− F (2x− x1)]
n
2
−1f(2x− x1)dx
]
dx1,
y haciendo el cambio de variable y = 2x− x1
FX̃n(x0) =
2n![(
n
2
− 1
)
!
]2 ∫ x0
−∞
[F (x1)]
n
2
−1f(x1)
[
1
2
∫ 2x0+x1
x1
[1− F (y)]
n
2
−1f(y)dy
]
dx1
=
2n![(
n
2
− 1
)
!
]2 ∫ x0
−∞
[F (x1)]
n
2
−1f(x1)
[
− 1
n
[1− F (y)]
n
2
]2x0+x1
x1
dx1
=
2n![(
n
2
− 1
)
!
]2 1n
∫ x0
−∞
[F (x1)]
n
2
−1f(x1)
[
[1− F (x1)]
n
2 − [1− F (2x0 − x1)]
n
2
]
dx1
=
2n!(
n
2
− 1
)
!
(
n
2
− 1
)
!
n
2
n
2
1
n
×
∫ x0
−∞
[F (x1)]
n
2
−1f(x1)
[
[1− F (x1)]
n
2 − [1− F (2x0 − x1)]
n
2
]
dx1
=
n!(
n
2
− 1
)
!
(
n
2
)
!
[∫ x0
−∞
[F (x1)]
n
2
−1[1− F (x1)]
n
2 f(x1)dx1
−
∫ x0
−∞
[F (x1)]
n
2
−1[1− F (2x0 − x1)]
n
2 f(x1)dx1
]
.
30
Rango muestral
Teorema 2.26. Sea X1:n y Xn:n el mı́nimo y el máximo estad́ıstico ordenado, res-
pectivamente, de una m.a.s. de tamaño n, con función de distribución F y función
de densidad f . Consideramos el rango W = Xn:n − X1:n, entonces la función de
densidad del rango W viene dada por
fW (w) = n(n− 1)
∫ ∞
−∞
[F (x1 + w)− F (x1)]n−2f(x1)f(x1 + w)dx1, w > 0. (2.22)
Demostración. Consideramos la función de densidad conjunta de (X1:n, Xn:n) ob-
tenida en (2.9) y el cambio de variable xn = x1 + w, (ya que Xn:n = X1:n + W ).
Observando que la transformación de (x1, xn) a (x1, w) tiene Jacobiano igual a la
unidad obtenemos la función de densidad conjunta de (X1:n,W ) y viene dada por
fX1:n,W (x1, w) = n(n− 1)[F (x1 + w)− F (x1)]n−2f(x1)f(x1 + w), w > 0.
La función de densidad del rango muestral dada en (2.22) viene dada por la integral
de la expresión anterior respecto de x1 a lo largo de toda la recta real.
Aunque la obtención exacta de dicha densidad no resulta fácil, en el siguiente
teorema damos una expresión de la función de distribución de W .
Teorema 2.27. Sea X1:n y Xn:n el mı́nimo y el máximo estad́ıstico ordenado, res-
pectivamente, de una m.a.s. de tamaño n, con función de distribución F y función
de densidad f . Consideramos el rango W = Xn:n −X1:n, la función de distribución
del rango W viene dada por
FW (w0) = n
∫ ∞
−∞
[F (x1 + w0)− F (x1)]n−1f(x1)dx1, w0 > 0. (2.23)
Demostración. La función de distribución de W , por (2.22), viene dada por
FW (w0) =
∫ w0
0
fW (w)dw
=
∫ w0
0
n(n− 1)
∫ ∞
−∞
[F (x1 + w)− F (x1)]n−2f(x1)f(x1 + w)dx1dw.
Aplicando el teorema de Fubini e intercambiando el orden de integración
FW (w0) =n
∫ ∞
−∞
f(x1)
[∫ w0
0
(n− 1)[F (x1 + w)− F (x1)]n−2f(x1 + w)dw
]
dx1
y haciendo el cambio de variable y = x1 + w
FW (w0) =n
∫ ∞
−∞
f(x1)
[∫ x1+w0
x1
(n− 1)[F (y)− F (x1)]n−2f(y)dy
]
dx1
=n
∫ ∞
−∞
f(x1)
[
[F (y)− F (x1)]n−1
]x1+w0
x1
dx1
=n
∫ ∞
−∞
[F (x1 + w0)− F (x1)]n−1f(x1)dx1, w0 > 0.
31
Las expresiones de las funciones de densidad y de distribución de W dadas en
(2.22) y (2.23) son para el caso en el que la distribución de la población tiene so-
porte infinito, y puede usarse también si tiene soporte finito cambiando los ĺımites
de integración de forma apropiada.
Los resultados para el rango muestral pueden ser generalizados al rango de Xi:n
a Xj:n, Wi,j:n = Xj:n −Xi:n, 1 6 i < j 6 n.
Teorema 2.28. Sea Xi:n y Xj:n con 1 6 i < j 6 n los estad́ısticos ordenados de
una m.a.s. de tamaño n, con función de distribución F y función de densidad f .
Consideramos el rango Wi,j:n = Xj:n −Xi:n, la función de densidad del rango Wi,j:n
viene dada por
fWi,j:n(w) =
n!
(i− 1)!(j − i− 1)!(n− j)!
∫ ∞
−∞
[F (xi)]
i−1[F (xi + w)− F (xi)]j−i−1
× [1− F (xi + w)]n−jf(xi)f(xi + w)dxi, w > 0.
Demostración. Basta considerar la función de densidad conjunta de dos estad́ısticos
ordenados dada en (2.8), y tomar w = xj − xi. Notando que la transformación de
(xi, xj) a (xi, w) tiene Jacobiano igual a la unidad e integrando sobre xi nos queda
la fórmula buscada.
Rango medio muestral
Teorema 2.29. Sea X1:n y Xn:n el mı́nimo y el máximo estad́ıstico ordenado, res-
pectivamente, de una m.a.s. de tamaño n, con función de distribución F y función
de densidad f . Consideramos el rango medio W = 1
2
(Xn:n + X1:n), la función de
densidad del rango medio W viene dada por
fW (w) = 2n(n− 1)
∫ w
−∞
[F (2w − x1)− F (x1)]n−2f(x1)f(2w − x1)dx1. (2.24)
Demostración. A partir de la función de densidad conjunta de X1:n y Xn:n obtenida
en (2.9), considerando el cambio de variable xn = 2w−x1 (ya que Xn:n = 2W−X1:n)
y notando que la transformación de (x1, xn) a (x1, w) tiene Jacobiano igual a 2
obtenemos la función de densidad conjunta de (X1:n,W )
fX1:n,W (x1, w) = 2n(n− 1)[F (2w − x1)− F (x1)]
n−2f(x1)f(2w − x1),
x1 < w.
La función de densidad del rango medio muestral dada en (2.24) es la integral de la
expresión anterior respecto de x1 en el intervalo (−∞, w).
Teorema 2.30. Sea X1:n y Xn:n el mı́nimo y el máximo estad́ıstico ordenado, res-
pectivamente, de una m.a.s. de tamaño n, con función de distribución F y función
de densidad f . Consideramos el rango medio W = 1
2
(Xn:n + X1:n), la función de
distribución del rango medio W viene dada por
FW (w0) = n
∫ w0
−∞
[F (2w0 − x1)− F (x1)]n−1f(x1)dx1. (2.25)
32
Demostración. La función de distribución, por (2.24), viene dada por
FW (w0) =
∫ w0
−∞
fW (w)dw
=2n(n− 1)
∫ w0
−∞
∫ w
−∞
[F (2w − x1)− F (x1)]n−2f(x1)f(2w − x1)dx1dw.
Aplicando el teorema de Fubini e intercambiando el orden de integración
FW (w0) =n
∫ w0
−∞
f(x1)
[
2(n− 1)
∫ w0
x1
[F (2w − x1)− F (x1)]n−2f(2w − x1)dw
]
dx1
y haciendo el cambio de variable y = 2w − x1, dy = 2dw
FW (w0) =n
∫ w0
−∞
f(x1)
[
2(n− 1)
∫ 2w0−x1
x1
[F (y)− F (x1)]n−2f(y)dy
]
dx1
=n
∫ w0
−∞
f(x1)
[
[F (y)− F (x1)]n−1
]2w0−x1
x1
dx1
=n
∫ w0
−∞
[F (2w0 − x1)− F (x1)]n−1f(x1)dx1.
2.6. Conclusiones
Hemos estudiadoen este caṕıtulo la distribución de estad́ısticos ordenados, tanto
de forma individual como de forma conjunta, aśı como la propiedad sobre la igualdad
en distribución de los estad́ısticos ordenados correspondientes a variables aleatorias
cualesquiera y de los estad́ısticos ordenados correspondientes a una población uni-
forme. Además de la obtención de la función de densidad condicionada y qué ocurre
en el caso de que las variables sean simétricas respecto del origen. Hemos obtenido
distintos momentos de estad́ısticos ordenados, principalmente la media, varianza y
covarianza y hemos calculado dichos momentos o relaciones entre ellos en los mode-
los de probabilidad potencial y normal. Por último, hemos calculado la distribución
de la mediana, el rango y el rango medio muestral, todo ello bajo la hipótesis de que
las variables aleatorias son continuas, independientes e idénticamente distribuidas.
33
34
Caṕıtulo 3
Estad́ısticos ordenados en el caso
de observaciones independientes y
no idénticamente distribuidas
3.1. Introducción
Una de las principales aplicaciones en fiabilidad de los estad́ısticos ordenados es
el estudio de lo que se conoce como sistema k-out-of-n. Un sistema de n componentes
que funciona si y solo si al menos k de las n componentes lo hacen se llama siste-
ma k-out-of-n. Tanto los sistemas en series como los sistemas en paralelo son casos
especiales de sistemas k-out-of-n, un sistema en serie es equivalente a un sistema
n-out-of-n, mientras que un sistema en paralelo es equivalente a un 1-out-of-n.
La estructura de un sistema k-out-of-n es un tipo muy popular de sistemas, que
toleran que falle un determinado número de componentes y tiene aplicaciones tanto
en sistemas industriales como militares.
Por ejemplo, es posible conducir un coche con motor de 8 cilindros si al menos 4
están en correcto funcionamiento. Sin embargo, si son menos de 4 los que funcionan
correctamente no es posible conducir el coche. En este caso, el funcionamiento del
motor puede representarse por un sistema 4-out-of-8. El sistema tolera que fallen
hasta 4 cilindros sin que se interrumpa el funcionamiento del motor. En un sistema
de procesamiento de datos con 5 cámaras de v́ıdeo, un mı́nimo de 3 cámaras en co-
rrecto funcionamiento son suficientes para una visualización de datos completa. En
este caso se trata de un sistema 3-out-of-5. En un sistema de comunicaciones con 3
transmisores deben de estar operativos al menos 2 de ellos para que no se produzcan
pérdidas cŕıticas del mensaje. Por tanto, este sistema de transmisión funciona como
un 2-out-of-3.
Sistemas con repuestos también se representan por modelos k-out-of-n. Es el caso
de los coches, los cuales están equipados con una rueda de repuesto en el veh́ıculo y
pueden ser conducidos siempre que 4 de las 5 ruedas estén en buenas condiciones,
35
por lo tanto es un sistema 4-out-of-5.
Si consideramos un sistema k-out-of-n con componentes con tiempos de funciona-
miento aleatorio X1, X2, . . . , Xn independientes y no necesariamente idénticamente
distribuidos, entonces Xn−k+1:n denota el tiempo de funcionamiento del sistema.
Este caṕıtulo está dedicado al estudio de la distribución en el muestreo en el
caso de observaciones independientes, pero ahora consideramos variables aleatorias
no necesariamente idénticamente distribuidas, que denotamos por i.n.i.d. Como he-
rramienta técnica usamos la noción de permanentes dada en la Definición 1.4. Los
resultados se han obtenido de [2], [4] y [6].
3.2. Distribución en el muestreo de estad́ısticos
ordenados.
A lo largo de todo el caṕıtulo asumimos que X1, X2, ..., Xn son variables aleato-
rias i.n.i.d. de tipo continuo, denotamos por fr y Fr las funciones de densidad y de
distribución, respectivamente, de Xr para r = 1, 2, ..., n, y consideramos el conjun-
to de estad́ısticos ordenados X1:n, X2:n, ..., Xn:n asociado a X1, X2, ..., Xn. También
usaremos la notación
∑
P para identificar la suma extendida a las n! permutaciones
{σ1, σ2, ..., σn} de {1, 2, ..., n}.
En primer lugar vamos a obtener la función de densidad del estad́ıstico ordenado
Xi:n.
Teorema 3.1. Sea X1, X2, ..., Xn un conjunto de observaciones i.n.i.d. Sea Xi:n el
i-ésimo estad́ıstico ordenado (i = 1, ..., n), entonces su función de densidad viene
dada por
fi:n(x) =
1
(i− 1)!(n− i)!
Per A1, (3.1)
donde
A1 =
 F1(x) F2(x) · · · Fn(x)f1(x) f2(x) · · · fn(x)
1− F1(x) 1− F2(x) · · · 1− Fn(x)
 }i–1}1
}n–i.
Demostración. Consideramos
Pr(x < Xi:n 6 x+ ∆x) =
1
(i− 1)!(n− i)!
∑
P
Fσi(x) · · ·Fσi−1 [Fσi(x+ ∆x)− Fσi(x)]
× [1− Fσi+1(x+ ∆x)] · · · [1− Fσn(x+ ∆x)] +O((∆x)2),
donde O((∆x)2) denota la probabilidad correspondiente a que más de un estad́ıstico
ordenado esté en (x, x+ ∆x].
36
Dividiendo ambos lados de la ecuación por ∆x y haciendo tender ∆x a cero,
obtenemos la función de densidad de Xi:n
fi:n(x) = ĺım
∆x→0
(
Pr(x < Xi:n 6 x+ ∆x)
∆x
)
=
1
(i− 1)!(n− i)!
∑
P
Fσi(x) · · ·Fσi−1fσi(x)[1− Fσi+1(x)] · · · [1− Fσn(x)].
De esta expresión y de la Definición (1.1) podemos escribir la función de densidad
de Xi:n para i = 1, ..., n como (3.1).
Vamos a ver ahora la función de distribución del estad́ıstico ordenado Xi:n.
Teorema 3.2. Sea X1, X2, ..., Xn un conjunto de observaciones i.n.i.d. Sea Xi:n el
i-ésimo estad́ıstico ordenado (i = 1, ..., n), entonces su función de distribución viene
dada por
Fi:n(x) =
n∑
r=i
1
r!(n− r)!
Per B1, (3.2)
donde
B1 =
(
F1(x) F2(x) · · · Fn(x)
1− F1(x) 1− F2(x) · · · 1− Fn(x)
)
}r
}n–r.
Demostración. Consideramos
Fi:n(x) =Pr(Xi:n 6 x) = Pr(Al menos i de los X1, ..., Xn sean 6 x)
=
n∑
r=i
Pr(Exactamente r de los X1, ..., Xn sean 6 x)
=
n∑
r=i
1
r!(n− r)!
∑
P
Fσ1(x) · · ·Fσr(x)[1− Fσr+1(x)] · · · [1− Fσn(x)].
De esta relación y de la Definición (1.1), podemos escribir la función de distribución
de Xi:n para i = 1, ..., n como (3.2).
De igual manera, podemos calcular las funciones de densidad y de distribución
conjunta de varios estad́ısticos ordenados. Calculamos primero la función de densi-
dad conjunta de (Xi:n, Xj:n).
Teorema 3.3. Sea X1, X2, ..., Xn un conjunto de observaciones i.n.i.d. Sean Xi:n y
Xj:n dos estad́ısticos ordenados (1 6 i < j 6 n), entonces la función de densidad
conjunta de (Xi:n, Xj:n) viene dada por
fi,j:n(xi, xj) =
1
(i− 1)!(j − i− 1)!(n− j)!
Per A2, xi < xj, (3.3)
37
donde
A2 =

F1(xi) F2(xi) · · · Fn(xi)
f1(xi) f2(xi) · · · fn(xi)
F1(xj)− F1(xi) F2(xj)− F2(xi) · · · Fn(xj)− Fn(xi)
f1(xj) f2(xj) · · · fn(xj)
1− F1(xj) 1− F2(xj) · · · 1− Fn(xj)

}i–1
}1
}j–i–1
}1
}n–j.
Demostración. Consideramos
Pr(xi < Xi:n 6 xi + ∆xi, xj < Xj:n 6 xj + ∆xj)
=
1
(i− 1)!(j − i− 1)!(n− j)!
∑
P
Fσ1(xi) · · ·Fσi−1(xi)[Fσi(xi + ∆xi)− Fσi(xi)]
× [Fσi+1(xj)− Fσi+1(xi + ∆xi)] · · · [Fσj−1(xj)− Fσj−1(xi + ∆xi)]
× [Fσj(xj + ∆xj)− Fσj(xj)][1− Fσj+1(xj + ∆xj)] · · · [1− Fσn(xj + ∆xj)]
+O((∆xi)
2∆xj) +O(∆xi(∆xj)
2),
dondeO((∆xi)
2∆xj) denota los términos de orden mayor correspondientes a que más
de un estad́ıstico ordenado estén en (xi, xi+∆xi] y exactamente uno en (xj, xj+∆xj],
y O(∆xi(∆xj)
2) los correspondientes a que exactamente uno esté en (xi, xi + ∆xi] y
más de uno en (xj, xj + ∆xj]. Dividiendo ambos lados de la expresión por ∆xi∆xj y
haciendo tender ambos términos ∆xi y ∆xj a cero, obtenemos la función de densidad
conjunta de (Xi:n, Xj:n).
fi,j:n(xi, xj) = ĺım
∆xi→0,∆xj→0
(
Pr(xi < Xi:n 6 xi + ∆xi, xj < Xj:n 6 xj + ∆xj)
∆xi∆xj
)
=
1
(i− 1)!(j − i− 1)!(n− j)!
∑
P
Fσ1(xi) · · ·Fσi−1(xi)fσi(xi)
× [Fσi+1(xj)− Fσi+1(xi)] · · · [Fσj−1(xj)− Fσj−1(xi)]
× fσj(xj)[1− Fσj+1(xj)] · · · [1− Fσn(xj)], xi < xj.
De esta expresión y de la Definición (1.1) podemos escribir la función de densidad
conjunta de (Xi:n, Xj:n) para 1 6 i < j 6 n como (3.3).
A continuación obtenemos la función de distribución conjunta de (Xi:n, Xj:n).
Teorema 3.4. Sea X1, X2, ..., Xn un conjunto de observaciones i.n.i.d. Sean Xi:n y
Xj:n dos estad́ısticos ordenados (1 6 i < j 6 n).Entonces la función de distribución
conjunta de (Xi:n, Xj:n) viene dada por
Fi,j:n(xi, xj) =
n∑
s=j
s∑
r=i
1
r!(s− r)!(n− s)!
Per B2, xi < xj, (3.4)
donde
B2 =
 F1(xi) F2(xi) · · · Fn(xi)F1(xj)− F1(xi) F2(xj)− F2(xi) · · · Fn(xj)− Fn(xi)
1− F1(xj) 1− F2(xj) · · · 1− Fn(xj)
 }r}s–r
}n–s.
38
Demostración. Consideramos
Fi,j:n(xi, xj) =Pr(Xi:n 6 xi, Xj:n 6 xj)
=Pr
(
Al menos i de los X1, ..., Xn sean 6 xi,
Al menos j de los X1, ..., Xn sean 6 xj
)
=
n∑
s=j
s∑
r=i
Pr
(
Exactamente r de los X1, ..., Xn sean 6 xi,
Exactamente s de los X1, ..., Xn sean 6 xj
)
=
n∑
s=j
s∑
r=i
1
r!(s− r)!(n− s)!
∑
P
Fσ1(x1) · · ·Fσr(xi)
× [Fσr+1(xj)− Fσr+1(xi)] · · · [Fσs(xj)− Fσs(xi)]
× [1− Fσs+1(xj)] · · · [1− Fσn(xj)].
De esta relación y de la Definición (1.1), podemos escribir la función de distribución
conjunta de (Xi:n, Xj:n) para 1 6 i < j 6 n como (3.4).
Podemos generalizar el proceso para el caso de k estad́ısticos ordenados.
Teorema 3.5. Sea X1, X2, ..., Xn un conjunto de observaciones i.n.i.d. Sean Xn1:n,
Xn2:n, ..., Xnk:n k estad́ısticos ordenados (1 6 n1 < n2 < · · · < nk 6 n, 1 6 k 6 n) e
Ik = n1, n2, ..., nk : n. Entonces la función de densidad conjunta de (Xn1:n, Xn2:n, ...,
Xnk:n) viene dada por
fIk(x1, ..., xk) =
1
(n1 − 1)!(n2 − n1 − 1)! · · · (nk − nk−1 − 1)!(n− nk)!
Per Ak,
x1 < x2 < · · · < xk,
donde
Ak =

F1(x1) · · · Fn(x1)
f1(x1) · · · fn(x1)
F1(x2)− F1(x1) · · · Fn(x2)− Fn(x1)
f1(x2) · · · fn(x2)
...
...
F1(xk)− F1(xk−1) · · · Fn(xk)− Fn(xk−1)
f1(xk) · · · fn(xk)
1− F1(xk) · · · 1− Fn(xk)

}n1–1
}1
}n2–n1–1
}1
}nk–nk−1–1
}1
}n–nk.
Teorema 3.6. Sea X1, X2, ..., Xn un conjunto de observaciones i.n.i.d. Sean Xn1:n,
Xn2:n, ..., Xnk:n k estad́ısticos ordenados (1 6 n1 < n2 < · · · < nk 6 n, 1 6
k 6 n) e Ik = n1, n2, ..., nk : n. Entonces la función de distribución conjunta de
(Xn1:n, Xn2:n, ..., Xnk:n) viene dada por
FIk(x1, ..., xk) =
∑ 1
j1!j2! · · · jk+1!
Per Bk, x1 < x2 < · · · < xk,
39
donde
Bk =

F1(x1) · · · Fn(x1)
F1(x2)− F1(x1) · · · Fn(x2)− Fn(x1)
...
...
F1(xk)− F1(xk−1) · · · Fn(xk)− Fn(xk−1)
1− F1(xk) · · · 1− Fn(xk)

}j1
}j2
}jk
}jk+1
y la suma se extiende a los j1, j2, ..., jk+1 con j1 > n1, j1 + j2 > n2, . . . , j1 + j2 +
· · ·+ jk > nk y j1 + j2 + · · · jk + jk+1 = n.
3.3. Algunas propiedades fundamentales
En esta sección vamos a considerar S un subconjunto de N = {1, ..., n} y Sc su
complementario en N . Denotamos el cardinal del conjunto S como |S| y el i-ésimo
estad́ıstico ordenado obtenido de las variables {Xi |i ∈ S} como Xi:S, con funciones
de distribución y de densidad Fi:S y fi:S respectivamente. Cuando no haya confusión,
reemplazaremos S por |S| en las notaciones anteriores (como por ejemplo, Xi:n en
lugar de Xi:N).
Para un x ∈ R, denotamos los vectores fila (F1(x) F2(x) · · · Fn(x))1×n por F,
(f1(x) f2(x) · · · fn(x))1×n por f y (1 1 · · · 1)1×n por 1. Además vamos a considerar
para r = 1, 2, ..., i
F r:i(x) =
1(
n
i
) ∑
|S|=i
Fr:S(x) (3.5)
y
f r:i(x) =
1(
n
i
) ∑
|S|=i
fr:S(x), (3.6)
donde
∑
|S|=i denota la suma de todos los subconjuntos S de N cuyo cardinal es i.
Denotamos por F
[r]
i:n−1 y f
[r]
i:n−1 las funciones de distribución y de densidad del i-ésimo
estad́ıstico ordenado del subconjunto de n − 1 variables aleatorias obtenidas elimi-
nando Xr del conjunto original. Análogamente, denotamos por F
[r]
i,j:n−1 y f
[r]
i,j:n−1 las
funciones de distribución y de densidad conjunta de (Xi:n−1, Xj:n−1), donde Xi:n−1 y
Xj:n−1 pertenecen al subconjunto de n−1 variables aleatorias obtenidas eliminando
Xr del conjunto original.
Vamos a probar a continuación algunas relaciones e identidades que satisfacen
los estad́ısticos ordenados. La mayoŕıa están presentadas en términos de su función
de densidad o su función de distribución, pero también se satisfacen para momentos,
si éstos existen.
Proposición 3.7. (Regla triangular) Sea X1, X2, ..., Xn un conjunto de observacio-
nes i.n.i.d. y sea X1:n, X2:n, ..., Xn:n el conjunto de estad́ısticos ordenados correspon-
diente. Para 1 6 i 6 n− 1 se tiene
ifi+1:n(x) + (n− i)fi:n(x) = nf i:n−1(x).
40
Demostración. Considerando la expresión de ifi+1:n de (3.1):
ifi+1:n(x) =
i
i!(n− i− 1)!
Per
 Ff
1− F
 }i}1
}n–i–1
=
1
(i− 1)!(n− i− 1)!
Per
 Ff
1− F
 }i}1
}n–i–1
y extendiendo el permanente por su primera fila tenemos
ifi+1:n(x) =
1
(i− 1)!(n− i− 1)!
n∑
j=1
Fj(x)Per
 Ff
1− F
 }i–1}1
}n–i–1
=
n∑
j=1
Fj(x)f
[j]
i:n−1(x).
(3.7)
Considerando ahora la expresión de (n− i)fi:n de (3.1):
(n− i)fi:n(x) =
n− i
(i− 1)!(n− i)!
Per
 Ff
1− F
 }i–1}1
}n–i
=
1
(i− 1)!(n− i− 1)!
Per
 Ff
1− F
 }i–1}1
}n–i
y extendiendo el permanente por su última fila tenemos
(n− i)fi:n(x) =
1
(i− 1)!(n− i− 1)!
n∑
j=1
[1− Fj(x)]Per
 Ff
1− F
 }i–1}1
}n–i–1
=
n∑
j=1
[1− Fj(x)]f [j]i:n−1(x).
(3.8)
Sumando las expresiones (3.7) y (3.8) se tiene
ifi+1:n(x) + (n− i)fi:n(x) =
n∑
j=1
Fj(x)f
[j]
i:n−1(x) +
n∑
j=1
[1− Fj(x)]f [j]i:n−1(x)
=
n∑
j=1
f
[j]
i:n−1(x) = nf i:n−1(x),
ya que, por (3.3), se tiene
f i:n−1(x) =
1(
n
n−1
) ∑
|S|=n−1
fi:S(x) =
1
n
∑
|S|=n−1
fi:S(x) =
1
n
n∑
j=1
f
[j]
i:n−1(x).
41
Este resultado nos permite determinar distribuciones de estad́ısticos ordenados
a partir de otras conocidas.
Proposición 3.8. Sea X1, X2, ..., Xn un conjunto de observaciones i.n.i.d. y sea
X1:n, X2:n, ..., Xn:n el conjunto de estad́ısticos ordenados correspondiente. Se verifica
la siguiente relación
1
2
[Fn+1:2n(x) + Fn:2n(x)] = F n:2n−1(x).
Demostración. El resultado se sigue de la proposición anterior tomando 2n en lugar
de n y n en lugar de i.
Este resultado implica que el valor esperado de la mediana de 2n variables es
exactamente el promedio de los valores esperados de las medianas de 2n−1 variables
(obtenidas eliminando una variable cada vez).
Proposición 3.9. Sea X1, X2, ..., Xn un conjunto de observaciones i.n.i.d. y sea
X1:n, X2:n, ..., Xn:n el conjunto de estad́ısticos ordenados correspondiente. Para 1 6
i 6 n− 1 se verifica
a) Fi:n(x) = Fi+1:n(x) +
(
n
i
)
1
n!
Per
(
F
1− F
)
} i
}n–i,
b) Fi:n(x) = F i:n−1(x) +
(
n− 1
i− 1
)
1
n!
Per
(
F
1− F
)
} i
}n–i.
Demostración. La relación dada en a) se sigue de (3.2) de la siguiente manera:
Fi:n(x) =
n∑
r=i
1
r!(n− r)!
Per
(
F
1− F
)
} r
}n–r
=
n∑
r=i+1
1
r!(n− r)!
Per
(
F
1− F
)
} r
}n–r +
1
r!(n− r)!
Per
(
F
1− F
)
} r
}n–r
=Fi+1:n(x) +
(
n
i
)
1
n!
Per
(
F
1− F
)
} r
}n–r.
Para probar b) consideramos:
n!Fi:n(x) =
n∑
r=i
(
n
i
)
Per
(
F
1− F
)
} r
}n–r
=
n∑
r=i
((
n− 1
i− 1
)
+
(
n− 1
i
))
Per
(
F
1− F
)
} r
}n–r
=
(
n− 1
i− 1
)
Per
(
F
1− F
)
} i
}n–i
+
n−1∑
r=i
(
n− 1
i
)
Per
(
F
1− F
)
} r + 1
}n–r–1
+
n−1∑
r=i
(
n− 1
i
)
Per
(
F
1− F
)
} r
}n–r,
42
extendiendo el segundo permanente por una de las primeras r + 1 filas y el tercero
por una de las últimas n− r filas,
n!Fi:n(x) =
(
n− 1
i− 1
)
Per
(
F
1− F
)
} i
}n–i
+
n−1∑
r=i
(
n− 1
i
) ∑
|S|=n−1
Per
(
F
1− F
)
} r
}n–r–1 [S] · F [S
c]
+
n−1∑
r=i
(
n− 1
i
) ∑
|S|=n−1
Per
(
F
1− F
)
} r
}n–r–1 [S] · (1− F )[S
c]
=
(
n− 1
i− 1
)
Per
(
F
1− F
)
} i
}n–i
+
n−1∑
r=i
(
n− 1
i
) ∑
|S|=n−1
Per
(
F
1− F
)
} r
}n–r–1 [S]
=
(
n− 1
i− 1
)
Per
(
F
1− F
)
} i
}n–i + (n− 1)!
∑
|S|=n−1
Fi:S(x)
donde F [Sc] denota la función de distribución de la variable cuyas componentes co-
rresponden a los ı́ndices {1, 2, . . . , n} \ S y [S] denota que la matriz del permanente
que le acompaña corresponde a la submatriz de orden n− 1.
Entonces
Fi:n(x) =
(
n− 1
i− 1
)
1
n!
Per
(
F
1− F
)
} i
}n–i +
(n− 1)!
n!
∑
|S|=n−1
Fi:S(x)
=
(
n− 1
i− 1
)
1
n!
Per
(
F
1− F
)
} i
}n–i + F i:n−1(x).
A continuación vamos a ver relaciones que se satisfacen, en este caso por distri-
buciones conjuntas de pares de estad́ısticos ordenados, presentadas en términos de
sus funciones de densidad o distribución conjunta, o sus momentos (si existen).Proposición 3.10. Sean X1, X2, ..., Xn, con n > 2, un conjunto de observaciones
i.n.i.d. y sea X1:n, X2:n, ..., Xn:n el conjunto de estad́ısticos ordenados correspondien-
te. Se verifica la siguiente relación
n∑
i=1
n∑
j=1
E(Xi:nXj:n) =
n∑
i=1
V ar(Xi) +
(
n∑
i=1
E(Xi)
)2
. (3.9)
Demostración. En primer lugar consideramos la identidad:
n∑
i=1
n∑
j=1
Xi:nXj:n =
n∑
i=1
n∑
j=1
XiXj =
n∑
i=1
X2i +
∑
i 6=j
Xi:nXj:n.
43
Tomando esperanzas a ambos lados y al tratarse de variables independientes, tene-
mos:
n∑
i=1
n∑
j=1
E(Xi:nXj:n) =
n∑
i=1
E(X2i ) +
∑
i 6=j
E(Xi:nXj:n)
=
n∑
i=1
(
V ar(Xi) + [E(Xi)]
2
)
+
∑
i 6=j
E(Xi:n)E(Xj:n)
=
n∑
i=1
V ar(Xi) +
(
n∑
i=1
E(Xi)
)2
.
Proposición 3.11. Sean X1, X2, ..., Xn, con n > 2, un conjunto de observaciones
i.n.i.d. y sea X1:n, X2:n, ..., Xn:n el conjunto de estad́ısticos ordenados obtenidos de
la muestra. Se verifica la igualdad siguiente
n−1∑
i=1
n∑
j=i+1
E(Xi:nXj:n) =
1
2
( n∑
i=1
E(Xi)
)2
−
n∑
i=1
[E(Xi)]
2
 .
Demostración. Como se cumplen las igualdades:
n∑
i=1
n∑
j=1
E(Xi:nXj:n) =
n∑
i=1
E(X2i:n) + 2
n−1∑
i=1
n∑
j=i+1
E(Xi:nXj:n) (3.10)
y
n∑
i=1
E(X2i:n) =
n∑
i=1
E(X2i ), (3.11)
sustituyendo (3.11) en (3.10) se obtiene directamente que
2
n−1∑
i=1
n∑
j=i+1
E(Xi:nXj:n) =
n∑
i=1
n∑
j=1
E(Xi:nXj:n)−
n∑
i=1
E(X2i ) (3.12)
y sustituyendo ahora la expresión (3.9) en (3.12) se tiene
2
n−1∑
i=1
n∑
j=i+1
E(Xi:nXj:n) =
n∑
i=1
V ar(Xi) +
(
n∑
i=1
E(Xi)
)2
−
n∑
i=1
E(X2i )
=
(
n∑
i=1
E(Xi)
)2
−
n∑
i=1
[E(Xi)]
2 .
Proposición 3.12. (Regla del tetraedro) Sea X1, X2, ..., Xn un conjunto de obser-
vaciones i.n.i.d. y sea X1:n, X2:n, ..., Xn:n el conjunto de estad́ısticos ordenados co-
rrespondiente. Para 2 6 i < j 6 n y x < y, se tiene
(i−1)fi,j:n(x, y)+(j−i)fi−1,j:n(x, y)+(n−j+1)fi−1,j−1:n(x, y) = nf i−1,j−1:n−1(x, y).
(3.13)
44
Demostración. Considerando la expresión de (i− 1)fi,j:n(x, y) de (3.3)
(i− 1)fi,j:n(x, y)
=
i− 1
(i− 1)!(j − i− 1)!(n− j)!
Per

F(x)
f(x)
F(y)− F(x)
f(y)
1− F(y)

}i–1
}1
}j–i–1
}1
}n–j
=
1
(i− 2)!(j − i− 1)!(n− j)!
Per

F(x)
f(x)
F(y)− F(x)
f(y)
1− F(y)

}i–1
}1
}j–i–1
}1
}n–j
y extendiendo el permanente por su primera fila, tenemos
(i− 1)fi,j:n(x, y) =
n∑
r=1
Fr(x)f
[r]
i−1,j−1:n−1(x, y). (3.14)
A continuación, considerando la expresión de (j − i)fi−1,j:n(x, y) de (3.3),
(j − i)fi−1,j:n(x, y)
=
j − i
(i− 2)!(j − i)!(n− j)!
Per

F(x)
f(x)
F(y)− F(x)
f(y)
1− F(y)

}i–2
}1
}j–i
}1
}n–j
=
1
(i− 2)!(j − i− 1)!(n− j)!
Per

F(x)
f(x)
F(y)− F(x)
f(y)
1− F(y)

}i–2
}1
}j–i
}1
}n–j
y extendiendo el permanente por su fila i-ésima, tenemos
(j − i)fi−1,j:n(x, y) =
n∑
r=1
[Fr(y)− Fr(x)]f [r]i−1,j−1:n−1(x, y). (3.15)
Por último, considerando la expresión de (n− j + 1)fi−1,j−1:n(x, y) de (3.3),
(n− j + 1)fi−1,j−1:n(x, y)
=
n− j + 1
(i− 2)!(j − i− 1)!(n− j + 1)!
Per

F(x)
f(x)
F(y)− F(x)
f(y)
1− F(y)

}i–2
}1
}j–i–1
}1
}n–j + 1
45
(n− j + 1)fi−1,j−1:n(x, y)
=
1
(i− 2)!(j − i− 1)!(n− j)!
Per

F(x)
f(x)
F(y)− F(x)
f(y)
1− F(y)

}i–2
}1
}j–i–1
}1
}n–j + 1
y extendiendo el permanente por su última fila, tenemos
(n− j + 1)fi−1,j−1:n(x, y) =
n∑
r=1
[1− Fr(y)]f [r]i−1,j−1:n−1(x, y). (3.16)
Sumando (3.14), (3.15) y (3.16) obtenemos
(i− 1)fi,j:n(x, y) + (j − i)fi−1,j:n(x, y) + (n− j + 1)fi−1,j−1:n(x, y)
=
n∑
r=1
f
[r]
i−1,j−1:n−1(x, y) = nf i−1,j−1:n−1(x, y).
Este resultado nos permite determinar distribuciones conjuntas de pares de es-
tad́ısticos ordenados si conocemos distribuciones conjuntas convenientemente elegi-
das.
Vamos a ver ahora dos relaciones que se satisfacen para la covarianza de los
estad́ısticos ordenados.
Proposición 3.13. Sean X1, X2, ..., Xn, con n > 2, un conjunto de observaciones
i.n.i.d. y X1:n, X2:n, ..., Xn:n el conjunto de estad́ısticos ordenados correspondiente.
Se cumple
n∑
i=1
n∑
j=1
Cov(Xi:n, Xj:n) =
n∑
i=1
V ar(Xi).
Demostración. Considerando
n∑
i=1
n∑
j=1
Cov(Xi:n, Xj:n) =
n∑
i=1
n∑
j=1
E(Xi:n, Xj:n)−
n∑
i=1
E(Xi:n)
n∑
j=1
E(Xj:n),
y sustituyendo el resultado (3.9) tenemos
n∑
i=1
n∑
j=1
Cov(Xi:n, Xj:n)
=
n∑
i=1
V ar(Xi) +
(
n∑
i=1
E(Xi)
)2
−
n∑
i=1
E(Xi:n)
n∑
j=1
E(Xj:n)
=
n∑
i=1
V ar(Xi).
46
Proposición 3.14. Sean X1, X2, ..., Xn un conjunto de observaciones i.n.i.d. y
X1:n, X2:n, ..., Xn:n el conjunto de estad́ısticos ordenados correspondiente. Para 2 6
i < j 6 n,
(i− 1)Cov(Xi:n, Xj:n) + (j − i)Cov(Xi−1:n, Xj:n) + (n− j + 1)Cov(Xi−1:n, Xj−1:n)
=
n∑
r=1
Cov(X
[r]
i−1:n−1, X
[r]
j−1:n)
+
n∑
r=1
(
E(X
[r]
i−1:n−1)− E(Xi−1:n)
)(
E(X
[r]
j−1:n−1)− E(Xj−1:n)
)
.
Demostración. En primer lugar, por la expresión de la covarianza dada en (2.14)
tenemos que
(i−1)Cov(Xi:n, Xj:n) + (j − i)Cov(Xi−1:n, Xj:n) + (n− j + 1)Cov(Xi−1:n, Xj−1:n)
=(i− 1)E(Xi:nXj:n) + (j − i)E(Xi−1:nXj:n) + (n− j + 1)E(Xi−1:nXj−1:n)
− (i− 1)E(Xi:n)E(Xj:n)− (j − i)E(Xi−1:n)E(Xj:n)
− (n− j + 1)E(Xi−1:n)E(Xj−1:n)
=
∫
xy
(
(i− 1)fi,j:n(x, y) + (j − i)fi−1,j:n(x, y) + (n− j + 1)fi−1,j−1:n(x, y)
)
dxdy
− (i− 1)E(Xi:n)E(Xj:n)− (j − i)E(Xi−1:n)E(Xj:n)
− (n− j + 1)E(Xi−1:n)E(Xj−1:n),
usando ahora la regla del tetraedro dada en la Proposición 3.12, para 2 6 i < j 6 n
tenemos∫
xy
(
(i− 1)fi,j:n(x, y) + (j − i)fi−1,j:n(x, y) + (n− j + 1)fi−1,j−1:n(x, y)
)
dxdy
=
∫
xy
(
n∑
r=1
f
[r]
i−1,j−1:n−1(x, y)
)
dxdy =
n∑
r=1
E
(
X
[r]
i−1:n−1X
[r]
j−1:n−1
)
,
por lo tanto, tenemos
(i− 1)Cov(Xi:n, Xj:n) + (j − i)Cov(Xi−1:n, Xj:n) + (n− j + 1)Cov(Xi−1:n, Xj−1:n)
=
n∑
r=1
Cov(X
[r]
i−1:n−1, X
[r]
j−1:n−1) +
n∑
r=1
E(X
[r]
i−1:n−1)E(X
[r]
j−1:n−1)
− (i− 1)E(Xi:n)E(Xj:n)− (j − i)E(Xi−1:n)E(Xj:n)
− (n− j + 1)E(Xi−1:n)E(Xj−1:n)
=
n∑
r=1
Cov(X
[r]
i−1:n−1, X
[r]
j−1:n−1) +
n∑
r=1
E(X
[r]
i−1:n−1)E(X
[r]
j−1:n−1)
− E(Xj:n)
(
(i− 1)E(Xi:n) + (n− i+ 1)E(Xi−1:n)
)
− (n− j + 1)E(Xi−1:n)
(
E(Xj−1:n)− E(Xj:n)
)
47
y aplicando la regla triangular dada en la Proposición 3.7 se tiene
(i− 1)Cov(Xi:n, Xj:n) + (j − i)Cov(Xi−1:n, Xj:n) + (n− j + 1)Cov(Xi−1:n, Xj−1:n)
=
n∑
r=1
Cov(X
[r]
i−1:n−1, X
[r]
j−1:n−1) +
n∑
r=1
E(X
[r]
i−1:n−1)E(X
[r]
j−1:n−1)
− E(Xj:n)
n∑
r=1
E(X
[r]
i−1:n−1)− E(Xi−1:n)
n∑
r=1
(
E(X
[r]
j−1:n−1)− E(Xj:n)
)
de donde se obtiene el resultado.
Vamos a continuación a considerar el caso especial cuando las variables aleatorias
son simétricas respecto del origen y a dar una serie de resultados que se satisfacen
en este caso.
Proposición 3.15. Sea X1, X2, ..., Xn un conjunto de observaciones i.n.i.d. cuyas
variables aleatorias son simétricas respecto del origen y cada Xr tiene función de
densidad fr y función de distribución Fr (r = 1, ..., n). Entonces se tiene −Xi:n
d
=
Xn−i+1:n para 1 6 i 6 n.
Demostración. A partir de (3.2) y por la simetŕıa de las variables, se tiene
Fi:n(−x) = Pr(Xi:n 6 −x)
=
n∑
r=i
1
r!(n− r)!
Per
(
F1(−x) F2(−x) · · · Fn(−x)
1− F1(−x) 1− F2(−x) · · · 1− Fn(−x)
)
}r
}n–r
=
n∑
r=i
1
r!(n− r)!
Per
(
1− F1(x) 1− F2(x) · · · 1− Fn(x)
F1(x) F2(x) · · · Fn(x)
)
}r
}n–r
=
n−i∑
r=0
1
r!(n− r)!
Per
(
F1(x) F2(x) · · · Fn(x)
1− F1(x) 1− F2(x) · · · 1− Fn(x)
)
}r
}n–r
=
n∑
r=0
1
r!(n− r)!
Per
(
F1(x) F2(x) · · · Fn(x)
1− F1(x) 1− F2(x) · · · 1− Fn(x)
)
}r
}n–r
−
n∑
r=n–i+1
1
r!(n− r)!
Per
(
F1(x) F2(x) · · · Fn(x)
1− F1(x) 1− F2(x) · · · 1− Fn(x)
)
}r
}n–r
=1−
n∑
r=n–i+1
1
r!(n− r)!
Per
(
F1(x) F2(x) · · · Fn(x)
1− F1(x) 1− F2(x) · · · 1− Fn(x)
)
}r
}n–r
(3.17)
donde la última igualdad se da ya que
n∑
r=0
1
r!(n− r)!
Per
(
F1(x) F2(x) · · · Fn(x)
1− F1(x) 1− F2(x) · · · 1− Fn(x)
)
}r
}n–r
=
n∑
r=0
Pr(Exactamente r de los X1, ..., Xn sean 6 x) = 1.
La igualdad (3.17) implica que −Xi:n
d
= Xn−i+1:n.
48
A continuación vamos a enunciar un lema, necesario para la demostración del
teorema que le sigue.
Lema 3.16. Suponemos que u, t, tk pertenecen a (0, 1) para k = j + 1, j + 2, ..., n.
Entonces para i tal que 1 6 i 6 n se cumple
i−1∑
r=0
1
r!(n− r)!
Per
(
t · · · t tj+1 · · · tn
1− t · · · 1−

Continuar navegando