Logo Studenta

Inferencia_Estadistica_libro - Julio Benavidez Fonte

¡Este material tiene más páginas!

Vista previa del material en texto

Inferencia Estad́ıstica
J. Humberto Mayorga A.
Profesor Asociado
Departamento de Estad́ıstica - Facultad de Ciencias
Universidad Nacional de Colombia
2
Índice General
Prólogo iii
Introducción v
1 DISTRIBUCIONES MUESTRALES 1
1.1 La Inferencia estad́ıstica, un soporte epistemológico . . . . . . . . 1
1.2 Preliminares en la Inferencia estad́ıstica . . . . . . . . . . . . . . 4
1.3 Preliminares en convergencia de variables aleatorias . . . . . . . 9
1.4 Caracteŕısticas generales de algunas estad́ısticas . . . . . . . . . . 12
1.5 Estad́ısticas de orden . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.1 Distribución de las estad́ısticas de orden . . . . . . . . . . 19
1.5.2 Distribución del rango, semirango y mediana muestrales . 20
1.5.3 Distribución de la función de distribución emṕırica . . . . 21
1.6 Momentos de estad́ısticas de orden . . . . . . . . . . . . . . . . . 23
1.7 Demostración de los teoremas del caṕıtulo . . . . . . . . . . . . . 25
1.8 Ejercicios del caṕıtulo . . . . . . . . . . . . . . . . . . . . . . . . 42
2 ESTIMACIÓN PUNTUAL DE PARÁMETROS 49
2.1 Métodos clásicos para construir estimadores . . . . . . . . . . . . 51
2.1.1 El método de máxima verosimilitud . . . . . . . . . . . . 51
2.1.2 El método de los momentos . . . . . . . . . . . . . . . . . 61
2.1.3 El método por analoǵıa . . . . . . . . . . . . . . . . . . . 64
2.1.4 Estimación Bayesiana . . . . . . . . . . . . . . . . . . . . 65
2.2 Criterios para examinar estimadores . . . . . . . . . . . . . . . . 69
2.2.1 Concentración, un requisito de precisión . . . . . . . . . . 69
2.2.2 Consistencia, un requisito ligado al tamaño de la muestra 73
2.2.3 Suficiencia, un requisito de retención de información . . . 75
2.2.4 Varianza mı́nima, un requisito de máxima precisión . . . 83
2.2.5 Completez, un requisito de la distribución muestral . . . . 90
2.2.6 Robustez, un requisito de estabilidad . . . . . . . . . . . . 96
2.3 Demostración de los teoremas del caṕıtulo . . . . . . . . . . . . . 98
2.4 Ejercicios del caṕıtulo . . . . . . . . . . . . . . . . . . . . . . . . 104
i
ii ÍNDICE GENERAL
3 ESTIMACIÓN POR INTERVALO DE PARÁMETROS 115
3.1 Conceptos preliminares . . . . . . . . . . . . . . . . . . . . . . . . 116
3.2 El método de la variable pivote . . . . . . . . . . . . . . . . . . . 117
3.3 Estimación de promedios, bajo Normalidad . . . . . . . . . . . . 124
3.3.1 Intervalos confidenciales para el promedio de una población124
3.3.2 Estimación de la proporción poblacional . . . . . . . . . . 127
3.3.3 Intervalo confidencial para la diferencia de promedios basa-
do una muestra pareada . . . . . . . . . . . . . . . . . . . 128
3.3.4 Intervalos confidenciales para la diferencia de promedios
en poblaciones independientes . . . . . . . . . . . . . . . . 129
3.4 Estimación de varianzas, bajo Normalidad . . . . . . . . . . . . . 131
3.4.1 Intervalos confidenciales para la varianza de una población 131
3.4.2 Intervalos confidenciales para el cociente de varianzas de
dos poblaciones independientes . . . . . . . . . . . . . . . 134
3.5 Ejemplos numéricos de aplicación . . . . . . . . . . . . . . . . . . 137
3.6 Tamaño de la muestra simple bajo Normalidad . . . . . . . . . . 139
3.7 Estimación Bayesiana por intervalo . . . . . . . . . . . . . . . . . 140
3.8 Demostración de los teoremas del caṕıtulo . . . . . . . . . . . . . 142
3.9 Ejercicios del caṕıtulo . . . . . . . . . . . . . . . . . . . . . . . . 144
4 JUZGAMIENTO DE HIPÓTESIS 147
4.1 Elementos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . 148
4.2 Tests más potentes . . . . . . . . . . . . . . . . . . . . . . . . . . 158
4.3 Juzgamiento de hipótesis sobre promedios, bajo Normalidad . . . 172
4.3.1 Juzgamiento de la hipótesis nula H0 : μ = μ0 . . . . . . . 172
4.3.2 Juzgamiento de la hipótesis nula H0 : μ1 − μ2 = δ0 . . . . 180
4.4 Juzgamiento de hipótesis sobre varianzas, bajo Normalidad . . . 189
4.4.1 Juzgamiento de la hipótesis nula H0 : σ2 = σ20 . . . . . . . 189
4.4.2 Juzgamiento de homoscedasticidad . . . . . . . . . . . . . 191
4.5 Juzgamiento de proporciones . . . . . . . . . . . . . . . . . . . . 193
4.6 Ejemplos numéricos de aplicación . . . . . . . . . . . . . . . . . . 196
4.7 Tamaño de la muestra . . . . . . . . . . . . . . . . . . . . . . . . 198
4.8 Juzgamiento secuencial . . . . . . . . . . . . . . . . . . . . . . . . 200
4.9 Juzgamiento del ajuste . . . . . . . . . . . . . . . . . . . . . . . . 208
4.9.1 Juzgamiento del ajuste por el método de Pearson . . . . . 209
4.9.2 Juzgamiento del ajuste por el método de Kolmogorov-
Smirnov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
4.10 Demostración de los teoremas del caṕıtulo . . . . . . . . . . . . . 218
4.11 Ejercicios del caṕıtulo . . . . . . . . . . . . . . . . . . . . . . . . 223
Prólogo
La escritura de este libro siempre estuvo animada por el deseo obstinado de
secundar el trabajo que realiza el estudiante tanto en el salón de clase como
fuera de él; pues entiendo que en definitiva es el estudiante quien aprehende los
conceptos como fruto de sus quehaceres académicos, conceptos inducidos más
por sus dudas, por sus dificultades y por algunas contradicciones con algunos de
sus preconceptos, que por alguna exposición frente al tablero. En mi criterio, el
profesor como acompañante en la formación profesional, se convierte solamente
en orientador, animador y cŕıtico.
Con ese esṕıritu quise que este libro se constituyese en una juiciosa pre-
paración de clase de la asignatura Inferencia Estad́ıstica, preparación que ha
acopiado las memorias de cada una de las oportunidades en las cuales fui el
el encargado del curso a través de mis años como docente en la Universidad
Nacional de Colombia. De ese acopio es profuso lo desechado y lo corregido,
pues las preguntas de los estudiantes confundidos, las preguntas inteligentes y las
respuestas sobresalientes como las equivocadas en las evaluaciones, generalmente
sucitaron la reflexión sobre las formas y contenidos de los guiones de la clase.
No pretendo publicar un texto mas, pues los hay de una calidad inmejorable,
algunos clásicos cuya consulta es obligada, otros de reciente edición que han in-
corporado nuevos desarrollos conceptuales. Pretende el texto apoyar el trabajo
académico que se realiza en el curso, especialmente con el propósito de opti-
mizar el tiempo y la calidad de la exposición de los temas, dando paso a la uti-
lización del tablero acompañado de la tecnoloǵıa audiovisual como posibilidad
para profundizar algunos de los temas y como medio para tratar las pregun-
tas e inquietudes estudiantiles y no como instrumento transcriptor de frases y
gráficas.
En este libro expreso mis apreciaciones personales semánticas y conceptuales
promovidas por la concepción que tengo sobre la Estad́ıstica y particularmente
sobre la Inferencia estad́ıstica, concepción que he madurado y he hecho propia,
a partir de las reflexiones con profesores del Departamento de Estad́ıstica, a
partir de discusiones informales y dentro de eventos académicos. Su contenido
y organización responden a la forma tradicional como he realizado el curso, a
las limitaciones de un semestre académico para su desarrollo y a los requisitos
curriculares exigidos a los estudiantes que lo cursan.
Fue la circunstancia de mi año sabático, disfrutado durante el año 2002, la
que hizo posible la redacción y digitación de este texto, pues fueron múltiples
iii
iv PRÓLOGO
las ocasiones fallidas de organizar en un libro el material de la clase, debido a
las ocupaciones derivadas de mis compromisos académicos, administrativos y de
servicios de asesoŕıa estad́ıstica que la Universidad me encargó llevar a cabo.
Finalmente, creó que debo agradecer tanto a mis alumnos pues ellos son el
motivo para organizar las ideas que presento entorno a la Inferencia estad́ıstica,
como a la Universidad Nacional de Colombia que aceptó como plan de activi-
dadesde mi año sabático, la elaboración de este texto.
Introducción
Este texto ha sido concebido para ser fundamentalmente un texto gúıa en
el desarrollo de la asignatura Inferencia Estad́ıstica, que cursan tanto los es-
tudiantes del pregrado en Estad́ıstica como los estudiantes de la Carrera de
Matemáticas. Puede apoyar igualmente algunos temas de la asignatura Es-
tad́ıstica Matemática de la Maestŕıa en Estad́ıstica. El requisito natural e in-
mediato para abordar los temas de cada uno de los caṕıtulos del libro, es un
curso de Probabilidad, y por supuesto los cursos de Cálculo. Consta de cua-
tro caṕıtulos que pueden desarrollarse durante un semestre académico con seis
horas semanales de clase tradicional.
He adaptado traducciones de uso corriente en los textos de Estad́ıstica a
formas y términos con un mejor manejo del idioma y que semánticamente co-
rrespondan con mayor fidelidad al concepto que denominan. Igualmente hago
precisión sobre algunas expresiones usuales para mayor claridad conceptual.
Cada caṕıtulo está estructurado en tres partes: exposición de los temas,
demostraciones de los teoremas y la relación de los ejercicios correspondientes.
Esto no significa que el manejo del texto deba llevarse en el orden mencionado.
He querido organizarlo aśı, con el objeto de que la presentación de los temas
exhiba una forma continua y que las demostraciones y los ejercicios tengan su
sitio especial propio. Los ejercicios no están ordenados ni por su complejidad,
ni por el tema tratado, para no encasillarlos. El estudiante se acerca a un
ejercicio con información y trabajo previos, y es con su organización de ideas
y búsqueda de caminos que debe evaluar si con los elementos estudiados hasta
un cierto punto le es posible abordar el ejercicio particular; sin embargo, el
profesor puede sugerir la realización de alguno o algunos ejercicios cuando haya
culminado un tema o parte de él.
El primer caṕıtulo como fundamento del texto, ubica sintéticamente a la
Inferencia Estad́ıstica dentro del problema filosófico secular de la inducción.
Retoma el tema de la convergencia de sucesiones de variables aleatorias, y ex-
pone las ideas preliminares de la Inferencia Estad́ıstica. El segundo caṕıtulo
presenta los métodos corrientes de construcción de estimadores y los criterios
para examinar las estad́ısticas en su calidad de estimadores.
En el tercer caṕıtulo se presenta el método de la variable pivote para cons-
truir intervalos confidenciales y se hace algún énfasis en los intervalos confiden-
ciales bajo Normalidad. En el cuarto caṕıtulo se adopta la expresión juzgamien-
to de hipótesis a cambio de prueba, docimasia o cotejo, porque esta acepción
v
vi INTRODUCCIÓN
está más cerca del sentido de la toma de decisiones estad́ısticas e igualmente se
da un espacio importante en el juzgamiento de hipótesis bajo Normalidad.
Caṕıtulo 1
DISTRIBUCIONES
MUESTRALES
“El conocimiento que tenemos del mundo está basado en la elaboración de un
modelo de la realidad, modelo que puede cotejarse con la experiencia tan sólo
de manera parcial y ocasionalmente... Este modelo se construye teniendo en
cuenta la utilización que hacemos del mismo...”
J. Bruner, “On cognitive growth”
Antes de entrar en materia, es preciso destinar unos pocos párrafos para
introducir un bosquejo del contexto en el cual la Inferencia estad́ıstica puede
ubicarse, más como exposición de ideas generales que el pretender una disquisi-
ción filosófica al respecto. Ese contexto está contenido dentro de un problema
más general de carácter epistemológico, que el lector puede profundizar con las
copiosas publicaciones sobre el tema. Posteriormente, por tratarse de uno de
los fundamentos sobre el cual la Inferencia Estad́ısitica erige algunos de sus
conceptos, se incluye la sección 1.3 a manera de un extracto de la convergen-
cia de sucesiones de variables aleatorias, tema integrante de un curso previo de
Probabilidad, pero que se retoma por su carácter y por su utilidad próxima.
1.1 La Inferencia estad́ıstica, un soporte episte-
mológico
La inferencia inductiva, procedimiento que utiliza la lógica como una forma
de generalizar a partir de hechos particulares o a partir de la observación de
un número finito de casos, es uno de los temas que ha ocupado a filósofos y
cient́ıficos de todos los tiempos, desde la época de Aristóteles, tres siglos antes
de Cristo, hasta la actualidad.
1
2 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
Varios filósofos antiguos formados en el empirismo gnoseológico, convencidos
de que la observación era la única fuente segura de conocimiento, fueron los
primeros en proponer la inducción o inferencia inductiva como método lógico.
Tempranamente la inducción se convierte en un tema de mucha controversia que
aún se mantiene; si para Aristóteles, quien planteó inicialmente el procedimiento
inductivo, la Ciencia es “conocimiento demostrativo”, por el contrario para
Sexto Emṕırico, uno de los filósofos representantes del Escepticismo, la Ciencia
es “comprensión segura, cierta e inmutable fundada en la razón”. Aśı, mientras
Sexto Emṕırico rechaza la validez de la inducción, Filodemo de Gadara, filósofo
seguidor del Epicuréısmo, defiende la inducción como método pertinente.
Y la controversia, llamada el problema de la inducción o también conocida
como el “problema de Hume”, reside precisamente en que mientras la inferencia
deductiva avala la transferencia de la verdad de las premisas a la conclusión,
es decir, a partir de premisas verdaderas todas deducción es cierta, a costa de
no incorporar nada al contenido de las premisas, la inducción por su parte que
va más allá de las premisas, por su carácter amplificador, puede dar lugar a
conclusiones falsas; en pocas palabras la controversia se centra en la validez
que puedan tener los razonamientos inductivos, puesto que las conclusiones por
medio de la inducción no siempre serán verdaderas.
Algunos pensadores medievales también se preocuparon de la inducción. El
inglés Robert Grosseteste al utilizar para su trabajo cient́ıfico los métodos apli-
cados por sus disćıpulos de Oxford en Óptica y Astronomı́a, reabre en la Edad
Media el tema de la inducción; si bien varios filósofos de la época orientaron
sus reflexiones hacia los métodos inductivos, los ensayos y trabajos de Francis
Bacon inspirados en la reorganización de las ciencias naturales, constituyeron el
apogeo del método inductivo.
No obstante, para Hume las leyes cient́ıficas no tienen carácter universal, es
decir son válidas únicamente cuando la experiencia ha mostrado su certidumbre
y tampoco tiene la función de la previsibilidad. Popper, filósofo de la Ciencia,
conocido por su teoŕıa del método cient́ıfico y por su cŕıtica al determinismo
histórico, en el mismo sentido de Hume, afirma que no puede existir ningún
razonamiento válido a partir de enunciados singulares a leyes universales o a
teoŕıas cient́ıficas. Mas recientemente, Bertrand Russell mantiene la posición de
Hume de la invalidez de la inducción, pero considera que ella es el camino para
incrementar la probabilidad, como grado racional de creencia, de las generaliza-
ciones.
La conocida Ley débil de los grandes números incluida en la cuarta parte
del trabajo más sobresaliente de Jacob Bernoulli, Ars Conjectandi, publicado
después de su muerte en el año 1713, y el también conocido teorema de Bayes
publicado cincuenta años más tarde, trajeron nuevos elementos en la discusión al
constituirse en argumentos matemáticos que sustentan la posibilidad de inferir
probabilidades desconocidas a partir de frecuencias relativas. Sin embargo para
Popper, sustituir la exigencia de verdad por la validez probabiĺıstica para las
inferencias inductivas no lo hace un procedimiento leǵıtimo.
Durante las primeras décadas del siglo pasado, a ráız de los importantes
avances de la Ciencia ocurridos a finales del siglo XIX y a principios del siglo1.1. LA INFERENCIA ESTADÍSTICA, UN SOPORTE EPISTEMOLÓGICO 3
XX, avances que no pod́ıan pasar desapercibidos para los pensadores, obligaron
a los filósofos a revisar muchas de las ideas de los clásicos y es aśı como un grupo
de hombres de ciencia, matemáticos y filósofos, se organizan en 1922 en torno
al f́ısico Moritz Schlick, profesor de filosof́ıa de la ciencia de la Universidad de
Viena, convirtiéndose en un movimiento filosófico internacional, principal pro-
motor del positivismo lógico, (también llamado neopositivismo, neoempirismo
o empirismo lógico), movimiento conocido como Cı́rculo de Viena, conformado
entre otros, además de Schlick, por Hahn, Frank, Neurath, Kraft, Feigl, Wais-
mann, Gödel, y Carnap; Einstein, Russell y Wittgenstein eran considerados
como miembros honoŕıficos y Ramsey y Reinchenbach como miembros simpati-
zantes del mismo.
Este movimiento filosófico se dedicó a muchos y variados temas de la Filosof́ıa
de la Ciencia, y por supuesto al problema de la inducción. En śıntesis se puede
afirmar que el hilo conductor de las ideas del Cı́rculo de Viena fue la defensa
de una visión cient́ıfica del mundo a través de una ciencia unificada ligado al
empleo del análisis lógico en el sentido de Russell.
Pero respecto al tema de la inducción, el Cı́rculo no cerró la discusión; concre-
tamente para Popper y sus seguidores, la escuela del refutacionismo, el método
cient́ıfico no utiliza razonamientos inductivos, sino razonamientos hipotético-
deductivos, aśı se acopien datos y hechos particulares dentro del procedimiento
de evaluación de una hipótesis que dan paso a una conclusión de carácter general,
no existe como tal un razonamiento inductivo. Para el refutacionismo la ciencia
se concibe como una sucesión de conjeturas y refutaciones: se proponen conje-
turas para explicar los hechos, que luego serán refutadas para promover nuevas
conjeturas. En śıntesis, para Popper y su escuela, ninguna teoŕıa cient́ıfica puede
establecerse en forma concluyente.
Sin embargo, para Feyerabend y Kuhn, en otro momento de gran contro-
versia en este tema, las décadas del 60 y 70, la práctica cient́ıfica no está en
correspondencia con este proceder racional ni tampoco puede lograrlo, porque
en gran medida existen supuestos relativos a la objetividad, a la verdad, al papel
de la evidencia y a la invariabilidad semántica. Para Feyerabend, no existen,
principios universables de racionalidad cient́ıfica; el crecimiento del conocimien-
to es siempre espećıfico y diferente como tampoco sigue un camino de antemano
fijado.
Dentro de esta controversia, a la Inferencia estad́ıstica no se le ha eximido
del problema de la inducción. Ronald Fisher, considerado por muchos el padre
de la Estad́ıstica, defendió el papel inductivo que conlleva el juzgamiento de
hipótesis 1. Sin embargo un sector de cient́ıficos y filósofos consideran que tanto
la estimación de parámetros como el juzgamiento de hipótesis tienen dirección
inductiva pero el razonamiento o inferencia que se lleva a cabo es de carácter
deductivo.
En fin, la Historia y la Filosof́ıa de la Ciencia tuvieron un enorme auge a
lo largo del siglo pasado, continúan acopiando y estructurando reflexiones y
argumentos sobre la inducción, pero al no ser el propósito de esta sección tratar
1La denominación juzgamiento de hipótesis será justificada en el caṕıtulo 4.
4 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
el proceso lógico de la inducción desde el punto de vista filosófico, ni tampoco
pretender su recuento histórico, ni mucho menos asumir una posición respecto
a ella, se omiten nombres de muy destacados pensadores contemporáneos. Lo
que realmente motiva incluir los párrafos anteriores es poner de manifiesto de
manera muy concisa el hecho de que el problema de la inducción es un problema
filosófico vigente con 23 siglos de existencia al cual generaciones de filósofos y
cient́ıficos se han dedicado.
Y más allá del debate epistemológico y metaf́ısico contermporáneo dentro
de la Filosof́ıa de la Ciencia, es cierto que gran parte de la Ciencia actual frente
a una naturaleza entrelazada de azar concomitante con una variabilidad inher-
ente, reconoce de una u otra manera que el ensanche de su cuerpo conceptual
requiere de la participación impresindible de la Estad́ıstica. Mucho antes de
la omnipresencia del computador, de los avances vertiginosos de la teoŕıa y
métodos estad́ısticos de los últimos tiempos, Hempel en 1964 en su libro, As-
pectos de la explicación cient́ıfica, se refeŕıa a los dos modelos de explicación
de tipo estad́ıstico:“el modelo estad́ıstico deductivo, en el que las regularidades
estad́ısticas son deducidas de otras leyes estad́ısticas más amplias, y el modelo
estad́ıstico inductivo, en el que los hechos singulares se explican subsumiéndolos
bajo leyes estad́ısticas”.
En esta dirección cuando en los quehaceres cient́ıficos, tecnológicos o ad-
ministrativos se recurre a la Estad́ıstica para organizar y orientar sus procesos
y métodos, como de igual manera cuando se recurre a ella para apoyar argu-
mentos y decisiones, ese recurso suele convertirse, desde uno de los puntos de
vista, en un proceso de inducción espećıficamente en un proceso que puede ser
clasificado como de inducción amplificadora, de manera análoga a como Francis
Bacon vio en la inducción el procedimiento escencial del método experimental,
o convertirse en una serie de actividades ligadas a un procedimiento propio de
la ciencia o la tecnoloǵıa , en un procedimiento hipotético-deductivo, como lo
entiende la escuela propperiana. Para cualquiera de los dos puntos de vista que
se asuma, la Estad́ıstica brinda un respaldo exclusivo en la inferencia.
1.2 Preliminares en la Inferencia estad́ıstica
Dentro del contexto del parágrafo anterior, cabe formularse varias preguntas;
la primera de ellas: ¿Cuál es el objeto para el cual son válidos los enunciados
generales producto de la inducción, de la decisión o la estimación que realiza una
aplicación estad́ıstica?. Paralelamente tiene lugar la segunda pregunta: ¿Cuáles
son las unidades que permiten obtener la información de casos particulares como
punto inicial en el citado proceso?. Y la tercera pregunta, que interroga sobre
la calidad del proceso de inferencia estad́ıstica: ¿Cuáles son los principios que
rigen este proceso tan particular de inferencia?.
La primera pregunta indaga por el conjunto de todos los elementos que
en un determinado momento son del interés de un investigador, de un gestor
o de un tomador de decisiones. Elementos que son diferentes entre śı pero
que tienen una o varias caracteŕısticas comunes que los hacen miembros del
1.2. PRELIMINARES EN LA INFERENCIA ESTADÍSTICA 5
conjunto en consideración. Al respecto en algunas disciplinas cient́ıficas esas
caracteŕısticas comunes son denominadas criterios de inclusión, complementados
con los criterios de exclusión, para definir concisamente la pertenencia de un
elemento al conjunto y para precisar igualmente la pérdida de la calidad de
pertenencia del elemento.
Para referirse a ese conjunto mencionado anteriormente el lenguaje corriente
de la Estad́ıstica utiliza el término población ; ese agregado o colección de las
unidades de interés es en últimas el objeto receptor del producto del proceso de
inducción, de la decisión o de la estimación.
La segunda pregunta parece confundirse con la primera. Si bien es cier-
to que la pregunta se refiere a esas entidades que corresponden a los hechos
particulares, a los casos singulares, a ese conjunto finito de casos, que son
examinados durante la primera etapa de la inferencia, la reunión de todas las
unidades posibles, constituye ese conjunto que se ha llamado población. Pero su
estricta determinación radica en que cada una de esas unidades será, en sentido
metafórico, un interlocutor con el investigador. Interlocutor, porque la inves-
tigación puede entenderse, de manera análoga, como un proceso comunicativo:el investigador pregunta, la naturaleza responde. Esas unidades pueden ser de-
notadas como unidades estad́ısticas, de manera genérica para subsumir en
esa denominación, otras como unidad experimental, unidad de análisis, sujeto,
caso, entre otras.
Como en casi todas las oportunidades, de hecho no existe la posibilidad de
“dialogar”con todas y cada una de las unidades estad́ısticas, debido a impera-
tivos que lo impiden, asociados a varios aspectos. Por ejemplo, cuando el tamaño
de la población, es decir, el cardinal del conjunto que reúne a todas las unidades
estad́ısticas, es ingente; o también cuando la respuesta de la unidad implica
su desnaturalización o deterioro; igualmente cuando ese “diálogo”es oneroso, o
cuando los resultados de la investigación se requieren con apremio.
A ese subconjunto de unidades que un párrafo anterior se refeŕıa como el
conjunto finito de casos que son examinados durante la primera etapa del pro-
ceso de inferencia, circunscrito al subconjunto de unidades estad́ısticas elegidas
por medio de procedimientos estad́ısticos formales, por supuesto, se le designa
corrientemente como muestra .
A diferencia de las dos preguntas anteriores, cuyas respuestas son en últimas
acuerdos semánticos, la tercera es una pregunta fundamental que requiere
respuestas a partir de elaboraciones conceptuales, repuestas que se darán
gradualmente con el desarrollo de los caṕıtulos objeto de este texto; pero pre-
viamente de una manera sucinta se esboza el fundamento de las respuestas.
La Estad́ıstica facultada para sustentar y conducir procesos de inducción, de-
cisión y estimación muy caracteŕısticos, cuenta con la inferencia estad́ıstica como
la fuente conceptual que nutre, avala y licencia la estructura y funcionamiento
de métodos y procedimientos estad́ısticos. Para el desarrollo de cada una de
sus dos componentes, relativos a la estimación de parámetros y el juzgamiento
de hipótesis, la inferencia estad́ıstica tiene como punto de partida la referen-
cia o el establecimiento de modelos para representar variables observables o no
observables, modelos que pueden ser expĺıcitos o generales.
6 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
Semánticamente el vocablo modelo responde a varias acepciones, particu-
larmente dentro del lenguaje cient́ıfico y tecnológico. Sin embargo el sentido
que la Estad́ıstica le confiere al término, es el de consistir en una traducción
de un aspecto de la realidad a un lenguaje simbólico, como uno de los recursos
para representar de manera simplificada su comportamiento, que habilite pro-
cesos de generalización, que incluya sus aspectos fundamentales, que facilite su
descripción o permita la toma de decisiones.
La factibilidad de representar variables muy diśımiles asociadas con fenóme-
nos de distintos campos del saber a través de un mismo modelo de probabilidad,
permite a la Inferencia estad́ıstica detenerse en el modelo mismo para conver-
tirlo en su objeto de estudio. A partir de su estructura, de las expresiones
matemáticas asociada a su naturaleza y con ellas de la presencia y papel que
desempeñan los parámetros, se construyen y evalúan posibles estimadores de es-
tos últimos, y de igual manera se derivan y evalúan procedimientos que permitan
juzgar afirmaciones sobre el modelo.
En consecuencia, los principios que avalan procesos de carácter estad́ıstico,
tratados por la Inferencia estad́ıstica y motivo de la tercera pregunta, consisten
en métodos y criterios relacionados tanto con la construcción de estimadores y
test como con el examen de la aptitud e idoneidad de los mismos, y que tal
como se anunció, la descripción y el desarrollo de los citados principios son en
definitiva el contenido mismo de este texto.
Definición 1.2.1. Una muestra aleatoria es una sucesión finita de
variables aleatorias independientes e idénticamente distribuidas X1, X2, . . . , Xn.
De manera más general una sucesión de variables aleatorias X1, X2, . . . , inde-
pendientes y con idéntica distribución, también se denomina muestra aleatoria.
En el caso de una sucesión finita, el valor n recibe el nombre de tamaño de la
muestra o tamaño muestral.
La definción anterior revela que en el contexto estad́ıstico el término muestra
presenta dos acepciones: la de ser un subconjunto de unidades estad́ısticas elegi-
das por métodos estad́ısticos formales y la adjetivada como aleatoria expuesta
en la definición anterior, ésta referida a una sucesión de variables aleatorias. Lo
mismo le ocurre al término población: denota al conjunto completo de unidades
estad́ısticas objeto de estudio y ahora se le concibe como una variable aleatoria,
en el sentido que se expone seguidamente.
El acceso al estudio de ese conjunto de unidades estad́ısticas, se lleva a
cabo mediante el examen de las caracteŕısticas o respuestas de sus integrantes,
interpretadas como variables; el discernimiento de la esencia ya no individual
sino colectiva de las unidades es en suma el motivo de la investigación o estudio;
por ello el comportamiento de las variables se convierte entonces en un elemento
revelador de caracteŕısticas y propiedades que sustentan la descripción de la
colectividad, las explicaciones o las decisiones a que haya lugar.
El comportamiento real de una o varias variables es un comportamiento re-
flejo de la naturaleza de la población, que no siempre es posible conocer. Por ello
acudir a modelos de probabilidad para emular el comportamiento poblacional
es un recurso leǵıtimo que reduce carencias, permite aprovechar las virtudes
1.2. PRELIMINARES EN LA INFERENCIA ESTADÍSTICA 7
propias del modelo y hace posible la utilización de un lenguaje universal, por
supuesto sobre la base de una escogencia juiciosa del modelo.
Entonces, un aspecto de las unidades estad́ısticas observado, medido o cuan-
tificado en una variable, (o varios aspectos utilizando un vector para disponer
las variables) se le abstrae como una variable aleatoria (o un vector aleatorio)
que tiene asociado un modelo particular. Esta variable aleatoria que representa
una variable en la población suele denominársele igualmente población.
Bajo estas consideraciones la sucesión de variables aleatoriasX1, X2, . . . , Xn,
de la definición anterior denominada muestra aleatoria además de ser un ele-
mento del ámbito conceptual de la Teoŕıa Estad́ıstica, puede vincularse con la
información espećıfica acopiada de un subconjunto de n unidades estad́ısticas
de las cuales se dispone de los valores x1, x2, . . . , xn, correspondientes a una
variable denotada por X . Dicho en otros términos el valor xi puede entenderse
como una realización de la correspondiente variable aleatoriaXi, i = 1, 2, . . . , n,
por eso es habitual encontrar recurrentemente la expresión “sea X1, X2, . . . , Xn
una muestra aleatoria de una población con función de densidad...”. El contexto
en el cual se encuentre el vocablo población, delimita la acepción en uso: un
conjunto o una variable aleatoria.
Definición 1.2.2. Se denomina Estad́ıstica a una variable aleatoria
construida como una función de las variables aleatorias X1, X2, . . . , Xn que
conforman una muestra aleatoria, función que no depende de parámetro al-
guno constitutivo de la expresión algebraica que identifica al modelo asumido
para representar una variable en la población, ni tampoco depende de constantes
desconocidas, también llamados parámetros, que cuantifican rasgos generales en
la población cuando no se asume un modelo espećıfico.
Como el aspecto determinante en la naturaleza de una estad́ıstica es su
no dependencia funcional de parámetros, se le resalta por medio del siguiente
ejemplo.
Ejemplo 1.2.1. Asumiendo el modelo Gaussiano para representar una variable
en la población, y si X1, X2, . . . , Xn es una muestra aleatoria de la población
aśı modelada, son estad́ısticas entre otras
• X1 +X2 + · · · +Xn
n
= Xn
• (X1 −Xn)
2 + (X2 −Xn)2 + · · · + (Xn −Xn)2
n− 1 = S
2
n
• X1,n = min{X1, X2, . .. , Xn}
Puesto que los parámetros μ y σ son las constantes caracteŕısticas del
modelo Gaussiano, particularmente las dos siguientes variables aleatorias no
son estad́ısticas
n∑
i=1
(
Xi −Xn
σ
)2 n∑
i=1
(Xi − μ)2
n− 1
8 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
El contenido semántico que se les da en Estad́ıstica tanto al término estimar
como al término estimación, para referirse a su acción o efecto, proviene de
una de las acepciones corrientes que tiene el segundo vocablo. El significado en
mención de: aprecio o valor que se da y en que se tasa o considera algo2, no
sugiere un cálculo aproximado de un valor como equivocadamente se entiende,
porque no hay referentes para calificar su aproximación, ni tampoco como un
proceso adivinatorio; debe entenderse como la realización formal de un avalúo,
es decir en llevar a cabo un proceso que exige de manera imprescindible el
contar con información de ese algo del cual se quiere fijar su valor. Por lo
tanto la calidad de la estimación, depende directamente de la calidad original
y la cantidad de información que se posea. Consecuentemente una cantidad
insuficiente de información genera estimaciones no fiables, como igualmente las
genera una gran cantidad de información de calidad exigua.
A manera de sinopsis, considerando simultáneamente tanto la cantidad de
información como su calidad y utilizando el plano cartesiano para su repre-
sentación, en la siguiente figura se adjetivan distintas circunstancias en calidad
y cantidad de información que constituye el insumo en el proceso de estimación.
Funesta
Desechable Ideal
Inadmisible
A
D
M
IS
IB
L
E
Calidad
C
an
ti
da
d
100%
100%
0
Figura 1.1: Diagrama de calidad y cantidad de información
La calidad de la información, de la cual este texto no se ocupa porque se pre-
tenden propósitos de otro tipo, debe asegurarse a partir del diseño, construcción
y calibración de instrumentos para el registro de la información, dentro de la
organización y ejecución de las actividades de acopio de información y durante
2Diccionario de la Lengua Española. Real Academia Española. Vigésimasegunda edi-
ción.2001
1.3. PRELIMINARES EN CONVERGENCIA DE VARIABLES ALEATORIAS 9
el proceso de almacenamiento y guarda de la información.
Definición 1.2.3. Una estad́ıstica cuyas realizaciones son utilizadas para llevar
a cabo estimaciones de los parámetros de un modelo probabiĺıstico se denomina
estimador y a las citadas realizaciones o valores particulares se les conoce como
estimaciones.
Definición 1.2.4. El modelo probabiĺıstico que rige el comportamiento de una
estad́ıstica o de un estimador se denomina distribución muestral de la
respectiva estad́ıstica o del respectivo estimador.
Algunos autores se refieren a la distribución de la variable aleatoria que rep-
resenta a la población, como la distribución original de las observaciones , o
modelo original y a la distribución muestral de una estad́ıstica como la distribu-
ción reducida o modelo reducido.
Definición 1.2.5. Sea X1, X2, . . . , Xn una muestra aleatoria de una población
con momentos oridinarios y centrales μ′r y μr respectivamente. Los momentos
muestrales, ordinarios y centrales de orden r, r = 1, 2, . . . , cumplen en la
muestra funciones análogas a los momentos poblacionales μ′r y μr, y se denotan
y definen como
M ′r,n =
1
n
n∑
i=1
Xri
Mr,n =
1
n
n∑
i=1
(Xi −Xn)r
En particular cuando r = 1, primer momento ordinario muestral, M ′1,n = Xn,
es llamado de manera más corriente, promedio muestral o promedio de la
muestra. Se prefiere como varianza muestral en cambio del segundo mo-
mento muestral, por razones que posteriormente se justificarán, a la expresión
1
n− 1
n∑
i=1
(Xi −Xn)2
1.3 Preliminares en convergencia de variables
aleatorias
Para aprestar los elementos que se requieren en el tema de Inferencia estad́ıstica,
es preciso abordar de una manera suscinta los tipos de convergencia de variables
aleatorias en razón a que posteriormente el crecimiento del tamaño de muestra
permite derivar propiedades interesantes de algunas estad́ısticas, y por lo tanto
el propósito de esta sección es presentar los tipos más corrientes de convergencia
de variables aleatorias.
Por medio de {Xn}, n = 1, 2, . . . , se describe una sucesión de variables
aleatorias X1, X2, . . . , la cual es una sucesión de funciones medibles {Xn(w)}
10 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
definida en un espacio muestral Ω, y teniendo en cuenta que todas las variables
aleatorias constituyentes de la sucesión están consideradas en el mismo espacio
de probabilidad (Ω,A, P ).
En primer lugar, siendo {Xn} una sucesión de variables aleatorias y c un
número real, el conjunto {w|Xn(w) = c} ∈ A, de tal manera que
P
[
lim
n→∞Xn = c
]
= 1
esté siempre definido.
Se dice que la sucesión de variables aleatorias {Xn} converge casi seguro
a cero o converge a cero con probabilidad uno si:
P
[
lim
n→∞Xn = 0
]
= 1
Además, si las variables aleatorias X1, X2, . . . , y la variable aleatoria particular
X están definidas en el mismo espacio de probabilidad, se afirma que la sucesión
de variables aleatorias {Xn} converge casi seguro a la variable aleatoria
X, si la sucesión de variables aleatorias {Xn −X} converge casi seguro a cero,
este tipo de convergencia también se conoce como convergencia fuerte y se
simboliza como
Xn
a.s.−−→ X
Ejemplo 1.3.1. Si el comportamiento probabiĺıstico de cada una de las
variables aleatorias de la sucesión {Xn} se modela por medio de la distribu-
ción de Bernoulli de manera que Xn ∼ Ber((12 )n), entonces
Xn
a.s.−−→ 0
En efecto,
P
[
lim
n→∞Xn = 0
]
= 1
puesto que P [Xn = 0] = 1 −
(
1
2
)n. Como V [Xn] = ( 12)n [1 − ( 12)n], puede
notarse el decrecimiento de la varianza en cuanto n se incrementa, es decir
que Xn va perdiendo el carácter de variable aleatoria porque su varianza va
tendiendo a cero, la variable va asumiendo rasgos de una constante.
En segundo lugar, se dice que la sucesión de variables aleatorias {Xn} con-
verge en probabilidad a la variable aleatoria X , hecho simbolizado como,
Xn
p−→ X
si lim
n→∞P [|Xn −X | < �] = 1, para � > 0. Para referirse a la convergencia en
probabilidad también puede utilizarse convergencia estocástica, convergencia en
medida o convergencia débil .
1.3. PRELIMINARES EN CONVERGENCIA DE VARIABLES ALEATORIAS 11
Un tercer tipo de convergencia se conoce como convergencia en momento
de orden r . En este caso cada variable de la sucesión de variables aleatorias
{Xn} y X poseen el momento ordinario de orden r. En estas circunstancias
se afirma que la sucesión de variables aleatorias converge en momento de
orden r a la variable aleatoria X, lo cual se representa como,
Xn
Lr−→ X
si lim
n→∞E [(|Xn −X |)
r] = 0. Particularmente, si r = 1 suele decirse que la suce-
sión de variables aleatorias {Xn} converge en valor esperado a la variable
aleatoria X . Similarmente, cuando r = 2 la convergencia se conoce como
convergencia en media cuadrática .
Un cuarto y último tipo de convergencia de variables aleatorias se refiere
a una sucesión de variables aleatorias {Xn}, cuya correspondiente sucesión de
funciones de distribución F1(x), F2(x), . . . , es considerada. De esta manera la
sucesión de variables aleatorias {Xn} converge en distribución a la variable
aleatoria X , cuya función de distribución es F (x), hecho denotado:
Xn
d−→ X
si lim
n→∞Fn(x) = F (x) para todo x.
Entre los diferentes tipos de convergencia existen relaciones que es necesario
destacar. El siguiente teorema las reúne.
Teorema 1.3.1. Estando las variables aleatorias X1, X2, . . . y la variable par-
ticular X difinidas sobre el mismo espacio de probabilidad (Ω,A, P ),
1. Si {Xn} converge casi seguro a la variable aleatoria X con probabilidad 1,
implica que {Xn} converge en probabilidad a la variable aleatoria X.
2. Si {Xn} converge en valor esperado a la variable aleatoria X, implica que
{Xn} convergen en probabilidad a la variable aleatoriaX.
3. Si {Xn} converge en probabilidad a la variable aleatoria X implica que
{Xn} converge en distribución a la variable aleatoria X.
4. Siendo r > s, la convergencia de una sucesión de variables aleatorias
{Xn} en momento de orden r implica la convergencia de la sucesión en
momento de orden s.
De manera gráfica las relaciones que enuncia el teorema 1.3.1, se pueden
recapitular en la figura 1.2
Teorema 1.3.2 (Teorema de Lévy). Considerando la variable aleatoria par-
ticular X y la sucesión de variables aleatorias {Xn}, definidas sobre el mismo
espacio de probabilidad, y siendo {φn(t)} la sucesión de funciones caracteŕısticas
correspondientes a las variables de la sucesión {Xn},
Xn
d−→ X si y sólo si lim
n→∞φn(t) = φ(t)
12 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
Convergencia en
valor esperado
Convergencia
casi segura
Convergencia en
probabilidad
Convergencia en
distribución
Figura 1.2: Relaciones entre algunos tipos de convergencia de variables aleato-
rias
para t ∈ R y φ(t) función caracteŕıstica de la variable aleatoria X, continua en
cero.
Teorema 1.3.3 (Teorema de Lévy). - Versión para funciones genera-
trices de momentos - Considerando la variable aleatoria particular X y
la sucesión de variables aleatorias {Xn}, definidas sobre el mismo espacio de
probabilidad, y siendo {Mn(t)} la sucesión de funciones generatrices de momen-
tos correspondientes a las variables de la sucesión {Xn}, las cuales existen para
t real en algún intervalo alrededor de cero,
Xn
d−→ X si y sólo si lim
n→∞Mn(t) = M(t)
para t real en algún intervalo alrededor de cero y M(t) función generatriz de
momentos de la variable aleatoria X.
Teorema 1.3.4. Sea {Xn} una sucesión de variables aleatorias.
Xn
p−→ c si y sólo si lim
n→∞Fn(x) = F (x)
siendo c una constante, Fn(x) la función de distribución de Xn y F (x) una
función de distribución tal que F (x) = 0 para x < c y F (x) = 1 para x ≥ c.
1.4 Caracteŕısticas generales de algunas estad́ıs-
ticas
Los momentos muestrales, además de cumplir funciones análogas a los momen-
tos poblacionales como se incorporó en la definición 1.2.5, son estad́ısticas de
1.4. CARACTERÍSTICAS GENERALES DE ALGUNAS ESTADÍSTICAS 13
uso frencuente que bajo la garant́ıa de la existencia de determinados momen-
tos poblacionales, sus distribuciones muestrales poseen propiedades generales
respecto a su posición y a su dispersión en la forma como el siguiente teorema
lo indica.
Teorema 1.4.1. Si X1, X2, . . . , Xn es una muestra aleatoria de una población
representada por la variable aleatoria X con varianza σ2 y con momento ordi-
nario μ′2r, r = 1, 2, . . . , entonces el valor esperado y la varianza del momento
muestral ordinario son respectivamente:
E[M ′r,n] = μ
′
r
V [M ′r,n] =
1
n
[
E[X2r] − (E[Xr])2]
=
1
n
[
μ′2r − (μ′r)2
]
Corolario 1.4.1.1. Bajo las hipótesis del teorema 1.4.1,
E[Xn] = μ′1 = μ
V [Xn] =
σ2
n
Teorema 1.4.2. Si X1, X2, . . . , Xn es una muestra aleatoria de una población
con valor esperado, también llamado promedio poblacional, μ y varianza σ2,
y existiendo además el momento central de orden cuatro μ4, entonces
E[S2n] = E
[
1
n− 1
n∑
i=1
(Xi −Xn)2
]
= σ2
V [S2n] =
1
n
(
μ4 − n− 3
n− 1σ
4
)
, n > 1
El tamaño de la muestra es un elemento substancial tanto para las disquisi-
ciones en la teoŕıa de la estad́ıstica como para la utilización de la misma. La
pregunta por su magnitud es quizá de las más inquietantes para el investigador
en la búsqueda de respaldo a la confiabilidad de su investigación; el tamaño
muestral es uno de los aspectos con los cuales se certifican o descalifican estu-
dios, es en definitiva un punto obligado para dilucidar.
La incidencia relevante del tamaño de la muestra en la distribución muestral
de muchas estad́ısticas, gira alrededor del tema conocido como distribuciones
asintóticas. En particular en la medida que se vaya incrementando el tamaño de
la muestra, el promedio muestral adquiere unos rasgos propios que los siguientes
teoremas describen.
14 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
Teorema 1.4.3 (Ley débil de los grandes números). Si X1, X2, . . . , Xn
es una muestra aleatoria de una población con valor esperado μ y varianza σ2,
entonces
X1 +X2 + . . .+Xn
n
p−→ μ
La nota de la demostración del teorema anterior, destaca el hecho de que
P
[−� < Xn − μ < �] ≥ 1 − δ
para n entero mayor que
σ2
δ�2
, � > 0, δ > 0; lo cual permite determinar la
magnitud del tamaño muestral bajo prefijados requisitos. Esta cota para el
tamaño de la muestra debe entenderse dentro del contexto de una población
infinita y una muestra simple.
Ejemplo 1.4.1. ¿Cuál debe ser el tamaño de la muestra para tener una
probabilidad de 0.95 de que el promedio muestral no difiera en más de una
cuarta parte de la desviación estándar de μ?
En esta situación, � = 0.25σ, δ = 0.05, por lo tanto
n >
σ2
(0.25σ)20.05
= 320
Modificando parcialmente las condiciones del teorema 1.4.3 en el sentido de
no hacer ninguna mención de la varianza σ2, es posible reiterar la convergen-
cia en probabilidad del promedio de la muestra, como lo presenta el siguiente
teorema.
Teorema 1.4.4 (Teorema de Khintchine). SiX1, X2, . . . , Xn es una mues-
tra aleatoria de una población con valor esperado μ entonces
Xn
p−→ μ
De manera más general, la convergencia en probabilidad de los momentos
muestrales ordinarios a los momentos poblacionales ordinarios está avalada por
el siguiente teorema.
Teorema 1.4.5. Si X1, X2, . . . , Xn es una muestra aleatoria de una población
para la cual el momento central μ2r existe, entonces
M ′r,n
p−→ μ′r, r = 1, 2, . . .
Para cerrar esta relación de teoremas que giran alrededor de la idea de la
Ley débil de los grandes números, se incluye el siguiente teorema que puede
entenderse como una generalización de la citada ley.
1.4. CARACTERÍSTICAS GENERALES DE ALGUNAS ESTADÍSTICAS 15
Teorema 1.4.6. Si X1, X2, . . . es una sucesión de variables aleatorias tales que
E[Xi] = μi y V [Xi] = σ2i son finitos y ρ(Xi, Xj) = 0, i �= j, para i = 1, 2, . . . ,
entonces
Xn − μn p−→ 0
siendo μn =
1
n
n∑
i=1
μi
La Ley fuerte de los grandes números es un conjunto de teoremas referentes
a la convergencia casi segura de sucesiones de variables aleatorias. El teore-
ma siguiente es el más divulgado de todos y fue enunciado originalmente por
Kolmogorov.
Teorema 1.4.7 (Ley fuerte de los grandes números). Si X1, X2, . . . , Xn
es una muestra aleatoria de una población con valor esperado μ, entonces la
sucesión {Xn − μ} converge casi seguro a cero.
Teorema 1.4.8. Si X1, X2, . . . , Xn es una muestra aleatoria de una población
con valor esperado μ y varianza σ2, entonces
S2n
a.s.−−→ σ2
y en consecuencia S2n
p−→ σ2
Con la denominación de Teorema del Ĺımite Central debe entenderse más a
un conjunto de teoremas concernientes a la convergencia en distribución de la
suma de un número creciente de variables aleatorias al modelo Gaussiano, que a
la más popular de sus versiones. Es un conjunto de teoremas fundamentales de
la Estad́ıstica pues constituyen puntos de apoyo substanciales de la Inferencia
estad́ıstica y de las aplicaciones.
Bajo la citada denominación de teorema del ĺımite central se incluyen
variantes como la versión original conocida como la ley de los errores, derivada
de los trabajos de Gauss y Laplace sobre la teoŕıa de errores, que permitió el
surgimiento de las versiones más antiguas referentes a variables con distribución
de Bernoulli, debidas a De Moivre y Laplace en los siglos XVI y XVII, se in-
cluyen las versiones de Lindeberg-Lévy y Lindeberg-Feller, que son consecuencia
de un trabajo inciado por Chevyshev y Liapunov a finales del siglo XIX, trabajo
encaminado a la búsqueda de una demostración rigurosa, se incluyen las ver-
siones de Bikelis y aquellas adaptadas para los casos multivariados, y también
se incluyen aquellas para el caso de variables dependientes.
En particular la versión clásica o Teorema de Lindeberg-Lévy,la versión más
difundida, corresponde al siguiente teorema, resultado al que llegaron de manera
independiente J.W.Lindeberg y P.Lévy en la segunda década del siglo XX.
Teorema 1.4.9 (Teorema del Ĺımite Central (Lindeberg-Lévy)). Si
X1, X2, . . . , Xn es una muestra aleatoria de una población con valor esperado
μ y varianza σ2 finitos, considerando la variable aleatoria
Zn =
Xn − μ
σ√
n
16 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
entonces la sucesión de variables aleatorias {Zn} converge en distribución a una
variable aleatoria con distribución Normal estándar.
En pocas palabras, esta difundida versión determina que,
√
n(Xn − μ)
σ
d−→ Z ∼ N(0, 1)
El teorema del ĺımite central es la mejor justificación de la existencia del
modelo Gaussiano y del énfasis que de él se hace reiteradamente. Por otra
parte lo admirable del teorema radica en que no importa el modelo regente del
comportamiento probabiĺıstico de la población, y en que la exigencia de finitud
del valor esperado y la varianza es fácil satisfacerla en las aplicaciones.
Para finalizar estas consideraciones acerca del teorema del ĺımite central se
presenta una versión especial la cual corresponde al teorema de Lindeberg-Feller.
Teorema 1.4.10 (Teorema del Ĺımite Central (Lindeberg-Feller)). Si
X1, X2, . . . es una sucesión de variables aleatorias independientes con valor es-
perado μi y varianza σ2i finitos, i = 1, 2, . . . y asumiendo que τ
2
n =
n∑
i=1
σ2i → ∞
y además que max
1≤i≤n
{
σ2i
τ2n
}
→ 0 cuando n→ ∞, entonces
n∑
i=1
(Xi − μi)
τn
d−→ Z ∼ N(0, 1)
si y sólo si para cada � > 0,
lim
n→∞
1
τ2n
n∑
i=1
(∫
|x−μi|≥�τn
(x − μi)2fi(x)dx
)
= 0
siendo fi(x) la función de densidad de la variable aleatoria Xi, i = 1, 2, . . .
Cuando el comportamiento de una población se asume regido por el
modelo Gaussiano, se pueden deducir propiedades espećıficas adicionales para el
promedio y varianza muestrales, propiedades que hacen expĺıcitas los siguientes
teoremas.
Teorema 1.4.11. Si X1, X2, . . . , Xn es una muestra aleatoria de una población
con distribución Normal de valor esperado μ y varianza σ2, entonces
Xn ∼ N
(
μ,
σ2
n
)
Teorema 1.4.12. Si X1, X2, . . . , Xn es una sucesión de variables aleatorias
independientes tales que Xi ∼ N(μi, σ2i ), entonces
U =
n∑
i=1
(
Xi − μi
σi
)2
∼ χ2(n)
1.4. CARACTERÍSTICAS GENERALES DE ALGUNAS ESTADÍSTICAS 17
Corolario 1.4.12.1. Cuando la sucesión de variables aleatorias constituye una
muestra aleatoria de una población con distribución Normal, de valor esperado
μ y varianza σ2,
U =
n∑
i=1
(
Xi − μ
σ
)2
∼ χ2(n)
Teorema 1.4.13. Si X1, X2, . . . , Xn es una muestra aleatoria de una población
con distribución Normal de valor esperado μ y varianza σ2, entonces las es-
tad́ısticas Xn y S2n son dos variables aleatorias estad́ısticamente independientes.
Teorema 1.4.14. Si X1, X2, . . . , Xn es una muestra aleatoria de una población
Normal de valor esperado μ y varianza σ2, entonces
n∑
i=1
(Xi −Xn)2
σ2
=
(n− 1)S2n
σ2
∼ χ2(n− 1)
Con supuestos menos taxativos, el promedio y la varianza muestrales pre-
sentan un comportamiento muy particular. Los siguientes teoremas resaltan la
marcada autonomı́a de las estad́ısticas Xn y S2n.
Teorema 1.4.15. Si X1, X2, . . . , Xn es una muestra aleatoria de una población
cuya función de densidad es simétrica, entonces
cov(Xn, S2n) = 0
La expresión usual de la varianza muestral incluye el promedio de la muestra,
es decir que la varianza podŕıa entenderse como función de éste. Sin embargo, su
presencia en la expresión puede considerarse aparente puesto que la varianza de
la muestra puede prescindir del promedio muestral en la forma como lo garantiza
el siguiente teorema 3.
Teorema 1.4.16. Si X1, X2, . . . , Xn es una muestra aleatoria de una población
para la cual no se asume un modelo de probabilidad espećıfico, entonces
S2n =
1
2n(n− 1)
n∑
i=1
n∑
j=1
(Xi −Xj)2
En śıntesis, es claro que el promedio y varianza de la muestra son estad́ısticas
tales que bajo el modelo Gaussiano son estad́ısticamente independientes, bajo un
modelo de probabilidad cuya función de densidad es simétrica, las estad́ısticas
no están correlacionadas, y en cualquier situación la varianza de la muestra no
depende funcionalmente del promedio de la muestra.
3Jorge E. Ortiz P. Bolet́ın de Matemáticas. Volúmen VI No. 1 (1999), pp. 43-51
18 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
1.5 Estad́ısticas de orden
Una modalidad especial de estad́ısticas la integran las llamadas estad́ısticas
de orden . Ellas desempeñan papeles importantes en algunas aplicaciones como
en las Cartas de Control Estad́ıstico de la Calidad y como en el fundamento y
manejo de algunos conceptos en Estad́ıstica no paramétrica. Además de estos y
otros usos, las estad́ısticas de orden son particularmente los estimadores apropi-
ados de parámetros que rigen el recorrido de la población, y aśı mismo son
utilizadas en el juzgamiento de hipótesis referentes a estos parámetros. Por ser
estimadores y sustentar reglas de decisión en poblaciones especiales es menester
exponer algunos elementos y consideraciones acerca de su distribución.
Definición 1.5.1. La k-ésima estad́ıstica de orden, k = 1, 2, . . . , n,
correspondiente a una muestra aleatoria X1, X2, . . . , Xn, denotada por Xk,n,
está definida de la siguiente manera
Xk,n = min {{X1, X2, . . . , Xn} − {X1,n, X2,n, . . . , Xk−1,n}}
siendo
X1,n : mı́nimo de la muestra
Xn,n : máximo de la muestra
Al conjunto de estad́ısticas de orden X1,n, X2,n, . . . , Xn,n se le designa con el
nombre de muestra aleatoria ordenada.
A partir de las estad́ısticas de orden pueden definirse otras estad́ısticas como:
• El rango muestral
R = Xn,n −X1,n
• El semirango muestral
SR =
X1,n +Xn,n
2
• La mediana muestral
Me =
⎧⎪⎪⎪⎨⎪⎪⎪⎩
Xn+1
2 ,n
, si n es impar
Xn
2 ,n
+Xn
2 +1,n
2
, si n es par
• La función de distribución emṕırica o función de distribución
muestral
Fn(x) =
1
n
n∑
i=1
I(−∞,x](xi)
1.5. ESTADÍSTICAS DE ORDEN 19
es decir,
Fn(x) =
⎧⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎩
0, si x < X1,n
k
n
, si Xk,n ≤ x < Xk+1,n
1, si x ≥ Xn,n, k = 1, 2, . . . , n− 1
1.5.1 Distribución de las estad́ısticas de orden
Las estad́ısticas heredan en menor o mayor medida los rasgos del modelo elegido
para representar el comportamiento poblacional. Espećıficamente la distribu-
ción muestral de las estad́ısticas de orden incluye de manera expĺıcita las fun-
ciones de densidad y distribución de la población como lo registran los siguientes
teoremas.
Teorema 1.5.1. Siendo X1,n, X2,n, . . . , Xn,n las estad́ısticas de orden o la mues-
tra ordenada de una población con función de distribución FX(x), entonces para
k = 1, 2, . . . , n
FXk,n(y) =
n∑
j=k
(
n
j
)
[FX(y)]j [1 − FX(y)]n−j
Corolario 1.5.1.1. Para los casos especiales del mı́nimo y máximo de la mues-
tra se tiene:
FX1,n(y) = 1 − [1 − FX(y)]n
FXn,n(y) = [FX(y)]
n
Teorema 1.5.2. Siendo X1, X2, . . . , Xn una muestra aleatoria de una población
con función de distribución cont́ınua FX(x), la función de densidad de la k-
ésima estad́ıstica de orden es
fXk,n(y) =
n!
(k − 1)!(n− k)! [FX(y)]
k−1[1 − FX(y)]n−kfX(y), k = 1, 2, . . . , n
La función conjunta de densidad de la j-ésima estad́ıstica de orden y la
k-ésima estad́ıstica de orden fXj,n,Xk,n(x, y) es
c(n, j, k)[FX(x)]j−1[FX(y) − FX(x)]k−j−1[1 − FX(y)]n−kfX(y)fX(x)I(x,∞)(y)
para 1 ≤ j < k ≤ n, con c(n, j, k) = n!/[(j− 1)!(k− j − 1)!(n− k)!]. La función
conjunta de densidad de las estad́ısticas de orden es
fX1,n,X2,n,... ,Xn,n(y1, y2, . . . , yn) =
⎧⎪⎨⎪⎩n!
n
i=1
fX(yi) y1 < y2 < · · · < yn
0 en otros casos
20 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
Ejemplo 1.5.1. SiendoX1, X2, . . . , Xn una muestra aleatoria de una población
con distribución Uniforme en el intervalo (α, β), determinar la función de den-
sidad de la k-ésima estad́ıstica de orden.
fX(x) =
1
β − αI(α,β)(x)
FX(x) =
x− α
β − αI(α,β)(x) + I[β,∞)(x)
fXk,n(y) =
n!
(k − 1)!(n− k)!
[
y − α
β − α
]k−1[
1 − y − α
β − α
]n−k ( 1
β − αI(α,β)(y)
)
=
n!
(k − 1)!(n− k)!
(
1
β − α
)n
(y − α)k−1(β − y)n−kI(α,β)(y)
La distribución de la k-ésima estad́ıstica de orden es la de una variable aleatoria
con distribución Beta en el intervalo (α, β) con parámetros k y (n−k+1) cuando
la población es Uniforme en el intervalo (α, β).
Nota. Una variable aletoria X con distribución Beta en el intervalo (0, 1) puede
generar una variable aleatoria Y con distribución Beta en el intervalo (α, β)
mediante la relación
Y = α+ (β − α)X
Teorema 1.5.3. Sea X1, X2, . . . , Xn, una muestra aleatoria de una población
con función de distribución FX(x) continua. Para p fijo, si xp denota al único
percentil 100p poblacional, entonces
P [Xj,n < xp < Xk,n] =
k−1∑
l=j
(
n
l
)
pl(1 − p)n−l
1.5.2 Distribución del rango, semirango y mediana mues-
trales
Las estad́ısticas correspondientes al rango y semirango son funciones del máximo
y mı́nimo muestrales, por lo tanto la determinación de su distribución parte de
la consideración de la distribución conjunta de X1,n y Xn,n
fX1,n,Xn,n(x, y) = n(n− 1) [FX(y) − FX(x)]n−2 fX(x)fX(y)I(x,∞)(y)
Definidas las estad́ısticas:
R = Xn,n −X1,n
T =
X1,n +Xn,n
2
1.5. ESTADÍSTICAS DE ORDEN 21
se considera la siguiente transformación
x = t− r
2
y = t+
r
2
cuyo jacobiano es ∣∣∣∣∣∣∣
∂x
∂r
∂x
∂t
∂y
∂r
∂y
∂t
∣∣∣∣∣∣∣ =
∣∣∣∣∣
1
2 1
1
2 1
∣∣∣∣∣ = 1
con lo cual
fR,T (r, t) = n(n− 1)
[
FX
(
t+ r2
)− FX (t− r2)]n−2 fX (t− r2) fX (t− r2)
En consecuencia, para r > 0, se tiene
fR(r) =
∫ ∞
−∞
fR,T (r, t)dt
fT (t) =
∫ ∞
−∞
fR,T (r, t)dr
La distribución de la mediana está dependiendo del tamaño de la muestra. Si
éste es entero impar, su distribución está totalmente determinada pues
corresponde a la distribución de la estad́ıstica de orden n+12 . Para la situación
en la cual n es par, la mediana es función de las estad́ısticas de orden Xn
2 ,n
y
Xn
2 +1,n
. Aśı al tomar n = 2m, m = 1, 2, . . .
fX n
2 ,n
,X n
2 +1,n
(x, y) = fXm,n,Xm+1,n(x, y)
=
(2m)!
[(m− 1)!]2 [FX(x)]
m−1[1 − FX(x)]m−1fX(x)fX(y)
con x < y. Considerando la transformación u = x+y2 , v = y, se tiene que
f x+y
2
(u) = fU (u)
=
2(2m)!
[(m− 1)!]2
∫ ∞
u
[FX(2u− v)]m−1[1 − FX(v)]m−1fX(2u− v)fX(v)dv
1.5.3 Distribución de la función de distribución emṕırica
La función de distribución emṕırica tiene varios usos especialmente en métodos
y conceptos de la Estad́ıstica no paramétrica. Su gráfico se convierte en un
indicativo de una primera aproximación al ajuste que brinda el modelo. Algunos
aspectos de su distribución se presentan a continuación.
P
[
Fn(x) =
k
n
]
=
(
n
k
)
[FX(x)]k[1 − FX(x)]n−k
donde k = 0, 1, 2, . . . , n. En efecto, denotando la variable aleatoria
Zi = I(−∞,x](Xi)
22 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
luego Zi ∼ Ber(FX(x)), por lo tanto
n∑
i=1
Zi ∼ Bin(n, FX(x)) y por consiguiente
E[Fn(x)] = FX(x)
V [Fn(x)] =
FX(x)[1 − FX(x)]
n
Teorema 1.5.4. Siendo X1, X2, . . . , Xn una muestra aleatoria de una población
con función de distribución FX(x), entonces
Fn(x)
P−→ FX(x)
para un valor x dado.
Teorema 1.5.5 (Teorema de Glivenko-Cantelli). SiX1, X2, . . . , Xn es una
muestra aleatoria de una población con función de distribución FX(x), entonces
Fn(x) converge uniformemente a FX(x), esto es, para cada � > 0,
lim
n→∞P
[
sup
−∞<x<∞
|Fn(x) − FX(x)| < �
]
= 1
|
x
Fn(x)
FX(x)
Figura 1.3: Esquema de las funciones de distribución Fn(x) y FX(x)
Teorema 1.5.6. Siendo X1, X2, . . . , Xn una muestra aleatoria de una población
con función de distribución FX(x), la sucesión de variables aleatorias{ √
n[Fn(x) − FX(x)]√
FX(x)[1 − FX(x)]
}
converge en distribución a una variable aleatoria con distribución Normal estándar.
1.6. MOMENTOS DE ESTADÍSTICAS DE ORDEN 23
1.6 Momentos de estad́ısticas de orden
Los teoremas 1.5.1 y 1.5.2 puntualizan respectivamente la función de distribu-
ción y la función de densidad de la k-ésima estad́ıstica de orden. En principio,
garantizada la existencia del momento de interés y determinada expĺıcitamente
la función de distribución FX(x), podŕıa formalizarse el momento con base en
las referidas funciones de distribución o de densidad. Sin embargo, su logro
depende de la complejidad de la integración requerida para su cálculo, dado que
algunas veces se alcanza únicamente por medio de integración numérica.
A manera de ejemplo, considerando el comportamiento poblacional como in-
diferente para cualquier valor del intervalo (0, 1), el valor esperado, la varianza
y el momento de orden r de la estad́ıstica de orden k es factible determinarlos.
Ejemplo 1.6.1. Siendo X1,n, X2,n, . . . , Xn,n es una muestra ordenada de una
población con distribución Uniforme en el intervalo (0, 1)
E[Xk,n] =
k
n+ 1
V [Xk,n] =
k(n− k + 1)
(n+ 2)(n+ 1)2
ρ(Xj,n, Xk,n) =
[
j(n− k + 1)
k(n− j + 1)
] 1
2
, j < k
En efecto. En primer lugar, de manera general
E[Xrk,n] =
n!
(k − 1)!(n− 1)!
∫ 1
0
xr+k−1(1 − x)n−kdx
=
n!
(k − 1)!(n− 1)!β(r + k, n− k + 1)
y utilizando la relación β(a, b) =
Γ(a)Γ(b)
Γ(a+ b)
, entonces
E[Xrk,n] =
n!
(k − 1)!(n− 1)!
Γ(r + k)Γ(n− k + 1)
Γ(r + k + n− k + 1)
=
n!(r + k − 1)!
(r + n)!(k − 1)! , 1 ≤ k ≤ n
particularmente,
E[Xk,n] =
n!k!
(n+ 1)!(k − 1)! =
k
n+ 1
V [Xk,n] = E[X2k,n] − (E[Xk,n])2
E[X2k,n] =
n!(k + 2 − 1)!
(n+ 2)!(k − 1)! =
k(k + 1)
(n+ 1)(n+ 2)
V [Xk,n] =
k(k + 1)
(n+ 1)(n+ 2)
− k
2
(n+ 1)2
=
k(n− k + 1)
(n+ 2)(n+ 1)2
24 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
Por otra parte, denotándo E[Xj,n, Xk,n] = Δ, se tiene que
Δ =
n!
(j − 1)!(k − j − 1)!(n− k)!
∫ 1
0
∫ y
0
xjy(y − x)k−j−1(1 − y)n−kdxdy
=
n!
(j − 1)!(k − j − 1)!(n− k)!
∫ 1
0
y(1 − y)n−k
[∫ y
0
xj(y − x)k−j−1dx
]
dy
Realizando la sustitución v =
x
y
Δ =
n!
(j − 1)!(k − j − 1)!(n− k)!
∫ 1
0
y(1 − y)n−k [ykβ(j + 1, k − j)] dy
=
n!
(j − 1)!(k − j − 1)!(n− k)!β(1 + j, k − j)β(k + 2, n− k + 1)
=
j(k + 1)
(n+ 1)(n+ 2)
= E[Xj,n, Xk,n]
con lo cual
Cov(Xj,n, Xk,n) =
j(k + 1)
(n+ 1)(n+ 2)
− jk
(n+ 1)2
j < k
ρ(Xj,n, Xk,n) =
√
j(n− k + 1)
k(n− j + 1) j < k
por lo tanto, como caso especial, la correlación entre el mı́nimo y máximo de la
muestra bajo comportamiento poblacional Uniforme en el intervalo (0, 1) es
ρ(X1,n, Xn,n) =
1
n
Como ya se mencionó, en algunos casos se requiere integración numérica
para determinar momentos de una estad́ıstica de orden. Sin embargo es posible
presentar expresiones que permiten aproximar el valor esperado y varianza de
la k-ésima estad́ıstica de orden.
El desarrollo de estas expresiones se basa en una expansión en serie de Taylor
y en el hecho de que si X es una variable aleatoria con función de distribución
FX(x) continua, la variable aleatoria Y = FX(X) tiene distribución Uniforme
en (0, 1), entonces
E[Xk,n] 
 F−1X
(
k
n+ 1
)
V [Xk,n] 
 k(n− k + 1)
(n+ 1)2(n+ 2)
{
fX
(
F−1X
(
k
n+1
))}2
1.7. DEMOSTRACIÓN DE LOS TEOREMAS DEL CAPÍTULO 25
Finalmente se expone una breve alusión a la distribución asintótica de las es-
tad́ısticas de orden.
El estudio de la distribución asintótica de la k-ésima estad́ıstica de orden
incluye dos casos a saber: el primero cuando n tiende a infinito y kn permanece
fijo, el segundo cuando n tiende a infinito y k o n− k permanecen finitos.
Para algunos efectos, el primer caso es de mayor interés; el teorema siguiente
se adscribe a ese caso.
Teorema 1.6.1. Sea X1, X2, . . . , Xn una muestra aleatoria de una población
cuya función de distribución FX(x) es estrictamente monótona. Asumiendo que
xp es el percentil 100p poblacional, es decir, FX(xp) = p, entonces la estad́ıstica
de orden [np] + 1 tiene distribución asintótica Normal con valor esperado xp y
varianza p(1−p)n[fX (xp)]2 .
Particularmente, si p = 12 (mediana) y la población es Normal con valor
esperado μ y varianza σ2 la mediana muestral tiene distribución Normal con
valor esperado μ y varianza πσ
2
2n .
Con este teorema relativo a la distribución asintótica de la k-ésima estad́ıstica
de ordenconcluye la introducción a las ideas preliminares de la Inferencia es-
tad́ıstica, presentación que además entreabre el contexto filosófico en el cual
se desempeña, que describe las caracteŕısticas más relevantes de algunas es-
tad́ısticas y registra como estad́ısticas especiales a las estad́ısticas de orden.
Con esto se da paso a la exposición de los argumentos que sustentan las afirma-
ciones de los enunciados de los teoremas relacionados y finalmente a la serie de
ejercicios cuyo desarrollo complementará la reflexión sobre estos temas iniciales
y será un componente más en la aprehensión de los conceptos expuestos en este
primer caṕıtulo.
1.7 Demostración de los teoremas del caṕıtulo
Demostración (Teorema 1.3.1). Algunos apartes de la demostración pueden
consultarse en A first course in mathematical statistics, de G. Roussas, páginas
133 a 135 y en Basic probability theory de R. Ash, páginas 204 y 205.
Demostración (Teorema 1.3.4). Suponiendo que Xn
p−→ c, entonces para
� > 0
lim
n→∞P [|Xn − c| < �] = 1 = limn→∞P [c− � < Xn < c+ �]
= lim
n→∞ [Fn(c+ �) − Fn(c− �)]
= lim
n→∞ [Fn(c+ �)] − limn→∞ [Fn(c− �)]
La imagen de cualquier función de distribución es un valor que pertenece al
intervalo [0, 1], luego la única posibilidad para que la igualdad anterior se de es
que
lim
n→∞Fn(c+ �) = 1 y limn→∞Fn(c− �) = 0
26 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
hecho revelador de que Fn(x) −→ F (x) siendo F (x) una función de distribución
tal que
F (x) =
{
0 si x < c
1 si x ≥ c
es decir que F (x) es la función de distribución de una constante c.
Suponiendo ahora que Fn(x) −→ F (x) con F (x) = I[c,∞)(x), es decir que
lim
n→∞Fn(x) = F (x)
entonces
lim
n→∞Fn(c− �) = 0 para � > 0 y limn→∞Fn(c+ �) = 1
luego
lim
n→∞ [Fn(c+ �) − Fn(c− �)] = 1 = limn→∞P [c− � < Xn < c+ �]
= lim
n→∞P [|Xn − c| < �]
lo cual significa que Xn
p−→ c.
Demostración (Teorema 1.4.1). El valor esperado del momento ordinario
de orden r puede determinarse mediante dos argumentos. En primer lugar,
utilizando las propiedades del valor esperado se tiene que
E[M ′r,n] = E
[
1
n
n∑
i=1
Xri
]
=
1
n
n∑
i=1
E[Xri ], r = 1, 2, . . .
En segundo lugar, como todas las variables aleatorias de la sucesión tienen la
misma distribución, por constituir una muestra aleatoria, E[Xri ] = μ
′
r, para
i = 1, 2, . . . , n, en consecuencia
E[M ′r,n] =
1
n
n∑
i=1
μ′r =
1
n
(nμ′r) = μ
′
r
De manera similar puede determinarse la varianza del momento ordinario de
orden r. De las propiedades de la varianza, se puede afirmar que
V [M ′r,n] = V
[
1
n
n∑
i=1
Xri
]
=
1
n2
V
[
n∑
i=1
Xri
]
, r = 1, 2, . . .
y debido a que las variables aleatorias son independientes, pues constituyen una
muestra aleatoria, lo son también las variables Xr1 , X
r
2 , . . . , X
r
n, con lo cual
V [M ′r,n] =
1
n2
n∑
i=1
V [Xri ] =
1
n2
n∑
i=1
[
E[X2ri ] − (E[Xri ])2
]
1.7. DEMOSTRACIÓN DE LOS TEOREMAS DEL CAPÍTULO 27
y como las variables tienen distribución idéntica,
V [M ′r,n] =
1
n2
n∑
i=1
(
μ′2r − (μ′r)2
)
=
1
n
(
μ′2r − (μ′r)2
)
Demostración (Teorema 1.4.2). Para determinar el valor esperado de la
varianza muestral, es necesario previamente verificar la identidad:
n∑
i=1
(Xi − μ)2 = (n− 1)S2n + n(Xn − μ)2
El sumar y restar Xn es el punto de partida en la verificación de la identidad,
de tal manera que
n∑
i=1
(Xi − μ)2 =
n∑
i=1
(Xi −Xn +Xn − μ)2 =
n∑
i=1
[
(Xi −Xn) + (Xn − μ)
]2
Asimismo después de desarrollar el cuadrado indicado,
n∑
i=1
(Xi − μ)2 =
n∑
i=1
(Xi −Xn)2 + 2(Xn − μ)
n∑
i=1
(Xi −Xn) + n(Xn − μ)2
=
n∑
i=1
(Xi −Xn)2 + n(Xn − μ)2
porque
n∑
i=1
(Xi −Xn) =
n∑
i=1
Xi − nXn = nXn − nXn = 0, y por lo tanto
n∑
i=1
(Xi − μ)2 = (n− 1)S2n + n(Xn − μ)2
Con el anterior recurso,
E[S2n] = E
[
1
n− 1
n∑
i=1
(Xi − μ)2 − n
n− 1(Xn − μ)
2
]
=
1
n− 1
[
n∑
i=1
E[(Xi − μ)2] − nE[(Xn − μ)2]
]
como E[(Xi − μ)2] = V [Xi], E[(Xn − μ)2] = V [Xn] y teniendo en cuenta que
todas las variables aleatorias de la sucesión tienen la misma distribución,
E[S2n] =
1
n− 1
[
n∑
i=1
σ2 − n
(
σ2
n
)]
=
1
n− 1[nσ
2 − σ2] = σ2
La demostración del segundo enunciado del teorema, es uno de los ejercicios de
este caṕıtulo.
28 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
Demostración (Teorema 1.4.3). La herramienta procedente para sustentar
el desarrollo de esta demostración será la desigualdad de Chevyshev, la cual
asegura que si X es una variable aleatoria con valor esperado μX y varianza σ2X
finita,
P [|X − μX | < rσX ] ≥ 1 − 1
r2
para cada r > 0
Aplicando la desigualdad al caso especial de la variable aleatoria Xn, teniendo en
cuenta que E[Xn] = μ y V [Xn] =
σ2
n
, como lo manifiesta el corolario 1.4.1.1,
P
[∣∣Xn − μ∣∣ < r σ√
n
]
≥ 1 − 1
r2
para cada r > 0
utilizando el reemplazo � = r σ√
n
se tiene que � > 0 y
P [
∣∣Xn − μ∣∣ < �] ≥ 1 − σ2
n�2
de tal manera que
lim
n→∞P [
∣∣Xn − μ∣∣ < �] ≥ lim
n→∞ 1 −
σ2
n�2
= 1
es decir que
lim
n→∞P [
∣∣Xn − μ∣∣ < �] = 1
lo cual significa que Xn
p−→ μ, como lo afirma la ley débil de los grandes números.
Nota. La cota 1 − σ
2
n�2
crece en cuanto n crece. Si se fija la cota en 1 − δ,
0 < δ < 1, significa que existe un tamaño de muestra mı́nimo n, para el cual
P [|Xn − μ| < �] ≥ 1 − δ. Dicho en otros términos 1 − σ2
n�2
> 1 − δ, es decir,
P [−� < Xn − μ < �] ≥ 1 − δ, para n > σ
2
δ�2
Demostración (Teorema 1.4.4). Utilizando la función generatriz de momen-
tos de la variable que representa a la población MX(t), o en su defecto la función
caracteŕıstica φX(t),
MXn(t) = E
[
etXn
]
= E
[
exp
(
t
n
X1 +
t
n
X2 + · · · + t
n
Xn
)]
como las variables constituyen una muestra aleatoria,
MXn(t) =
n∏
i=1
E
[
e
t
n Xi
]
=
n∏
i=1
E
[
e
t
n X
]
=
[
MX
(
t
n
)]n
1.7. DEMOSTRACIÓN DE LOS TEOREMAS DEL CAPÍTULO 29
entonces
MXn(t) =
[
1 +
μ
1!
(
t
n
)
+
1
2!
E[X2]
(
t
n
)2
+ · · ·
]n
lim
n→∞MXn(t) = limn→∞
[
1 +
μt
n
+ O
(
t
n
)]n
= eμt
función generatriz que corresponde a la función generatriz de una constante μ.
(O es el śımbolo “o pequeña”usado en el estudio de las series). Lo cual significa
que
Xn
d−→ μ
y con base en el teorema 1.3.4 se tiene que
Xn
p−→ μ
Demostración (Teorema 1.4.5). Como la sucesión Xr1 , X
r
2 , . . . , X
r
n confor-
ma un conjunto de variables aleatorias independientes e idénticamente dis-
tribuidas porque la sucesión X1, X2, . . . , Xn es una muestra aleatoria, entonces
sólo resta aplicar el teorema relativo a la Ley débil de los grandes números uti-
lizando la sucesión Xr1 , Xr2 , . . . , Xrn, con lo cual se puede concluir que
1
n
n∑
i=1
[Xri ]
p−→ E [Xr1 ] = μ′r
Demostración (Teorema 1.4.7). Puede consultarse en Probability and Sta-
tistical Inference de Robert Bartoszynski y Magdalena Niewiadomska-Bugaj (1996)
en las páginas 430 a 431.
Demostración (Teorema 1.4.9). La estrategia para la demostración consiste
en el uso de la función generatriz de momentos y de sus propiedades, para lo cual
se asume la existencia de la función generatriz de momentos de la población.
Se apoya la demostración en el desarrollo en serie de McLaurin de la función
generatriz de momentos, demostración que también se puede llevar a cabo, uti-
lizando la función caracteŕıstica.
Denotando como MZn(t) la función generatriz de momentos de la variable
aleatoria Zn, se tiene:
MZn(t) = E
[
etZn
]
= E
[
exp
(√
n
(
Xn − μ
)
σ
t
)]
= E
[
exp
(
t
n
√
n
n∑
i=1
Xi − μ
σ
)]
= E
[
n∏
i=1
exp
(
t
n
√
n
Xi − μ
σ
)]
30 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
como las variables de la sucesión X1, X2, . . . , Xn son variables aleatorias in-
dependientes por tratarse de una muestra aleatoria, las variables Y1, Y2, . . . , Yn
también lo son, siendo Yi = Xi−μσ , i = 1, 2, . . . , n y por lo tanto,
MZn(t) =
n∏
i=1
E
[
exp
(
t√
n
Yi
)]
=
n∏
i=1
MYi
(
t√
n
)
como las variables Y1, Y2, . . . , Yn tienen la misma distribución, con función
generatriz de momentos MYi
(
t√
n
)
= MY
(
t√
n
)
, i = 1, 2, . . . , n, entonces
MZn(t)=
n∏
i=1
MY
(
t√
n
)
=
[
MY
(
t√
n
)]n
El desarrollo en serie de McLaurin de la función generatriz MY (t) evaluada en
el valor t√
n
es
MY (t) = 1 +
μ1
σ
t√
n
+
1
2!
μ2
σ2
(
t√
n
)2
+
1
3!
μ3
σ3
(
t√
n
)3
+ · · ·
como el valor esperado es igual a cero, por lo tanto, si existen, μ′r = μr,
r = 1, 2, . . . , y además la varianza es igual a uno,
MY
(
t√
n
)
= 1 +
1
2!
σ2
σ2
(
t√
n
)2
+
1
3!
μ3
σ3
(
t√
n
)3
+ · · ·
= 1 +
1
n
[
1
2!
t2 +
1
3!
√
n
μ3t
3 +
1
4!n
μ4t
4 + · · ·
]
efectuando el reemplazo Pn(t) = 12! t
2 + 1
3!
√
n
μ3t
3 + 14!nμ4t
4 + · · · y dado que
MZn(t) =
[
MY
(
t√
n
)]n
,
MZn(t) = [1 + Pn(t)]
n
lim
n→∞MZn(t) = limn→∞ [1 + Pn(t)]
n
= exp
(
lim
n→∞Pn(t)
)
= e
1
2 t
2
porque los coeficientes de t3, t4, . . . tienden a cero cuando n→ ∞.
Además e
1
2 t
2
se reconoce como la función generatriz de momentos de una
variable aleatoria con distribución Normal estándar. Como
lim
n→∞MZn(t) = MZ(t) = e
1
2 t
2
de acuerdo con el teorema de Lévy, Zn
d−→ Z, Z ∼ N(0, 1).
1.7. DEMOSTRACIÓN DE LOS TEOREMAS DEL CAPÍTULO 31
Demostración (Teorema 1.4.10). Los elementos que se requieren para el de-
sarrollo de la demostración de este teorema están más allá del alcance de este
texto.
Demostración (Teorema 1.4.11). Nuevamente se ha elegido a la función
generatriz de momentos como medio para llevar a cabo esta demostración. Sien-
do
MX(t) = exp
(
μt+
1
2
σ2t2
)
la función generatriz de una variable aleatoria X, X ∼ N(μ, σ2),
MXn(t) = E
[
etXn
]
= E
[
exp
(
t
1
n
n∑
i=1
Xi
)]
= E
[
n∏
i=1
exp
t
n
Xi
]
debido a la independencia de las variables que constituyen la muestra aleatoria,
MXn(t) =
n∏
i=1
E
[
exp
t
n
Xi
]
=
n∏
i=1
MXi
(
t
n
)
Finalmente, como las citadas variables están identicamente distribuidas, de
acuerdo al modelo Gaussiano,
MXn(t) =
n∏
i=1
MX
(
t
n
)
=
n∏
i=1
exp
(
μ
t
n
+
1
2
σ2
(
t
n
)2)
=
[
exp
(
μ
t
n
+
1
2
σ2
(
t
n
)2)]n
= exp
(
μt+
1
2
σ2
n
t2
)
lo cual significa que Xn ∼ N
(
μ, σ
2
n
)
Demostración (Teorema 1.4.12). La variable aleatoria Zi =
Xi − μi
σi
, para
i = 1, 2, . . . , n, es una variable aleatoria con distribución Normal estándar lo
cual permite afirmar que Z2i ∼ χ2(1).
Con el concurso de la función generatriz de momentos, puede establecerse que
MU (t) = E
[
etU
]
= E
[
e
t
n
i=1
Z2i
]
= E
[
n∏
i=1
etZ
2
i
]
32 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
como la sucesión Z1, Z2, . . . , Zn es una sucesión de variables aleatorias inde-
pendientes,
MU (t) =
n∏
i=1
E
[
etZ
2
i
]
=
n∏
i=1
MZ2i (t) =
n∏
i=1
(
1
1 − 2t
) 1
2
=
(
1
1 − 2t
)n
2
lo cual significa que U ∼ χ2(n).
Demostración (Teorema 1.4.13). La demostración está orientada a la de-
terminación de la independencia de Xn, (X1 − Xn), (X2, Xn), . . . , (Xn − Xn)
para luego concluir la independencia entre Xn y
n∑
i=1
(Xi −Xn)2.
En primer lugar, la función generatriz de momentos M(t, t1, t2, . . . , tn) de las
variables aleatorias Xn, (X1−Xn), (X2, Xn), . . . , (Xn−Xn), con c =
(
1√
2πσ
)n
,
es
c
∫
Rn
exp
[
txn + t1(x1 − xn) + · · · + tn(xn − xn) −
n∑
i=1
(xi − μ)2
2σ2
]
dx1 · · · dxn
En segundo lugar, al considerar la integral sobre xi, i = 1, 2, . . . , n se tiene∫ ∞
−∞
1√
2πσ
exp
{
[t+ nti − (t1 + t2 + · · · + tn)]xi
n
− (xi − μ)
2
2σ2
}
dxi
que al efectuar el reemplazo
1
n
[
t+ nti −
n∑
i=1
ti
]
=
1
n
[
t+ n(ti − t)
]
con t =
1
n
n∑
i=1
ti
entonces la integral anterior puede expresarse como∫ ∞
−∞
1√
2πσ
exp
{
1
n
[
t+ n(ti − t)
]
xi − (xi − μ)
2
2σ2
}
dxi
cuyo valor es finalmente
exp
{
μ
n
[
t+ n(ti − t)
]
+
σ2
[
t+ n(ti − t)
]2
2n2
}
por consiguiente
M(t, t1, t2, . . . , tn) = exp
{
n∑
i=1
{
μ
n
[
t+ n(ti − t)
]
+
σ2
[
t+ n(ti − t)
]2
2n2
}}
y como
n∑
i=1
(ti − t) = 0, entonces
M(t, t1, . . . , tn) = exp
{
μt+
σ2t2
2n
+
σ2
2
n∑
i=1
(ti − t)2
}
= exp
{
μt+
1
2
σ2
n
t2
}
exp
{
σ2
2
n∑
i=1
(ti − t)2
}
1.7. DEMOSTRACIÓN DE LOS TEOREMAS DEL CAPÍTULO 33
hecho que revela la independencia de Xn, (X1−Xn), (X2−Xn), . . . , (Xn−Xn).
Por consiguiente Xn, (X1 −Xn)2, (X2 −Xn)2, . . . , (Xn −Xn)2 es un conjunto
de variables aleatorias independientes e igualmente Xn y
n∑
i=1
(Xi − Xn)2. En
consecuencia Xn y S2n son estad́ısticamente independientes.
Demostración (Teorema 1.4.14). De la demostración del teorema 1.4.2 se
tiene que
n∑
i=1
(Xi − μ)2 =
n∑
i=1
(Xi −Xn)2 + n(Xn − μ)2
por lo tanto
n∑
i=1
(Xi − μ)2
σ2
=
n∑
i=1
(Xi −Xn)2
σ2
+
n(Xn − μ)2
σ2
luego
E
⎡⎢⎢⎣exp
⎡⎢⎢⎣t
n∑
i=1
(Xi − μ)2
σ2
⎤⎥⎥⎦
⎤⎥⎥⎦ = E [exp [t (n− 1)S2nσ2 + tn(Xn − μ)2σ2
]]
= E
[
exp
[
t
(n− 1)S2n
σ2
]]
E
[[
t
n(Xn − μ)2
σ2
]]
puesto que Xn y S2n son estad́ısticamente independientes.
Debido a que
n∑
i=1
(Xi − μ)2
σ2
∼ χ2(n) y n(Xn − μ)
2
σ2
∼ χ2(1)
entonces (
1
1 − 2t
)n
2
= E
[
exp
[
t
(n− 1)S2n
σ2
]](
1
1 − 2t
) 1
2
es decir
E
[
exp
[
t
(n− 1)S2n
σ2
]]
=
(
1
1 − 2t
)n−1
2
t <
1
2
dicho de otra manera
n∑
i=1
(Xi −Xn)2
σ2
=
(n− 1)S2n
σ2
∼ χ2(n− 1)
34 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
Demostración (Teorema 1.4.15). La demostración de este teorema se lle-
vará a cabo mediante inducción matemática sobre el tamaño de muestra.
Previamente a ella y con el fin de incluirlos en la demostración, es necesario
aprestar tres elementos a saber:
1. Si X,Y son dos variables aleatorias independientes,
cov(X,XY ) = E[Y ]V [X ]
2. Si la función de densidad de una variable aleatoria X es simétrica con
respecto a E[X ],
cov(X,X2) = 2E[X ]V [X ]
3. Y finalmente las relaciones
Xn+1 =
1
n+ 1
(
nXn +Xn+1
)
nS2n+1 = (n− 1)S2n +
n
n+ 1
(
Xn+1 −Xn
)2
En primer lugar, al ser X,Y independientes tambien lo son X2 y Y . Por ello
cov(X,XY ) = E[X2Y ] − E[X ]E[XY ] = E[Y ]E[X2] − E[Y ](E[X ])2
es decir, cov(X,XY ) = E[Y ]
[
E[X2] − (E[X ])2] = E[Y ]V [X ].
En segundo lugar, si la función de densidad es simétrica con respecto a E[X ]
E
[
(X − E[X ])3] = 0 = E [X3 − 3X2E[X ] + 3X (E[X ])2 − (E[X ])3]
= E
[
X3
]− 3E [X2]E[X ] + 2 (E[X ])3
con lo cual E
[
X3
]
= 3E
[
X2
]
E[X ] − 2 (E[X ])3.
cov(X,X2) = E
[
X3
]− E[X ]E[X2]
= 3E[X2]E[X ] − 2 (E[X ])3 − E[X ]E[X2]
= 2E[X ]E[X2] − 2 (E[X ])3
= 2E[X ]
[
E[X2] − (E[X ])2]
= 2E[X ]V [X ]
Por último,
Xn+1 =
1
n+ 1
n+1∑
i=1
Xi =
1
n+ 1
[
n∑
i=1
Xi +Xn+1
]
=
1
n+ 1
[
nXn +Xn+1
]
1.7. DEMOSTRACIÓN DE LOS TEOREMAS DEL CAPÍTULO 35
nS2n+1 =
n+1∑
i=1
(
Xi −Xn+1
)2
=
n+1∑
i=1
(
Xi −Xn +Xn −Xn+1
)2
=
n+1∑
i=1
[(
Xi −Xn
)2
+ 2
(
Xn −Xn+1
) (
Xi −Xn
)
+
(
Xn −Xn+1
)2]
= (n− 1)S2n +
(
Xn+1 −Xn
)2
+ 2
(
Xn −Xn+1
) n∑
i=1
(
Xi −Xn
)
+ 2
(
Xn −Xn+1
) (
Xn+1 −Xn
)
+ (n+ 1)
(
Xn −Xn+1
)2
como
n∑
i=1
(
Xi −Xn
)
= 0,
nS2n+1 = (n− 1)S2n +
(
Xn+1 −Xn
)2
+ 2
(
Xn −Xn+1
) (
Xn+1 −Xn
)
+ (n+ 1)
(
Xn −Xn+1
)2
= (n− 1)S2n +
(
Xn+1 −Xn
)2
+
(
Xn −Xn+1
) [
2Xn+1 + (n− 1)Xn − (n+ 1)Xn+1
]
realizando los reemplazos:
(n+ 1)Xn+1 = nXn +Xn+1 y Xn −Xn+1 = 1
n+ 1
(
Xn −Xn+1
)
nS2n+1 = (n− 1)S2n +
(
Xn+1 −Xn
)2
+
(
Xn −Xn+1
)
n+ 1
[
2Xn+1 + (n− 1)Xn −
(
nXn +Xn+1
)]
= (n− 1)S2n +
(
Xn+1 −Xn
)2 − (Xn+1 −Xn)
n+ 1
(
Xn+1 −Xn
)
= (n− 1)S2n +
n
n+ 1
(
Xn+1 −Xn
)2
Entrando en materia, teniendo en cuenta que E[Xi] = μ, V [Xi] = σ2, para
i = 1, 2, . . . , n, al considerar una muestra de tamaño n = 2,
S22 =
1
2 − 1
2∑
i=1
(
Xi −X2
)2
=
(X1 −X2)2
2
36 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
cov
(
X2, S
2
2
)
= cov
(
X1 +X2
2
,
(X1 −X2)2
2
)
=
1
4
cov
(
X1 +X2, (X1 −X2)2
)
=
1
4
[
cov
(
X1 +X2, X21 − 2X1X2 +X22
)]
=
1
4
[
cov(X1, X21 ) − 2cov(X1, X1X2) + cov
(
X1, X
2
2
)]
+
1
4
[
cov(X2, X21 ) − 2cov(X2, X1X2) + cov
(
X2, X
2
2
)]
=
1
4
[2E[X1]V [X1] − 2E[X2]V [X1] − 2E[X1]V [X2] + 2E[X2]V [X2]]
porque X1 tiene la misma distribución de X2 y además son variables indepen-
dientes,
cov
(
X2, S
2
2
)
=
1
4
(
2μσ2 − 2μσ2 − 2μσ2 + 2μσ2) = 0
Por hipótesis de inducción cov
(
Xn, S
2
n
)
= 0. Ahora para una muestra de
tamaño n+ 1, cov
(
Xn+1, S
2
n+1
)
= Δ
Δ = cov

Continuar navegando

Materiales relacionados

222 pag.
Notas de Clases

User badge image

Central de Apuntes

251 pag.
IyDapuntes

SIN SIGLA

User badge image

Mario Rosa