Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Inferencia Estad́ıstica J. Humberto Mayorga A. Profesor Asociado Departamento de Estad́ıstica - Facultad de Ciencias Universidad Nacional de Colombia 2 Índice General Prólogo iii Introducción v 1 DISTRIBUCIONES MUESTRALES 1 1.1 La Inferencia estad́ıstica, un soporte epistemológico . . . . . . . . 1 1.2 Preliminares en la Inferencia estad́ıstica . . . . . . . . . . . . . . 4 1.3 Preliminares en convergencia de variables aleatorias . . . . . . . 9 1.4 Caracteŕısticas generales de algunas estad́ısticas . . . . . . . . . . 12 1.5 Estad́ısticas de orden . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.5.1 Distribución de las estad́ısticas de orden . . . . . . . . . . 19 1.5.2 Distribución del rango, semirango y mediana muestrales . 20 1.5.3 Distribución de la función de distribución emṕırica . . . . 21 1.6 Momentos de estad́ısticas de orden . . . . . . . . . . . . . . . . . 23 1.7 Demostración de los teoremas del caṕıtulo . . . . . . . . . . . . . 25 1.8 Ejercicios del caṕıtulo . . . . . . . . . . . . . . . . . . . . . . . . 42 2 ESTIMACIÓN PUNTUAL DE PARÁMETROS 49 2.1 Métodos clásicos para construir estimadores . . . . . . . . . . . . 51 2.1.1 El método de máxima verosimilitud . . . . . . . . . . . . 51 2.1.2 El método de los momentos . . . . . . . . . . . . . . . . . 61 2.1.3 El método por analoǵıa . . . . . . . . . . . . . . . . . . . 64 2.1.4 Estimación Bayesiana . . . . . . . . . . . . . . . . . . . . 65 2.2 Criterios para examinar estimadores . . . . . . . . . . . . . . . . 69 2.2.1 Concentración, un requisito de precisión . . . . . . . . . . 69 2.2.2 Consistencia, un requisito ligado al tamaño de la muestra 73 2.2.3 Suficiencia, un requisito de retención de información . . . 75 2.2.4 Varianza mı́nima, un requisito de máxima precisión . . . 83 2.2.5 Completez, un requisito de la distribución muestral . . . . 90 2.2.6 Robustez, un requisito de estabilidad . . . . . . . . . . . . 96 2.3 Demostración de los teoremas del caṕıtulo . . . . . . . . . . . . . 98 2.4 Ejercicios del caṕıtulo . . . . . . . . . . . . . . . . . . . . . . . . 104 i ii ÍNDICE GENERAL 3 ESTIMACIÓN POR INTERVALO DE PARÁMETROS 115 3.1 Conceptos preliminares . . . . . . . . . . . . . . . . . . . . . . . . 116 3.2 El método de la variable pivote . . . . . . . . . . . . . . . . . . . 117 3.3 Estimación de promedios, bajo Normalidad . . . . . . . . . . . . 124 3.3.1 Intervalos confidenciales para el promedio de una población124 3.3.2 Estimación de la proporción poblacional . . . . . . . . . . 127 3.3.3 Intervalo confidencial para la diferencia de promedios basa- do una muestra pareada . . . . . . . . . . . . . . . . . . . 128 3.3.4 Intervalos confidenciales para la diferencia de promedios en poblaciones independientes . . . . . . . . . . . . . . . . 129 3.4 Estimación de varianzas, bajo Normalidad . . . . . . . . . . . . . 131 3.4.1 Intervalos confidenciales para la varianza de una población 131 3.4.2 Intervalos confidenciales para el cociente de varianzas de dos poblaciones independientes . . . . . . . . . . . . . . . 134 3.5 Ejemplos numéricos de aplicación . . . . . . . . . . . . . . . . . . 137 3.6 Tamaño de la muestra simple bajo Normalidad . . . . . . . . . . 139 3.7 Estimación Bayesiana por intervalo . . . . . . . . . . . . . . . . . 140 3.8 Demostración de los teoremas del caṕıtulo . . . . . . . . . . . . . 142 3.9 Ejercicios del caṕıtulo . . . . . . . . . . . . . . . . . . . . . . . . 144 4 JUZGAMIENTO DE HIPÓTESIS 147 4.1 Elementos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . 148 4.2 Tests más potentes . . . . . . . . . . . . . . . . . . . . . . . . . . 158 4.3 Juzgamiento de hipótesis sobre promedios, bajo Normalidad . . . 172 4.3.1 Juzgamiento de la hipótesis nula H0 : μ = μ0 . . . . . . . 172 4.3.2 Juzgamiento de la hipótesis nula H0 : μ1 − μ2 = δ0 . . . . 180 4.4 Juzgamiento de hipótesis sobre varianzas, bajo Normalidad . . . 189 4.4.1 Juzgamiento de la hipótesis nula H0 : σ2 = σ20 . . . . . . . 189 4.4.2 Juzgamiento de homoscedasticidad . . . . . . . . . . . . . 191 4.5 Juzgamiento de proporciones . . . . . . . . . . . . . . . . . . . . 193 4.6 Ejemplos numéricos de aplicación . . . . . . . . . . . . . . . . . . 196 4.7 Tamaño de la muestra . . . . . . . . . . . . . . . . . . . . . . . . 198 4.8 Juzgamiento secuencial . . . . . . . . . . . . . . . . . . . . . . . . 200 4.9 Juzgamiento del ajuste . . . . . . . . . . . . . . . . . . . . . . . . 208 4.9.1 Juzgamiento del ajuste por el método de Pearson . . . . . 209 4.9.2 Juzgamiento del ajuste por el método de Kolmogorov- Smirnov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 4.10 Demostración de los teoremas del caṕıtulo . . . . . . . . . . . . . 218 4.11 Ejercicios del caṕıtulo . . . . . . . . . . . . . . . . . . . . . . . . 223 Prólogo La escritura de este libro siempre estuvo animada por el deseo obstinado de secundar el trabajo que realiza el estudiante tanto en el salón de clase como fuera de él; pues entiendo que en definitiva es el estudiante quien aprehende los conceptos como fruto de sus quehaceres académicos, conceptos inducidos más por sus dudas, por sus dificultades y por algunas contradicciones con algunos de sus preconceptos, que por alguna exposición frente al tablero. En mi criterio, el profesor como acompañante en la formación profesional, se convierte solamente en orientador, animador y cŕıtico. Con ese esṕıritu quise que este libro se constituyese en una juiciosa pre- paración de clase de la asignatura Inferencia Estad́ıstica, preparación que ha acopiado las memorias de cada una de las oportunidades en las cuales fui el el encargado del curso a través de mis años como docente en la Universidad Nacional de Colombia. De ese acopio es profuso lo desechado y lo corregido, pues las preguntas de los estudiantes confundidos, las preguntas inteligentes y las respuestas sobresalientes como las equivocadas en las evaluaciones, generalmente sucitaron la reflexión sobre las formas y contenidos de los guiones de la clase. No pretendo publicar un texto mas, pues los hay de una calidad inmejorable, algunos clásicos cuya consulta es obligada, otros de reciente edición que han in- corporado nuevos desarrollos conceptuales. Pretende el texto apoyar el trabajo académico que se realiza en el curso, especialmente con el propósito de opti- mizar el tiempo y la calidad de la exposición de los temas, dando paso a la uti- lización del tablero acompañado de la tecnoloǵıa audiovisual como posibilidad para profundizar algunos de los temas y como medio para tratar las pregun- tas e inquietudes estudiantiles y no como instrumento transcriptor de frases y gráficas. En este libro expreso mis apreciaciones personales semánticas y conceptuales promovidas por la concepción que tengo sobre la Estad́ıstica y particularmente sobre la Inferencia estad́ıstica, concepción que he madurado y he hecho propia, a partir de las reflexiones con profesores del Departamento de Estad́ıstica, a partir de discusiones informales y dentro de eventos académicos. Su contenido y organización responden a la forma tradicional como he realizado el curso, a las limitaciones de un semestre académico para su desarrollo y a los requisitos curriculares exigidos a los estudiantes que lo cursan. Fue la circunstancia de mi año sabático, disfrutado durante el año 2002, la que hizo posible la redacción y digitación de este texto, pues fueron múltiples iii iv PRÓLOGO las ocasiones fallidas de organizar en un libro el material de la clase, debido a las ocupaciones derivadas de mis compromisos académicos, administrativos y de servicios de asesoŕıa estad́ıstica que la Universidad me encargó llevar a cabo. Finalmente, creó que debo agradecer tanto a mis alumnos pues ellos son el motivo para organizar las ideas que presento entorno a la Inferencia estad́ıstica, como a la Universidad Nacional de Colombia que aceptó como plan de activi- dadesde mi año sabático, la elaboración de este texto. Introducción Este texto ha sido concebido para ser fundamentalmente un texto gúıa en el desarrollo de la asignatura Inferencia Estad́ıstica, que cursan tanto los es- tudiantes del pregrado en Estad́ıstica como los estudiantes de la Carrera de Matemáticas. Puede apoyar igualmente algunos temas de la asignatura Es- tad́ıstica Matemática de la Maestŕıa en Estad́ıstica. El requisito natural e in- mediato para abordar los temas de cada uno de los caṕıtulos del libro, es un curso de Probabilidad, y por supuesto los cursos de Cálculo. Consta de cua- tro caṕıtulos que pueden desarrollarse durante un semestre académico con seis horas semanales de clase tradicional. He adaptado traducciones de uso corriente en los textos de Estad́ıstica a formas y términos con un mejor manejo del idioma y que semánticamente co- rrespondan con mayor fidelidad al concepto que denominan. Igualmente hago precisión sobre algunas expresiones usuales para mayor claridad conceptual. Cada caṕıtulo está estructurado en tres partes: exposición de los temas, demostraciones de los teoremas y la relación de los ejercicios correspondientes. Esto no significa que el manejo del texto deba llevarse en el orden mencionado. He querido organizarlo aśı, con el objeto de que la presentación de los temas exhiba una forma continua y que las demostraciones y los ejercicios tengan su sitio especial propio. Los ejercicios no están ordenados ni por su complejidad, ni por el tema tratado, para no encasillarlos. El estudiante se acerca a un ejercicio con información y trabajo previos, y es con su organización de ideas y búsqueda de caminos que debe evaluar si con los elementos estudiados hasta un cierto punto le es posible abordar el ejercicio particular; sin embargo, el profesor puede sugerir la realización de alguno o algunos ejercicios cuando haya culminado un tema o parte de él. El primer caṕıtulo como fundamento del texto, ubica sintéticamente a la Inferencia Estad́ıstica dentro del problema filosófico secular de la inducción. Retoma el tema de la convergencia de sucesiones de variables aleatorias, y ex- pone las ideas preliminares de la Inferencia Estad́ıstica. El segundo caṕıtulo presenta los métodos corrientes de construcción de estimadores y los criterios para examinar las estad́ısticas en su calidad de estimadores. En el tercer caṕıtulo se presenta el método de la variable pivote para cons- truir intervalos confidenciales y se hace algún énfasis en los intervalos confiden- ciales bajo Normalidad. En el cuarto caṕıtulo se adopta la expresión juzgamien- to de hipótesis a cambio de prueba, docimasia o cotejo, porque esta acepción v vi INTRODUCCIÓN está más cerca del sentido de la toma de decisiones estad́ısticas e igualmente se da un espacio importante en el juzgamiento de hipótesis bajo Normalidad. Caṕıtulo 1 DISTRIBUCIONES MUESTRALES “El conocimiento que tenemos del mundo está basado en la elaboración de un modelo de la realidad, modelo que puede cotejarse con la experiencia tan sólo de manera parcial y ocasionalmente... Este modelo se construye teniendo en cuenta la utilización que hacemos del mismo...” J. Bruner, “On cognitive growth” Antes de entrar en materia, es preciso destinar unos pocos párrafos para introducir un bosquejo del contexto en el cual la Inferencia estad́ıstica puede ubicarse, más como exposición de ideas generales que el pretender una disquisi- ción filosófica al respecto. Ese contexto está contenido dentro de un problema más general de carácter epistemológico, que el lector puede profundizar con las copiosas publicaciones sobre el tema. Posteriormente, por tratarse de uno de los fundamentos sobre el cual la Inferencia Estad́ısitica erige algunos de sus conceptos, se incluye la sección 1.3 a manera de un extracto de la convergen- cia de sucesiones de variables aleatorias, tema integrante de un curso previo de Probabilidad, pero que se retoma por su carácter y por su utilidad próxima. 1.1 La Inferencia estad́ıstica, un soporte episte- mológico La inferencia inductiva, procedimiento que utiliza la lógica como una forma de generalizar a partir de hechos particulares o a partir de la observación de un número finito de casos, es uno de los temas que ha ocupado a filósofos y cient́ıficos de todos los tiempos, desde la época de Aristóteles, tres siglos antes de Cristo, hasta la actualidad. 1 2 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES Varios filósofos antiguos formados en el empirismo gnoseológico, convencidos de que la observación era la única fuente segura de conocimiento, fueron los primeros en proponer la inducción o inferencia inductiva como método lógico. Tempranamente la inducción se convierte en un tema de mucha controversia que aún se mantiene; si para Aristóteles, quien planteó inicialmente el procedimiento inductivo, la Ciencia es “conocimiento demostrativo”, por el contrario para Sexto Emṕırico, uno de los filósofos representantes del Escepticismo, la Ciencia es “comprensión segura, cierta e inmutable fundada en la razón”. Aśı, mientras Sexto Emṕırico rechaza la validez de la inducción, Filodemo de Gadara, filósofo seguidor del Epicuréısmo, defiende la inducción como método pertinente. Y la controversia, llamada el problema de la inducción o también conocida como el “problema de Hume”, reside precisamente en que mientras la inferencia deductiva avala la transferencia de la verdad de las premisas a la conclusión, es decir, a partir de premisas verdaderas todas deducción es cierta, a costa de no incorporar nada al contenido de las premisas, la inducción por su parte que va más allá de las premisas, por su carácter amplificador, puede dar lugar a conclusiones falsas; en pocas palabras la controversia se centra en la validez que puedan tener los razonamientos inductivos, puesto que las conclusiones por medio de la inducción no siempre serán verdaderas. Algunos pensadores medievales también se preocuparon de la inducción. El inglés Robert Grosseteste al utilizar para su trabajo cient́ıfico los métodos apli- cados por sus disćıpulos de Oxford en Óptica y Astronomı́a, reabre en la Edad Media el tema de la inducción; si bien varios filósofos de la época orientaron sus reflexiones hacia los métodos inductivos, los ensayos y trabajos de Francis Bacon inspirados en la reorganización de las ciencias naturales, constituyeron el apogeo del método inductivo. No obstante, para Hume las leyes cient́ıficas no tienen carácter universal, es decir son válidas únicamente cuando la experiencia ha mostrado su certidumbre y tampoco tiene la función de la previsibilidad. Popper, filósofo de la Ciencia, conocido por su teoŕıa del método cient́ıfico y por su cŕıtica al determinismo histórico, en el mismo sentido de Hume, afirma que no puede existir ningún razonamiento válido a partir de enunciados singulares a leyes universales o a teoŕıas cient́ıficas. Mas recientemente, Bertrand Russell mantiene la posición de Hume de la invalidez de la inducción, pero considera que ella es el camino para incrementar la probabilidad, como grado racional de creencia, de las generaliza- ciones. La conocida Ley débil de los grandes números incluida en la cuarta parte del trabajo más sobresaliente de Jacob Bernoulli, Ars Conjectandi, publicado después de su muerte en el año 1713, y el también conocido teorema de Bayes publicado cincuenta años más tarde, trajeron nuevos elementos en la discusión al constituirse en argumentos matemáticos que sustentan la posibilidad de inferir probabilidades desconocidas a partir de frecuencias relativas. Sin embargo para Popper, sustituir la exigencia de verdad por la validez probabiĺıstica para las inferencias inductivas no lo hace un procedimiento leǵıtimo. Durante las primeras décadas del siglo pasado, a ráız de los importantes avances de la Ciencia ocurridos a finales del siglo XIX y a principios del siglo1.1. LA INFERENCIA ESTADÍSTICA, UN SOPORTE EPISTEMOLÓGICO 3 XX, avances que no pod́ıan pasar desapercibidos para los pensadores, obligaron a los filósofos a revisar muchas de las ideas de los clásicos y es aśı como un grupo de hombres de ciencia, matemáticos y filósofos, se organizan en 1922 en torno al f́ısico Moritz Schlick, profesor de filosof́ıa de la ciencia de la Universidad de Viena, convirtiéndose en un movimiento filosófico internacional, principal pro- motor del positivismo lógico, (también llamado neopositivismo, neoempirismo o empirismo lógico), movimiento conocido como Cı́rculo de Viena, conformado entre otros, además de Schlick, por Hahn, Frank, Neurath, Kraft, Feigl, Wais- mann, Gödel, y Carnap; Einstein, Russell y Wittgenstein eran considerados como miembros honoŕıficos y Ramsey y Reinchenbach como miembros simpati- zantes del mismo. Este movimiento filosófico se dedicó a muchos y variados temas de la Filosof́ıa de la Ciencia, y por supuesto al problema de la inducción. En śıntesis se puede afirmar que el hilo conductor de las ideas del Cı́rculo de Viena fue la defensa de una visión cient́ıfica del mundo a través de una ciencia unificada ligado al empleo del análisis lógico en el sentido de Russell. Pero respecto al tema de la inducción, el Cı́rculo no cerró la discusión; concre- tamente para Popper y sus seguidores, la escuela del refutacionismo, el método cient́ıfico no utiliza razonamientos inductivos, sino razonamientos hipotético- deductivos, aśı se acopien datos y hechos particulares dentro del procedimiento de evaluación de una hipótesis que dan paso a una conclusión de carácter general, no existe como tal un razonamiento inductivo. Para el refutacionismo la ciencia se concibe como una sucesión de conjeturas y refutaciones: se proponen conje- turas para explicar los hechos, que luego serán refutadas para promover nuevas conjeturas. En śıntesis, para Popper y su escuela, ninguna teoŕıa cient́ıfica puede establecerse en forma concluyente. Sin embargo, para Feyerabend y Kuhn, en otro momento de gran contro- versia en este tema, las décadas del 60 y 70, la práctica cient́ıfica no está en correspondencia con este proceder racional ni tampoco puede lograrlo, porque en gran medida existen supuestos relativos a la objetividad, a la verdad, al papel de la evidencia y a la invariabilidad semántica. Para Feyerabend, no existen, principios universables de racionalidad cient́ıfica; el crecimiento del conocimien- to es siempre espećıfico y diferente como tampoco sigue un camino de antemano fijado. Dentro de esta controversia, a la Inferencia estad́ıstica no se le ha eximido del problema de la inducción. Ronald Fisher, considerado por muchos el padre de la Estad́ıstica, defendió el papel inductivo que conlleva el juzgamiento de hipótesis 1. Sin embargo un sector de cient́ıficos y filósofos consideran que tanto la estimación de parámetros como el juzgamiento de hipótesis tienen dirección inductiva pero el razonamiento o inferencia que se lleva a cabo es de carácter deductivo. En fin, la Historia y la Filosof́ıa de la Ciencia tuvieron un enorme auge a lo largo del siglo pasado, continúan acopiando y estructurando reflexiones y argumentos sobre la inducción, pero al no ser el propósito de esta sección tratar 1La denominación juzgamiento de hipótesis será justificada en el caṕıtulo 4. 4 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES el proceso lógico de la inducción desde el punto de vista filosófico, ni tampoco pretender su recuento histórico, ni mucho menos asumir una posición respecto a ella, se omiten nombres de muy destacados pensadores contemporáneos. Lo que realmente motiva incluir los párrafos anteriores es poner de manifiesto de manera muy concisa el hecho de que el problema de la inducción es un problema filosófico vigente con 23 siglos de existencia al cual generaciones de filósofos y cient́ıficos se han dedicado. Y más allá del debate epistemológico y metaf́ısico contermporáneo dentro de la Filosof́ıa de la Ciencia, es cierto que gran parte de la Ciencia actual frente a una naturaleza entrelazada de azar concomitante con una variabilidad inher- ente, reconoce de una u otra manera que el ensanche de su cuerpo conceptual requiere de la participación impresindible de la Estad́ıstica. Mucho antes de la omnipresencia del computador, de los avances vertiginosos de la teoŕıa y métodos estad́ısticos de los últimos tiempos, Hempel en 1964 en su libro, As- pectos de la explicación cient́ıfica, se refeŕıa a los dos modelos de explicación de tipo estad́ıstico:“el modelo estad́ıstico deductivo, en el que las regularidades estad́ısticas son deducidas de otras leyes estad́ısticas más amplias, y el modelo estad́ıstico inductivo, en el que los hechos singulares se explican subsumiéndolos bajo leyes estad́ısticas”. En esta dirección cuando en los quehaceres cient́ıficos, tecnológicos o ad- ministrativos se recurre a la Estad́ıstica para organizar y orientar sus procesos y métodos, como de igual manera cuando se recurre a ella para apoyar argu- mentos y decisiones, ese recurso suele convertirse, desde uno de los puntos de vista, en un proceso de inducción espećıficamente en un proceso que puede ser clasificado como de inducción amplificadora, de manera análoga a como Francis Bacon vio en la inducción el procedimiento escencial del método experimental, o convertirse en una serie de actividades ligadas a un procedimiento propio de la ciencia o la tecnoloǵıa , en un procedimiento hipotético-deductivo, como lo entiende la escuela propperiana. Para cualquiera de los dos puntos de vista que se asuma, la Estad́ıstica brinda un respaldo exclusivo en la inferencia. 1.2 Preliminares en la Inferencia estad́ıstica Dentro del contexto del parágrafo anterior, cabe formularse varias preguntas; la primera de ellas: ¿Cuál es el objeto para el cual son válidos los enunciados generales producto de la inducción, de la decisión o la estimación que realiza una aplicación estad́ıstica?. Paralelamente tiene lugar la segunda pregunta: ¿Cuáles son las unidades que permiten obtener la información de casos particulares como punto inicial en el citado proceso?. Y la tercera pregunta, que interroga sobre la calidad del proceso de inferencia estad́ıstica: ¿Cuáles son los principios que rigen este proceso tan particular de inferencia?. La primera pregunta indaga por el conjunto de todos los elementos que en un determinado momento son del interés de un investigador, de un gestor o de un tomador de decisiones. Elementos que son diferentes entre śı pero que tienen una o varias caracteŕısticas comunes que los hacen miembros del 1.2. PRELIMINARES EN LA INFERENCIA ESTADÍSTICA 5 conjunto en consideración. Al respecto en algunas disciplinas cient́ıficas esas caracteŕısticas comunes son denominadas criterios de inclusión, complementados con los criterios de exclusión, para definir concisamente la pertenencia de un elemento al conjunto y para precisar igualmente la pérdida de la calidad de pertenencia del elemento. Para referirse a ese conjunto mencionado anteriormente el lenguaje corriente de la Estad́ıstica utiliza el término población ; ese agregado o colección de las unidades de interés es en últimas el objeto receptor del producto del proceso de inducción, de la decisión o de la estimación. La segunda pregunta parece confundirse con la primera. Si bien es cier- to que la pregunta se refiere a esas entidades que corresponden a los hechos particulares, a los casos singulares, a ese conjunto finito de casos, que son examinados durante la primera etapa de la inferencia, la reunión de todas las unidades posibles, constituye ese conjunto que se ha llamado población. Pero su estricta determinación radica en que cada una de esas unidades será, en sentido metafórico, un interlocutor con el investigador. Interlocutor, porque la inves- tigación puede entenderse, de manera análoga, como un proceso comunicativo:el investigador pregunta, la naturaleza responde. Esas unidades pueden ser de- notadas como unidades estad́ısticas, de manera genérica para subsumir en esa denominación, otras como unidad experimental, unidad de análisis, sujeto, caso, entre otras. Como en casi todas las oportunidades, de hecho no existe la posibilidad de “dialogar”con todas y cada una de las unidades estad́ısticas, debido a impera- tivos que lo impiden, asociados a varios aspectos. Por ejemplo, cuando el tamaño de la población, es decir, el cardinal del conjunto que reúne a todas las unidades estad́ısticas, es ingente; o también cuando la respuesta de la unidad implica su desnaturalización o deterioro; igualmente cuando ese “diálogo”es oneroso, o cuando los resultados de la investigación se requieren con apremio. A ese subconjunto de unidades que un párrafo anterior se refeŕıa como el conjunto finito de casos que son examinados durante la primera etapa del pro- ceso de inferencia, circunscrito al subconjunto de unidades estad́ısticas elegidas por medio de procedimientos estad́ısticos formales, por supuesto, se le designa corrientemente como muestra . A diferencia de las dos preguntas anteriores, cuyas respuestas son en últimas acuerdos semánticos, la tercera es una pregunta fundamental que requiere respuestas a partir de elaboraciones conceptuales, repuestas que se darán gradualmente con el desarrollo de los caṕıtulos objeto de este texto; pero pre- viamente de una manera sucinta se esboza el fundamento de las respuestas. La Estad́ıstica facultada para sustentar y conducir procesos de inducción, de- cisión y estimación muy caracteŕısticos, cuenta con la inferencia estad́ıstica como la fuente conceptual que nutre, avala y licencia la estructura y funcionamiento de métodos y procedimientos estad́ısticos. Para el desarrollo de cada una de sus dos componentes, relativos a la estimación de parámetros y el juzgamiento de hipótesis, la inferencia estad́ıstica tiene como punto de partida la referen- cia o el establecimiento de modelos para representar variables observables o no observables, modelos que pueden ser expĺıcitos o generales. 6 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES Semánticamente el vocablo modelo responde a varias acepciones, particu- larmente dentro del lenguaje cient́ıfico y tecnológico. Sin embargo el sentido que la Estad́ıstica le confiere al término, es el de consistir en una traducción de un aspecto de la realidad a un lenguaje simbólico, como uno de los recursos para representar de manera simplificada su comportamiento, que habilite pro- cesos de generalización, que incluya sus aspectos fundamentales, que facilite su descripción o permita la toma de decisiones. La factibilidad de representar variables muy diśımiles asociadas con fenóme- nos de distintos campos del saber a través de un mismo modelo de probabilidad, permite a la Inferencia estad́ıstica detenerse en el modelo mismo para conver- tirlo en su objeto de estudio. A partir de su estructura, de las expresiones matemáticas asociada a su naturaleza y con ellas de la presencia y papel que desempeñan los parámetros, se construyen y evalúan posibles estimadores de es- tos últimos, y de igual manera se derivan y evalúan procedimientos que permitan juzgar afirmaciones sobre el modelo. En consecuencia, los principios que avalan procesos de carácter estad́ıstico, tratados por la Inferencia estad́ıstica y motivo de la tercera pregunta, consisten en métodos y criterios relacionados tanto con la construcción de estimadores y test como con el examen de la aptitud e idoneidad de los mismos, y que tal como se anunció, la descripción y el desarrollo de los citados principios son en definitiva el contenido mismo de este texto. Definición 1.2.1. Una muestra aleatoria es una sucesión finita de variables aleatorias independientes e idénticamente distribuidas X1, X2, . . . , Xn. De manera más general una sucesión de variables aleatorias X1, X2, . . . , inde- pendientes y con idéntica distribución, también se denomina muestra aleatoria. En el caso de una sucesión finita, el valor n recibe el nombre de tamaño de la muestra o tamaño muestral. La definción anterior revela que en el contexto estad́ıstico el término muestra presenta dos acepciones: la de ser un subconjunto de unidades estad́ısticas elegi- das por métodos estad́ısticos formales y la adjetivada como aleatoria expuesta en la definición anterior, ésta referida a una sucesión de variables aleatorias. Lo mismo le ocurre al término población: denota al conjunto completo de unidades estad́ısticas objeto de estudio y ahora se le concibe como una variable aleatoria, en el sentido que se expone seguidamente. El acceso al estudio de ese conjunto de unidades estad́ısticas, se lleva a cabo mediante el examen de las caracteŕısticas o respuestas de sus integrantes, interpretadas como variables; el discernimiento de la esencia ya no individual sino colectiva de las unidades es en suma el motivo de la investigación o estudio; por ello el comportamiento de las variables se convierte entonces en un elemento revelador de caracteŕısticas y propiedades que sustentan la descripción de la colectividad, las explicaciones o las decisiones a que haya lugar. El comportamiento real de una o varias variables es un comportamiento re- flejo de la naturaleza de la población, que no siempre es posible conocer. Por ello acudir a modelos de probabilidad para emular el comportamiento poblacional es un recurso leǵıtimo que reduce carencias, permite aprovechar las virtudes 1.2. PRELIMINARES EN LA INFERENCIA ESTADÍSTICA 7 propias del modelo y hace posible la utilización de un lenguaje universal, por supuesto sobre la base de una escogencia juiciosa del modelo. Entonces, un aspecto de las unidades estad́ısticas observado, medido o cuan- tificado en una variable, (o varios aspectos utilizando un vector para disponer las variables) se le abstrae como una variable aleatoria (o un vector aleatorio) que tiene asociado un modelo particular. Esta variable aleatoria que representa una variable en la población suele denominársele igualmente población. Bajo estas consideraciones la sucesión de variables aleatoriasX1, X2, . . . , Xn, de la definición anterior denominada muestra aleatoria además de ser un ele- mento del ámbito conceptual de la Teoŕıa Estad́ıstica, puede vincularse con la información espećıfica acopiada de un subconjunto de n unidades estad́ısticas de las cuales se dispone de los valores x1, x2, . . . , xn, correspondientes a una variable denotada por X . Dicho en otros términos el valor xi puede entenderse como una realización de la correspondiente variable aleatoriaXi, i = 1, 2, . . . , n, por eso es habitual encontrar recurrentemente la expresión “sea X1, X2, . . . , Xn una muestra aleatoria de una población con función de densidad...”. El contexto en el cual se encuentre el vocablo población, delimita la acepción en uso: un conjunto o una variable aleatoria. Definición 1.2.2. Se denomina Estad́ıstica a una variable aleatoria construida como una función de las variables aleatorias X1, X2, . . . , Xn que conforman una muestra aleatoria, función que no depende de parámetro al- guno constitutivo de la expresión algebraica que identifica al modelo asumido para representar una variable en la población, ni tampoco depende de constantes desconocidas, también llamados parámetros, que cuantifican rasgos generales en la población cuando no se asume un modelo espećıfico. Como el aspecto determinante en la naturaleza de una estad́ıstica es su no dependencia funcional de parámetros, se le resalta por medio del siguiente ejemplo. Ejemplo 1.2.1. Asumiendo el modelo Gaussiano para representar una variable en la población, y si X1, X2, . . . , Xn es una muestra aleatoria de la población aśı modelada, son estad́ısticas entre otras • X1 +X2 + · · · +Xn n = Xn • (X1 −Xn) 2 + (X2 −Xn)2 + · · · + (Xn −Xn)2 n− 1 = S 2 n • X1,n = min{X1, X2, . .. , Xn} Puesto que los parámetros μ y σ son las constantes caracteŕısticas del modelo Gaussiano, particularmente las dos siguientes variables aleatorias no son estad́ısticas n∑ i=1 ( Xi −Xn σ )2 n∑ i=1 (Xi − μ)2 n− 1 8 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES El contenido semántico que se les da en Estad́ıstica tanto al término estimar como al término estimación, para referirse a su acción o efecto, proviene de una de las acepciones corrientes que tiene el segundo vocablo. El significado en mención de: aprecio o valor que se da y en que se tasa o considera algo2, no sugiere un cálculo aproximado de un valor como equivocadamente se entiende, porque no hay referentes para calificar su aproximación, ni tampoco como un proceso adivinatorio; debe entenderse como la realización formal de un avalúo, es decir en llevar a cabo un proceso que exige de manera imprescindible el contar con información de ese algo del cual se quiere fijar su valor. Por lo tanto la calidad de la estimación, depende directamente de la calidad original y la cantidad de información que se posea. Consecuentemente una cantidad insuficiente de información genera estimaciones no fiables, como igualmente las genera una gran cantidad de información de calidad exigua. A manera de sinopsis, considerando simultáneamente tanto la cantidad de información como su calidad y utilizando el plano cartesiano para su repre- sentación, en la siguiente figura se adjetivan distintas circunstancias en calidad y cantidad de información que constituye el insumo en el proceso de estimación. Funesta Desechable Ideal Inadmisible A D M IS IB L E Calidad C an ti da d 100% 100% 0 Figura 1.1: Diagrama de calidad y cantidad de información La calidad de la información, de la cual este texto no se ocupa porque se pre- tenden propósitos de otro tipo, debe asegurarse a partir del diseño, construcción y calibración de instrumentos para el registro de la información, dentro de la organización y ejecución de las actividades de acopio de información y durante 2Diccionario de la Lengua Española. Real Academia Española. Vigésimasegunda edi- ción.2001 1.3. PRELIMINARES EN CONVERGENCIA DE VARIABLES ALEATORIAS 9 el proceso de almacenamiento y guarda de la información. Definición 1.2.3. Una estad́ıstica cuyas realizaciones son utilizadas para llevar a cabo estimaciones de los parámetros de un modelo probabiĺıstico se denomina estimador y a las citadas realizaciones o valores particulares se les conoce como estimaciones. Definición 1.2.4. El modelo probabiĺıstico que rige el comportamiento de una estad́ıstica o de un estimador se denomina distribución muestral de la respectiva estad́ıstica o del respectivo estimador. Algunos autores se refieren a la distribución de la variable aleatoria que rep- resenta a la población, como la distribución original de las observaciones , o modelo original y a la distribución muestral de una estad́ıstica como la distribu- ción reducida o modelo reducido. Definición 1.2.5. Sea X1, X2, . . . , Xn una muestra aleatoria de una población con momentos oridinarios y centrales μ′r y μr respectivamente. Los momentos muestrales, ordinarios y centrales de orden r, r = 1, 2, . . . , cumplen en la muestra funciones análogas a los momentos poblacionales μ′r y μr, y se denotan y definen como M ′r,n = 1 n n∑ i=1 Xri Mr,n = 1 n n∑ i=1 (Xi −Xn)r En particular cuando r = 1, primer momento ordinario muestral, M ′1,n = Xn, es llamado de manera más corriente, promedio muestral o promedio de la muestra. Se prefiere como varianza muestral en cambio del segundo mo- mento muestral, por razones que posteriormente se justificarán, a la expresión 1 n− 1 n∑ i=1 (Xi −Xn)2 1.3 Preliminares en convergencia de variables aleatorias Para aprestar los elementos que se requieren en el tema de Inferencia estad́ıstica, es preciso abordar de una manera suscinta los tipos de convergencia de variables aleatorias en razón a que posteriormente el crecimiento del tamaño de muestra permite derivar propiedades interesantes de algunas estad́ısticas, y por lo tanto el propósito de esta sección es presentar los tipos más corrientes de convergencia de variables aleatorias. Por medio de {Xn}, n = 1, 2, . . . , se describe una sucesión de variables aleatorias X1, X2, . . . , la cual es una sucesión de funciones medibles {Xn(w)} 10 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES definida en un espacio muestral Ω, y teniendo en cuenta que todas las variables aleatorias constituyentes de la sucesión están consideradas en el mismo espacio de probabilidad (Ω,A, P ). En primer lugar, siendo {Xn} una sucesión de variables aleatorias y c un número real, el conjunto {w|Xn(w) = c} ∈ A, de tal manera que P [ lim n→∞Xn = c ] = 1 esté siempre definido. Se dice que la sucesión de variables aleatorias {Xn} converge casi seguro a cero o converge a cero con probabilidad uno si: P [ lim n→∞Xn = 0 ] = 1 Además, si las variables aleatorias X1, X2, . . . , y la variable aleatoria particular X están definidas en el mismo espacio de probabilidad, se afirma que la sucesión de variables aleatorias {Xn} converge casi seguro a la variable aleatoria X, si la sucesión de variables aleatorias {Xn −X} converge casi seguro a cero, este tipo de convergencia también se conoce como convergencia fuerte y se simboliza como Xn a.s.−−→ X Ejemplo 1.3.1. Si el comportamiento probabiĺıstico de cada una de las variables aleatorias de la sucesión {Xn} se modela por medio de la distribu- ción de Bernoulli de manera que Xn ∼ Ber((12 )n), entonces Xn a.s.−−→ 0 En efecto, P [ lim n→∞Xn = 0 ] = 1 puesto que P [Xn = 0] = 1 − ( 1 2 )n. Como V [Xn] = ( 12)n [1 − ( 12)n], puede notarse el decrecimiento de la varianza en cuanto n se incrementa, es decir que Xn va perdiendo el carácter de variable aleatoria porque su varianza va tendiendo a cero, la variable va asumiendo rasgos de una constante. En segundo lugar, se dice que la sucesión de variables aleatorias {Xn} con- verge en probabilidad a la variable aleatoria X , hecho simbolizado como, Xn p−→ X si lim n→∞P [|Xn −X | < �] = 1, para � > 0. Para referirse a la convergencia en probabilidad también puede utilizarse convergencia estocástica, convergencia en medida o convergencia débil . 1.3. PRELIMINARES EN CONVERGENCIA DE VARIABLES ALEATORIAS 11 Un tercer tipo de convergencia se conoce como convergencia en momento de orden r . En este caso cada variable de la sucesión de variables aleatorias {Xn} y X poseen el momento ordinario de orden r. En estas circunstancias se afirma que la sucesión de variables aleatorias converge en momento de orden r a la variable aleatoria X, lo cual se representa como, Xn Lr−→ X si lim n→∞E [(|Xn −X |) r] = 0. Particularmente, si r = 1 suele decirse que la suce- sión de variables aleatorias {Xn} converge en valor esperado a la variable aleatoria X . Similarmente, cuando r = 2 la convergencia se conoce como convergencia en media cuadrática . Un cuarto y último tipo de convergencia de variables aleatorias se refiere a una sucesión de variables aleatorias {Xn}, cuya correspondiente sucesión de funciones de distribución F1(x), F2(x), . . . , es considerada. De esta manera la sucesión de variables aleatorias {Xn} converge en distribución a la variable aleatoria X , cuya función de distribución es F (x), hecho denotado: Xn d−→ X si lim n→∞Fn(x) = F (x) para todo x. Entre los diferentes tipos de convergencia existen relaciones que es necesario destacar. El siguiente teorema las reúne. Teorema 1.3.1. Estando las variables aleatorias X1, X2, . . . y la variable par- ticular X difinidas sobre el mismo espacio de probabilidad (Ω,A, P ), 1. Si {Xn} converge casi seguro a la variable aleatoria X con probabilidad 1, implica que {Xn} converge en probabilidad a la variable aleatoria X. 2. Si {Xn} converge en valor esperado a la variable aleatoria X, implica que {Xn} convergen en probabilidad a la variable aleatoriaX. 3. Si {Xn} converge en probabilidad a la variable aleatoria X implica que {Xn} converge en distribución a la variable aleatoria X. 4. Siendo r > s, la convergencia de una sucesión de variables aleatorias {Xn} en momento de orden r implica la convergencia de la sucesión en momento de orden s. De manera gráfica las relaciones que enuncia el teorema 1.3.1, se pueden recapitular en la figura 1.2 Teorema 1.3.2 (Teorema de Lévy). Considerando la variable aleatoria par- ticular X y la sucesión de variables aleatorias {Xn}, definidas sobre el mismo espacio de probabilidad, y siendo {φn(t)} la sucesión de funciones caracteŕısticas correspondientes a las variables de la sucesión {Xn}, Xn d−→ X si y sólo si lim n→∞φn(t) = φ(t) 12 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES Convergencia en valor esperado Convergencia casi segura Convergencia en probabilidad Convergencia en distribución Figura 1.2: Relaciones entre algunos tipos de convergencia de variables aleato- rias para t ∈ R y φ(t) función caracteŕıstica de la variable aleatoria X, continua en cero. Teorema 1.3.3 (Teorema de Lévy). - Versión para funciones genera- trices de momentos - Considerando la variable aleatoria particular X y la sucesión de variables aleatorias {Xn}, definidas sobre el mismo espacio de probabilidad, y siendo {Mn(t)} la sucesión de funciones generatrices de momen- tos correspondientes a las variables de la sucesión {Xn}, las cuales existen para t real en algún intervalo alrededor de cero, Xn d−→ X si y sólo si lim n→∞Mn(t) = M(t) para t real en algún intervalo alrededor de cero y M(t) función generatriz de momentos de la variable aleatoria X. Teorema 1.3.4. Sea {Xn} una sucesión de variables aleatorias. Xn p−→ c si y sólo si lim n→∞Fn(x) = F (x) siendo c una constante, Fn(x) la función de distribución de Xn y F (x) una función de distribución tal que F (x) = 0 para x < c y F (x) = 1 para x ≥ c. 1.4 Caracteŕısticas generales de algunas estad́ıs- ticas Los momentos muestrales, además de cumplir funciones análogas a los momen- tos poblacionales como se incorporó en la definición 1.2.5, son estad́ısticas de 1.4. CARACTERÍSTICAS GENERALES DE ALGUNAS ESTADÍSTICAS 13 uso frencuente que bajo la garant́ıa de la existencia de determinados momen- tos poblacionales, sus distribuciones muestrales poseen propiedades generales respecto a su posición y a su dispersión en la forma como el siguiente teorema lo indica. Teorema 1.4.1. Si X1, X2, . . . , Xn es una muestra aleatoria de una población representada por la variable aleatoria X con varianza σ2 y con momento ordi- nario μ′2r, r = 1, 2, . . . , entonces el valor esperado y la varianza del momento muestral ordinario son respectivamente: E[M ′r,n] = μ ′ r V [M ′r,n] = 1 n [ E[X2r] − (E[Xr])2] = 1 n [ μ′2r − (μ′r)2 ] Corolario 1.4.1.1. Bajo las hipótesis del teorema 1.4.1, E[Xn] = μ′1 = μ V [Xn] = σ2 n Teorema 1.4.2. Si X1, X2, . . . , Xn es una muestra aleatoria de una población con valor esperado, también llamado promedio poblacional, μ y varianza σ2, y existiendo además el momento central de orden cuatro μ4, entonces E[S2n] = E [ 1 n− 1 n∑ i=1 (Xi −Xn)2 ] = σ2 V [S2n] = 1 n ( μ4 − n− 3 n− 1σ 4 ) , n > 1 El tamaño de la muestra es un elemento substancial tanto para las disquisi- ciones en la teoŕıa de la estad́ıstica como para la utilización de la misma. La pregunta por su magnitud es quizá de las más inquietantes para el investigador en la búsqueda de respaldo a la confiabilidad de su investigación; el tamaño muestral es uno de los aspectos con los cuales se certifican o descalifican estu- dios, es en definitiva un punto obligado para dilucidar. La incidencia relevante del tamaño de la muestra en la distribución muestral de muchas estad́ısticas, gira alrededor del tema conocido como distribuciones asintóticas. En particular en la medida que se vaya incrementando el tamaño de la muestra, el promedio muestral adquiere unos rasgos propios que los siguientes teoremas describen. 14 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES Teorema 1.4.3 (Ley débil de los grandes números). Si X1, X2, . . . , Xn es una muestra aleatoria de una población con valor esperado μ y varianza σ2, entonces X1 +X2 + . . .+Xn n p−→ μ La nota de la demostración del teorema anterior, destaca el hecho de que P [−� < Xn − μ < �] ≥ 1 − δ para n entero mayor que σ2 δ�2 , � > 0, δ > 0; lo cual permite determinar la magnitud del tamaño muestral bajo prefijados requisitos. Esta cota para el tamaño de la muestra debe entenderse dentro del contexto de una población infinita y una muestra simple. Ejemplo 1.4.1. ¿Cuál debe ser el tamaño de la muestra para tener una probabilidad de 0.95 de que el promedio muestral no difiera en más de una cuarta parte de la desviación estándar de μ? En esta situación, � = 0.25σ, δ = 0.05, por lo tanto n > σ2 (0.25σ)20.05 = 320 Modificando parcialmente las condiciones del teorema 1.4.3 en el sentido de no hacer ninguna mención de la varianza σ2, es posible reiterar la convergen- cia en probabilidad del promedio de la muestra, como lo presenta el siguiente teorema. Teorema 1.4.4 (Teorema de Khintchine). SiX1, X2, . . . , Xn es una mues- tra aleatoria de una población con valor esperado μ entonces Xn p−→ μ De manera más general, la convergencia en probabilidad de los momentos muestrales ordinarios a los momentos poblacionales ordinarios está avalada por el siguiente teorema. Teorema 1.4.5. Si X1, X2, . . . , Xn es una muestra aleatoria de una población para la cual el momento central μ2r existe, entonces M ′r,n p−→ μ′r, r = 1, 2, . . . Para cerrar esta relación de teoremas que giran alrededor de la idea de la Ley débil de los grandes números, se incluye el siguiente teorema que puede entenderse como una generalización de la citada ley. 1.4. CARACTERÍSTICAS GENERALES DE ALGUNAS ESTADÍSTICAS 15 Teorema 1.4.6. Si X1, X2, . . . es una sucesión de variables aleatorias tales que E[Xi] = μi y V [Xi] = σ2i son finitos y ρ(Xi, Xj) = 0, i �= j, para i = 1, 2, . . . , entonces Xn − μn p−→ 0 siendo μn = 1 n n∑ i=1 μi La Ley fuerte de los grandes números es un conjunto de teoremas referentes a la convergencia casi segura de sucesiones de variables aleatorias. El teore- ma siguiente es el más divulgado de todos y fue enunciado originalmente por Kolmogorov. Teorema 1.4.7 (Ley fuerte de los grandes números). Si X1, X2, . . . , Xn es una muestra aleatoria de una población con valor esperado μ, entonces la sucesión {Xn − μ} converge casi seguro a cero. Teorema 1.4.8. Si X1, X2, . . . , Xn es una muestra aleatoria de una población con valor esperado μ y varianza σ2, entonces S2n a.s.−−→ σ2 y en consecuencia S2n p−→ σ2 Con la denominación de Teorema del Ĺımite Central debe entenderse más a un conjunto de teoremas concernientes a la convergencia en distribución de la suma de un número creciente de variables aleatorias al modelo Gaussiano, que a la más popular de sus versiones. Es un conjunto de teoremas fundamentales de la Estad́ıstica pues constituyen puntos de apoyo substanciales de la Inferencia estad́ıstica y de las aplicaciones. Bajo la citada denominación de teorema del ĺımite central se incluyen variantes como la versión original conocida como la ley de los errores, derivada de los trabajos de Gauss y Laplace sobre la teoŕıa de errores, que permitió el surgimiento de las versiones más antiguas referentes a variables con distribución de Bernoulli, debidas a De Moivre y Laplace en los siglos XVI y XVII, se in- cluyen las versiones de Lindeberg-Lévy y Lindeberg-Feller, que son consecuencia de un trabajo inciado por Chevyshev y Liapunov a finales del siglo XIX, trabajo encaminado a la búsqueda de una demostración rigurosa, se incluyen las ver- siones de Bikelis y aquellas adaptadas para los casos multivariados, y también se incluyen aquellas para el caso de variables dependientes. En particular la versión clásica o Teorema de Lindeberg-Lévy,la versión más difundida, corresponde al siguiente teorema, resultado al que llegaron de manera independiente J.W.Lindeberg y P.Lévy en la segunda década del siglo XX. Teorema 1.4.9 (Teorema del Ĺımite Central (Lindeberg-Lévy)). Si X1, X2, . . . , Xn es una muestra aleatoria de una población con valor esperado μ y varianza σ2 finitos, considerando la variable aleatoria Zn = Xn − μ σ√ n 16 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES entonces la sucesión de variables aleatorias {Zn} converge en distribución a una variable aleatoria con distribución Normal estándar. En pocas palabras, esta difundida versión determina que, √ n(Xn − μ) σ d−→ Z ∼ N(0, 1) El teorema del ĺımite central es la mejor justificación de la existencia del modelo Gaussiano y del énfasis que de él se hace reiteradamente. Por otra parte lo admirable del teorema radica en que no importa el modelo regente del comportamiento probabiĺıstico de la población, y en que la exigencia de finitud del valor esperado y la varianza es fácil satisfacerla en las aplicaciones. Para finalizar estas consideraciones acerca del teorema del ĺımite central se presenta una versión especial la cual corresponde al teorema de Lindeberg-Feller. Teorema 1.4.10 (Teorema del Ĺımite Central (Lindeberg-Feller)). Si X1, X2, . . . es una sucesión de variables aleatorias independientes con valor es- perado μi y varianza σ2i finitos, i = 1, 2, . . . y asumiendo que τ 2 n = n∑ i=1 σ2i → ∞ y además que max 1≤i≤n { σ2i τ2n } → 0 cuando n→ ∞, entonces n∑ i=1 (Xi − μi) τn d−→ Z ∼ N(0, 1) si y sólo si para cada � > 0, lim n→∞ 1 τ2n n∑ i=1 (∫ |x−μi|≥�τn (x − μi)2fi(x)dx ) = 0 siendo fi(x) la función de densidad de la variable aleatoria Xi, i = 1, 2, . . . Cuando el comportamiento de una población se asume regido por el modelo Gaussiano, se pueden deducir propiedades espećıficas adicionales para el promedio y varianza muestrales, propiedades que hacen expĺıcitas los siguientes teoremas. Teorema 1.4.11. Si X1, X2, . . . , Xn es una muestra aleatoria de una población con distribución Normal de valor esperado μ y varianza σ2, entonces Xn ∼ N ( μ, σ2 n ) Teorema 1.4.12. Si X1, X2, . . . , Xn es una sucesión de variables aleatorias independientes tales que Xi ∼ N(μi, σ2i ), entonces U = n∑ i=1 ( Xi − μi σi )2 ∼ χ2(n) 1.4. CARACTERÍSTICAS GENERALES DE ALGUNAS ESTADÍSTICAS 17 Corolario 1.4.12.1. Cuando la sucesión de variables aleatorias constituye una muestra aleatoria de una población con distribución Normal, de valor esperado μ y varianza σ2, U = n∑ i=1 ( Xi − μ σ )2 ∼ χ2(n) Teorema 1.4.13. Si X1, X2, . . . , Xn es una muestra aleatoria de una población con distribución Normal de valor esperado μ y varianza σ2, entonces las es- tad́ısticas Xn y S2n son dos variables aleatorias estad́ısticamente independientes. Teorema 1.4.14. Si X1, X2, . . . , Xn es una muestra aleatoria de una población Normal de valor esperado μ y varianza σ2, entonces n∑ i=1 (Xi −Xn)2 σ2 = (n− 1)S2n σ2 ∼ χ2(n− 1) Con supuestos menos taxativos, el promedio y la varianza muestrales pre- sentan un comportamiento muy particular. Los siguientes teoremas resaltan la marcada autonomı́a de las estad́ısticas Xn y S2n. Teorema 1.4.15. Si X1, X2, . . . , Xn es una muestra aleatoria de una población cuya función de densidad es simétrica, entonces cov(Xn, S2n) = 0 La expresión usual de la varianza muestral incluye el promedio de la muestra, es decir que la varianza podŕıa entenderse como función de éste. Sin embargo, su presencia en la expresión puede considerarse aparente puesto que la varianza de la muestra puede prescindir del promedio muestral en la forma como lo garantiza el siguiente teorema 3. Teorema 1.4.16. Si X1, X2, . . . , Xn es una muestra aleatoria de una población para la cual no se asume un modelo de probabilidad espećıfico, entonces S2n = 1 2n(n− 1) n∑ i=1 n∑ j=1 (Xi −Xj)2 En śıntesis, es claro que el promedio y varianza de la muestra son estad́ısticas tales que bajo el modelo Gaussiano son estad́ısticamente independientes, bajo un modelo de probabilidad cuya función de densidad es simétrica, las estad́ısticas no están correlacionadas, y en cualquier situación la varianza de la muestra no depende funcionalmente del promedio de la muestra. 3Jorge E. Ortiz P. Bolet́ın de Matemáticas. Volúmen VI No. 1 (1999), pp. 43-51 18 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES 1.5 Estad́ısticas de orden Una modalidad especial de estad́ısticas la integran las llamadas estad́ısticas de orden . Ellas desempeñan papeles importantes en algunas aplicaciones como en las Cartas de Control Estad́ıstico de la Calidad y como en el fundamento y manejo de algunos conceptos en Estad́ıstica no paramétrica. Además de estos y otros usos, las estad́ısticas de orden son particularmente los estimadores apropi- ados de parámetros que rigen el recorrido de la población, y aśı mismo son utilizadas en el juzgamiento de hipótesis referentes a estos parámetros. Por ser estimadores y sustentar reglas de decisión en poblaciones especiales es menester exponer algunos elementos y consideraciones acerca de su distribución. Definición 1.5.1. La k-ésima estad́ıstica de orden, k = 1, 2, . . . , n, correspondiente a una muestra aleatoria X1, X2, . . . , Xn, denotada por Xk,n, está definida de la siguiente manera Xk,n = min {{X1, X2, . . . , Xn} − {X1,n, X2,n, . . . , Xk−1,n}} siendo X1,n : mı́nimo de la muestra Xn,n : máximo de la muestra Al conjunto de estad́ısticas de orden X1,n, X2,n, . . . , Xn,n se le designa con el nombre de muestra aleatoria ordenada. A partir de las estad́ısticas de orden pueden definirse otras estad́ısticas como: • El rango muestral R = Xn,n −X1,n • El semirango muestral SR = X1,n +Xn,n 2 • La mediana muestral Me = ⎧⎪⎪⎪⎨⎪⎪⎪⎩ Xn+1 2 ,n , si n es impar Xn 2 ,n +Xn 2 +1,n 2 , si n es par • La función de distribución emṕırica o función de distribución muestral Fn(x) = 1 n n∑ i=1 I(−∞,x](xi) 1.5. ESTADÍSTICAS DE ORDEN 19 es decir, Fn(x) = ⎧⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎩ 0, si x < X1,n k n , si Xk,n ≤ x < Xk+1,n 1, si x ≥ Xn,n, k = 1, 2, . . . , n− 1 1.5.1 Distribución de las estad́ısticas de orden Las estad́ısticas heredan en menor o mayor medida los rasgos del modelo elegido para representar el comportamiento poblacional. Espećıficamente la distribu- ción muestral de las estad́ısticas de orden incluye de manera expĺıcita las fun- ciones de densidad y distribución de la población como lo registran los siguientes teoremas. Teorema 1.5.1. Siendo X1,n, X2,n, . . . , Xn,n las estad́ısticas de orden o la mues- tra ordenada de una población con función de distribución FX(x), entonces para k = 1, 2, . . . , n FXk,n(y) = n∑ j=k ( n j ) [FX(y)]j [1 − FX(y)]n−j Corolario 1.5.1.1. Para los casos especiales del mı́nimo y máximo de la mues- tra se tiene: FX1,n(y) = 1 − [1 − FX(y)]n FXn,n(y) = [FX(y)] n Teorema 1.5.2. Siendo X1, X2, . . . , Xn una muestra aleatoria de una población con función de distribución cont́ınua FX(x), la función de densidad de la k- ésima estad́ıstica de orden es fXk,n(y) = n! (k − 1)!(n− k)! [FX(y)] k−1[1 − FX(y)]n−kfX(y), k = 1, 2, . . . , n La función conjunta de densidad de la j-ésima estad́ıstica de orden y la k-ésima estad́ıstica de orden fXj,n,Xk,n(x, y) es c(n, j, k)[FX(x)]j−1[FX(y) − FX(x)]k−j−1[1 − FX(y)]n−kfX(y)fX(x)I(x,∞)(y) para 1 ≤ j < k ≤ n, con c(n, j, k) = n!/[(j− 1)!(k− j − 1)!(n− k)!]. La función conjunta de densidad de las estad́ısticas de orden es fX1,n,X2,n,... ,Xn,n(y1, y2, . . . , yn) = ⎧⎪⎨⎪⎩n! n i=1 fX(yi) y1 < y2 < · · · < yn 0 en otros casos 20 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES Ejemplo 1.5.1. SiendoX1, X2, . . . , Xn una muestra aleatoria de una población con distribución Uniforme en el intervalo (α, β), determinar la función de den- sidad de la k-ésima estad́ıstica de orden. fX(x) = 1 β − αI(α,β)(x) FX(x) = x− α β − αI(α,β)(x) + I[β,∞)(x) fXk,n(y) = n! (k − 1)!(n− k)! [ y − α β − α ]k−1[ 1 − y − α β − α ]n−k ( 1 β − αI(α,β)(y) ) = n! (k − 1)!(n− k)! ( 1 β − α )n (y − α)k−1(β − y)n−kI(α,β)(y) La distribución de la k-ésima estad́ıstica de orden es la de una variable aleatoria con distribución Beta en el intervalo (α, β) con parámetros k y (n−k+1) cuando la población es Uniforme en el intervalo (α, β). Nota. Una variable aletoria X con distribución Beta en el intervalo (0, 1) puede generar una variable aleatoria Y con distribución Beta en el intervalo (α, β) mediante la relación Y = α+ (β − α)X Teorema 1.5.3. Sea X1, X2, . . . , Xn, una muestra aleatoria de una población con función de distribución FX(x) continua. Para p fijo, si xp denota al único percentil 100p poblacional, entonces P [Xj,n < xp < Xk,n] = k−1∑ l=j ( n l ) pl(1 − p)n−l 1.5.2 Distribución del rango, semirango y mediana mues- trales Las estad́ısticas correspondientes al rango y semirango son funciones del máximo y mı́nimo muestrales, por lo tanto la determinación de su distribución parte de la consideración de la distribución conjunta de X1,n y Xn,n fX1,n,Xn,n(x, y) = n(n− 1) [FX(y) − FX(x)]n−2 fX(x)fX(y)I(x,∞)(y) Definidas las estad́ısticas: R = Xn,n −X1,n T = X1,n +Xn,n 2 1.5. ESTADÍSTICAS DE ORDEN 21 se considera la siguiente transformación x = t− r 2 y = t+ r 2 cuyo jacobiano es ∣∣∣∣∣∣∣ ∂x ∂r ∂x ∂t ∂y ∂r ∂y ∂t ∣∣∣∣∣∣∣ = ∣∣∣∣∣ 1 2 1 1 2 1 ∣∣∣∣∣ = 1 con lo cual fR,T (r, t) = n(n− 1) [ FX ( t+ r2 )− FX (t− r2)]n−2 fX (t− r2) fX (t− r2) En consecuencia, para r > 0, se tiene fR(r) = ∫ ∞ −∞ fR,T (r, t)dt fT (t) = ∫ ∞ −∞ fR,T (r, t)dr La distribución de la mediana está dependiendo del tamaño de la muestra. Si éste es entero impar, su distribución está totalmente determinada pues corresponde a la distribución de la estad́ıstica de orden n+12 . Para la situación en la cual n es par, la mediana es función de las estad́ısticas de orden Xn 2 ,n y Xn 2 +1,n . Aśı al tomar n = 2m, m = 1, 2, . . . fX n 2 ,n ,X n 2 +1,n (x, y) = fXm,n,Xm+1,n(x, y) = (2m)! [(m− 1)!]2 [FX(x)] m−1[1 − FX(x)]m−1fX(x)fX(y) con x < y. Considerando la transformación u = x+y2 , v = y, se tiene que f x+y 2 (u) = fU (u) = 2(2m)! [(m− 1)!]2 ∫ ∞ u [FX(2u− v)]m−1[1 − FX(v)]m−1fX(2u− v)fX(v)dv 1.5.3 Distribución de la función de distribución emṕırica La función de distribución emṕırica tiene varios usos especialmente en métodos y conceptos de la Estad́ıstica no paramétrica. Su gráfico se convierte en un indicativo de una primera aproximación al ajuste que brinda el modelo. Algunos aspectos de su distribución se presentan a continuación. P [ Fn(x) = k n ] = ( n k ) [FX(x)]k[1 − FX(x)]n−k donde k = 0, 1, 2, . . . , n. En efecto, denotando la variable aleatoria Zi = I(−∞,x](Xi) 22 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES luego Zi ∼ Ber(FX(x)), por lo tanto n∑ i=1 Zi ∼ Bin(n, FX(x)) y por consiguiente E[Fn(x)] = FX(x) V [Fn(x)] = FX(x)[1 − FX(x)] n Teorema 1.5.4. Siendo X1, X2, . . . , Xn una muestra aleatoria de una población con función de distribución FX(x), entonces Fn(x) P−→ FX(x) para un valor x dado. Teorema 1.5.5 (Teorema de Glivenko-Cantelli). SiX1, X2, . . . , Xn es una muestra aleatoria de una población con función de distribución FX(x), entonces Fn(x) converge uniformemente a FX(x), esto es, para cada � > 0, lim n→∞P [ sup −∞<x<∞ |Fn(x) − FX(x)| < � ] = 1 | x Fn(x) FX(x) Figura 1.3: Esquema de las funciones de distribución Fn(x) y FX(x) Teorema 1.5.6. Siendo X1, X2, . . . , Xn una muestra aleatoria de una población con función de distribución FX(x), la sucesión de variables aleatorias{ √ n[Fn(x) − FX(x)]√ FX(x)[1 − FX(x)] } converge en distribución a una variable aleatoria con distribución Normal estándar. 1.6. MOMENTOS DE ESTADÍSTICAS DE ORDEN 23 1.6 Momentos de estad́ısticas de orden Los teoremas 1.5.1 y 1.5.2 puntualizan respectivamente la función de distribu- ción y la función de densidad de la k-ésima estad́ıstica de orden. En principio, garantizada la existencia del momento de interés y determinada expĺıcitamente la función de distribución FX(x), podŕıa formalizarse el momento con base en las referidas funciones de distribución o de densidad. Sin embargo, su logro depende de la complejidad de la integración requerida para su cálculo, dado que algunas veces se alcanza únicamente por medio de integración numérica. A manera de ejemplo, considerando el comportamiento poblacional como in- diferente para cualquier valor del intervalo (0, 1), el valor esperado, la varianza y el momento de orden r de la estad́ıstica de orden k es factible determinarlos. Ejemplo 1.6.1. Siendo X1,n, X2,n, . . . , Xn,n es una muestra ordenada de una población con distribución Uniforme en el intervalo (0, 1) E[Xk,n] = k n+ 1 V [Xk,n] = k(n− k + 1) (n+ 2)(n+ 1)2 ρ(Xj,n, Xk,n) = [ j(n− k + 1) k(n− j + 1) ] 1 2 , j < k En efecto. En primer lugar, de manera general E[Xrk,n] = n! (k − 1)!(n− 1)! ∫ 1 0 xr+k−1(1 − x)n−kdx = n! (k − 1)!(n− 1)!β(r + k, n− k + 1) y utilizando la relación β(a, b) = Γ(a)Γ(b) Γ(a+ b) , entonces E[Xrk,n] = n! (k − 1)!(n− 1)! Γ(r + k)Γ(n− k + 1) Γ(r + k + n− k + 1) = n!(r + k − 1)! (r + n)!(k − 1)! , 1 ≤ k ≤ n particularmente, E[Xk,n] = n!k! (n+ 1)!(k − 1)! = k n+ 1 V [Xk,n] = E[X2k,n] − (E[Xk,n])2 E[X2k,n] = n!(k + 2 − 1)! (n+ 2)!(k − 1)! = k(k + 1) (n+ 1)(n+ 2) V [Xk,n] = k(k + 1) (n+ 1)(n+ 2) − k 2 (n+ 1)2 = k(n− k + 1) (n+ 2)(n+ 1)2 24 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES Por otra parte, denotándo E[Xj,n, Xk,n] = Δ, se tiene que Δ = n! (j − 1)!(k − j − 1)!(n− k)! ∫ 1 0 ∫ y 0 xjy(y − x)k−j−1(1 − y)n−kdxdy = n! (j − 1)!(k − j − 1)!(n− k)! ∫ 1 0 y(1 − y)n−k [∫ y 0 xj(y − x)k−j−1dx ] dy Realizando la sustitución v = x y Δ = n! (j − 1)!(k − j − 1)!(n− k)! ∫ 1 0 y(1 − y)n−k [ykβ(j + 1, k − j)] dy = n! (j − 1)!(k − j − 1)!(n− k)!β(1 + j, k − j)β(k + 2, n− k + 1) = j(k + 1) (n+ 1)(n+ 2) = E[Xj,n, Xk,n] con lo cual Cov(Xj,n, Xk,n) = j(k + 1) (n+ 1)(n+ 2) − jk (n+ 1)2 j < k ρ(Xj,n, Xk,n) = √ j(n− k + 1) k(n− j + 1) j < k por lo tanto, como caso especial, la correlación entre el mı́nimo y máximo de la muestra bajo comportamiento poblacional Uniforme en el intervalo (0, 1) es ρ(X1,n, Xn,n) = 1 n Como ya se mencionó, en algunos casos se requiere integración numérica para determinar momentos de una estad́ıstica de orden. Sin embargo es posible presentar expresiones que permiten aproximar el valor esperado y varianza de la k-ésima estad́ıstica de orden. El desarrollo de estas expresiones se basa en una expansión en serie de Taylor y en el hecho de que si X es una variable aleatoria con función de distribución FX(x) continua, la variable aleatoria Y = FX(X) tiene distribución Uniforme en (0, 1), entonces E[Xk,n] F−1X ( k n+ 1 ) V [Xk,n] k(n− k + 1) (n+ 1)2(n+ 2) { fX ( F−1X ( k n+1 ))}2 1.7. DEMOSTRACIÓN DE LOS TEOREMAS DEL CAPÍTULO 25 Finalmente se expone una breve alusión a la distribución asintótica de las es- tad́ısticas de orden. El estudio de la distribución asintótica de la k-ésima estad́ıstica de orden incluye dos casos a saber: el primero cuando n tiende a infinito y kn permanece fijo, el segundo cuando n tiende a infinito y k o n− k permanecen finitos. Para algunos efectos, el primer caso es de mayor interés; el teorema siguiente se adscribe a ese caso. Teorema 1.6.1. Sea X1, X2, . . . , Xn una muestra aleatoria de una población cuya función de distribución FX(x) es estrictamente monótona. Asumiendo que xp es el percentil 100p poblacional, es decir, FX(xp) = p, entonces la estad́ıstica de orden [np] + 1 tiene distribución asintótica Normal con valor esperado xp y varianza p(1−p)n[fX (xp)]2 . Particularmente, si p = 12 (mediana) y la población es Normal con valor esperado μ y varianza σ2 la mediana muestral tiene distribución Normal con valor esperado μ y varianza πσ 2 2n . Con este teorema relativo a la distribución asintótica de la k-ésima estad́ıstica de ordenconcluye la introducción a las ideas preliminares de la Inferencia es- tad́ıstica, presentación que además entreabre el contexto filosófico en el cual se desempeña, que describe las caracteŕısticas más relevantes de algunas es- tad́ısticas y registra como estad́ısticas especiales a las estad́ısticas de orden. Con esto se da paso a la exposición de los argumentos que sustentan las afirma- ciones de los enunciados de los teoremas relacionados y finalmente a la serie de ejercicios cuyo desarrollo complementará la reflexión sobre estos temas iniciales y será un componente más en la aprehensión de los conceptos expuestos en este primer caṕıtulo. 1.7 Demostración de los teoremas del caṕıtulo Demostración (Teorema 1.3.1). Algunos apartes de la demostración pueden consultarse en A first course in mathematical statistics, de G. Roussas, páginas 133 a 135 y en Basic probability theory de R. Ash, páginas 204 y 205. Demostración (Teorema 1.3.4). Suponiendo que Xn p−→ c, entonces para � > 0 lim n→∞P [|Xn − c| < �] = 1 = limn→∞P [c− � < Xn < c+ �] = lim n→∞ [Fn(c+ �) − Fn(c− �)] = lim n→∞ [Fn(c+ �)] − limn→∞ [Fn(c− �)] La imagen de cualquier función de distribución es un valor que pertenece al intervalo [0, 1], luego la única posibilidad para que la igualdad anterior se de es que lim n→∞Fn(c+ �) = 1 y limn→∞Fn(c− �) = 0 26 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES hecho revelador de que Fn(x) −→ F (x) siendo F (x) una función de distribución tal que F (x) = { 0 si x < c 1 si x ≥ c es decir que F (x) es la función de distribución de una constante c. Suponiendo ahora que Fn(x) −→ F (x) con F (x) = I[c,∞)(x), es decir que lim n→∞Fn(x) = F (x) entonces lim n→∞Fn(c− �) = 0 para � > 0 y limn→∞Fn(c+ �) = 1 luego lim n→∞ [Fn(c+ �) − Fn(c− �)] = 1 = limn→∞P [c− � < Xn < c+ �] = lim n→∞P [|Xn − c| < �] lo cual significa que Xn p−→ c. Demostración (Teorema 1.4.1). El valor esperado del momento ordinario de orden r puede determinarse mediante dos argumentos. En primer lugar, utilizando las propiedades del valor esperado se tiene que E[M ′r,n] = E [ 1 n n∑ i=1 Xri ] = 1 n n∑ i=1 E[Xri ], r = 1, 2, . . . En segundo lugar, como todas las variables aleatorias de la sucesión tienen la misma distribución, por constituir una muestra aleatoria, E[Xri ] = μ ′ r, para i = 1, 2, . . . , n, en consecuencia E[M ′r,n] = 1 n n∑ i=1 μ′r = 1 n (nμ′r) = μ ′ r De manera similar puede determinarse la varianza del momento ordinario de orden r. De las propiedades de la varianza, se puede afirmar que V [M ′r,n] = V [ 1 n n∑ i=1 Xri ] = 1 n2 V [ n∑ i=1 Xri ] , r = 1, 2, . . . y debido a que las variables aleatorias son independientes, pues constituyen una muestra aleatoria, lo son también las variables Xr1 , X r 2 , . . . , X r n, con lo cual V [M ′r,n] = 1 n2 n∑ i=1 V [Xri ] = 1 n2 n∑ i=1 [ E[X2ri ] − (E[Xri ])2 ] 1.7. DEMOSTRACIÓN DE LOS TEOREMAS DEL CAPÍTULO 27 y como las variables tienen distribución idéntica, V [M ′r,n] = 1 n2 n∑ i=1 ( μ′2r − (μ′r)2 ) = 1 n ( μ′2r − (μ′r)2 ) Demostración (Teorema 1.4.2). Para determinar el valor esperado de la varianza muestral, es necesario previamente verificar la identidad: n∑ i=1 (Xi − μ)2 = (n− 1)S2n + n(Xn − μ)2 El sumar y restar Xn es el punto de partida en la verificación de la identidad, de tal manera que n∑ i=1 (Xi − μ)2 = n∑ i=1 (Xi −Xn +Xn − μ)2 = n∑ i=1 [ (Xi −Xn) + (Xn − μ) ]2 Asimismo después de desarrollar el cuadrado indicado, n∑ i=1 (Xi − μ)2 = n∑ i=1 (Xi −Xn)2 + 2(Xn − μ) n∑ i=1 (Xi −Xn) + n(Xn − μ)2 = n∑ i=1 (Xi −Xn)2 + n(Xn − μ)2 porque n∑ i=1 (Xi −Xn) = n∑ i=1 Xi − nXn = nXn − nXn = 0, y por lo tanto n∑ i=1 (Xi − μ)2 = (n− 1)S2n + n(Xn − μ)2 Con el anterior recurso, E[S2n] = E [ 1 n− 1 n∑ i=1 (Xi − μ)2 − n n− 1(Xn − μ) 2 ] = 1 n− 1 [ n∑ i=1 E[(Xi − μ)2] − nE[(Xn − μ)2] ] como E[(Xi − μ)2] = V [Xi], E[(Xn − μ)2] = V [Xn] y teniendo en cuenta que todas las variables aleatorias de la sucesión tienen la misma distribución, E[S2n] = 1 n− 1 [ n∑ i=1 σ2 − n ( σ2 n )] = 1 n− 1[nσ 2 − σ2] = σ2 La demostración del segundo enunciado del teorema, es uno de los ejercicios de este caṕıtulo. 28 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES Demostración (Teorema 1.4.3). La herramienta procedente para sustentar el desarrollo de esta demostración será la desigualdad de Chevyshev, la cual asegura que si X es una variable aleatoria con valor esperado μX y varianza σ2X finita, P [|X − μX | < rσX ] ≥ 1 − 1 r2 para cada r > 0 Aplicando la desigualdad al caso especial de la variable aleatoria Xn, teniendo en cuenta que E[Xn] = μ y V [Xn] = σ2 n , como lo manifiesta el corolario 1.4.1.1, P [∣∣Xn − μ∣∣ < r σ√ n ] ≥ 1 − 1 r2 para cada r > 0 utilizando el reemplazo � = r σ√ n se tiene que � > 0 y P [ ∣∣Xn − μ∣∣ < �] ≥ 1 − σ2 n�2 de tal manera que lim n→∞P [ ∣∣Xn − μ∣∣ < �] ≥ lim n→∞ 1 − σ2 n�2 = 1 es decir que lim n→∞P [ ∣∣Xn − μ∣∣ < �] = 1 lo cual significa que Xn p−→ μ, como lo afirma la ley débil de los grandes números. Nota. La cota 1 − σ 2 n�2 crece en cuanto n crece. Si se fija la cota en 1 − δ, 0 < δ < 1, significa que existe un tamaño de muestra mı́nimo n, para el cual P [|Xn − μ| < �] ≥ 1 − δ. Dicho en otros términos 1 − σ2 n�2 > 1 − δ, es decir, P [−� < Xn − μ < �] ≥ 1 − δ, para n > σ 2 δ�2 Demostración (Teorema 1.4.4). Utilizando la función generatriz de momen- tos de la variable que representa a la población MX(t), o en su defecto la función caracteŕıstica φX(t), MXn(t) = E [ etXn ] = E [ exp ( t n X1 + t n X2 + · · · + t n Xn )] como las variables constituyen una muestra aleatoria, MXn(t) = n∏ i=1 E [ e t n Xi ] = n∏ i=1 E [ e t n X ] = [ MX ( t n )]n 1.7. DEMOSTRACIÓN DE LOS TEOREMAS DEL CAPÍTULO 29 entonces MXn(t) = [ 1 + μ 1! ( t n ) + 1 2! E[X2] ( t n )2 + · · · ]n lim n→∞MXn(t) = limn→∞ [ 1 + μt n + O ( t n )]n = eμt función generatriz que corresponde a la función generatriz de una constante μ. (O es el śımbolo “o pequeña”usado en el estudio de las series). Lo cual significa que Xn d−→ μ y con base en el teorema 1.3.4 se tiene que Xn p−→ μ Demostración (Teorema 1.4.5). Como la sucesión Xr1 , X r 2 , . . . , X r n confor- ma un conjunto de variables aleatorias independientes e idénticamente dis- tribuidas porque la sucesión X1, X2, . . . , Xn es una muestra aleatoria, entonces sólo resta aplicar el teorema relativo a la Ley débil de los grandes números uti- lizando la sucesión Xr1 , Xr2 , . . . , Xrn, con lo cual se puede concluir que 1 n n∑ i=1 [Xri ] p−→ E [Xr1 ] = μ′r Demostración (Teorema 1.4.7). Puede consultarse en Probability and Sta- tistical Inference de Robert Bartoszynski y Magdalena Niewiadomska-Bugaj (1996) en las páginas 430 a 431. Demostración (Teorema 1.4.9). La estrategia para la demostración consiste en el uso de la función generatriz de momentos y de sus propiedades, para lo cual se asume la existencia de la función generatriz de momentos de la población. Se apoya la demostración en el desarrollo en serie de McLaurin de la función generatriz de momentos, demostración que también se puede llevar a cabo, uti- lizando la función caracteŕıstica. Denotando como MZn(t) la función generatriz de momentos de la variable aleatoria Zn, se tiene: MZn(t) = E [ etZn ] = E [ exp (√ n ( Xn − μ ) σ t )] = E [ exp ( t n √ n n∑ i=1 Xi − μ σ )] = E [ n∏ i=1 exp ( t n √ n Xi − μ σ )] 30 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES como las variables de la sucesión X1, X2, . . . , Xn son variables aleatorias in- dependientes por tratarse de una muestra aleatoria, las variables Y1, Y2, . . . , Yn también lo son, siendo Yi = Xi−μσ , i = 1, 2, . . . , n y por lo tanto, MZn(t) = n∏ i=1 E [ exp ( t√ n Yi )] = n∏ i=1 MYi ( t√ n ) como las variables Y1, Y2, . . . , Yn tienen la misma distribución, con función generatriz de momentos MYi ( t√ n ) = MY ( t√ n ) , i = 1, 2, . . . , n, entonces MZn(t)= n∏ i=1 MY ( t√ n ) = [ MY ( t√ n )]n El desarrollo en serie de McLaurin de la función generatriz MY (t) evaluada en el valor t√ n es MY (t) = 1 + μ1 σ t√ n + 1 2! μ2 σ2 ( t√ n )2 + 1 3! μ3 σ3 ( t√ n )3 + · · · como el valor esperado es igual a cero, por lo tanto, si existen, μ′r = μr, r = 1, 2, . . . , y además la varianza es igual a uno, MY ( t√ n ) = 1 + 1 2! σ2 σ2 ( t√ n )2 + 1 3! μ3 σ3 ( t√ n )3 + · · · = 1 + 1 n [ 1 2! t2 + 1 3! √ n μ3t 3 + 1 4!n μ4t 4 + · · · ] efectuando el reemplazo Pn(t) = 12! t 2 + 1 3! √ n μ3t 3 + 14!nμ4t 4 + · · · y dado que MZn(t) = [ MY ( t√ n )]n , MZn(t) = [1 + Pn(t)] n lim n→∞MZn(t) = limn→∞ [1 + Pn(t)] n = exp ( lim n→∞Pn(t) ) = e 1 2 t 2 porque los coeficientes de t3, t4, . . . tienden a cero cuando n→ ∞. Además e 1 2 t 2 se reconoce como la función generatriz de momentos de una variable aleatoria con distribución Normal estándar. Como lim n→∞MZn(t) = MZ(t) = e 1 2 t 2 de acuerdo con el teorema de Lévy, Zn d−→ Z, Z ∼ N(0, 1). 1.7. DEMOSTRACIÓN DE LOS TEOREMAS DEL CAPÍTULO 31 Demostración (Teorema 1.4.10). Los elementos que se requieren para el de- sarrollo de la demostración de este teorema están más allá del alcance de este texto. Demostración (Teorema 1.4.11). Nuevamente se ha elegido a la función generatriz de momentos como medio para llevar a cabo esta demostración. Sien- do MX(t) = exp ( μt+ 1 2 σ2t2 ) la función generatriz de una variable aleatoria X, X ∼ N(μ, σ2), MXn(t) = E [ etXn ] = E [ exp ( t 1 n n∑ i=1 Xi )] = E [ n∏ i=1 exp t n Xi ] debido a la independencia de las variables que constituyen la muestra aleatoria, MXn(t) = n∏ i=1 E [ exp t n Xi ] = n∏ i=1 MXi ( t n ) Finalmente, como las citadas variables están identicamente distribuidas, de acuerdo al modelo Gaussiano, MXn(t) = n∏ i=1 MX ( t n ) = n∏ i=1 exp ( μ t n + 1 2 σ2 ( t n )2) = [ exp ( μ t n + 1 2 σ2 ( t n )2)]n = exp ( μt+ 1 2 σ2 n t2 ) lo cual significa que Xn ∼ N ( μ, σ 2 n ) Demostración (Teorema 1.4.12). La variable aleatoria Zi = Xi − μi σi , para i = 1, 2, . . . , n, es una variable aleatoria con distribución Normal estándar lo cual permite afirmar que Z2i ∼ χ2(1). Con el concurso de la función generatriz de momentos, puede establecerse que MU (t) = E [ etU ] = E [ e t n i=1 Z2i ] = E [ n∏ i=1 etZ 2 i ] 32 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES como la sucesión Z1, Z2, . . . , Zn es una sucesión de variables aleatorias inde- pendientes, MU (t) = n∏ i=1 E [ etZ 2 i ] = n∏ i=1 MZ2i (t) = n∏ i=1 ( 1 1 − 2t ) 1 2 = ( 1 1 − 2t )n 2 lo cual significa que U ∼ χ2(n). Demostración (Teorema 1.4.13). La demostración está orientada a la de- terminación de la independencia de Xn, (X1 − Xn), (X2, Xn), . . . , (Xn − Xn) para luego concluir la independencia entre Xn y n∑ i=1 (Xi −Xn)2. En primer lugar, la función generatriz de momentos M(t, t1, t2, . . . , tn) de las variables aleatorias Xn, (X1−Xn), (X2, Xn), . . . , (Xn−Xn), con c = ( 1√ 2πσ )n , es c ∫ Rn exp [ txn + t1(x1 − xn) + · · · + tn(xn − xn) − n∑ i=1 (xi − μ)2 2σ2 ] dx1 · · · dxn En segundo lugar, al considerar la integral sobre xi, i = 1, 2, . . . , n se tiene∫ ∞ −∞ 1√ 2πσ exp { [t+ nti − (t1 + t2 + · · · + tn)]xi n − (xi − μ) 2 2σ2 } dxi que al efectuar el reemplazo 1 n [ t+ nti − n∑ i=1 ti ] = 1 n [ t+ n(ti − t) ] con t = 1 n n∑ i=1 ti entonces la integral anterior puede expresarse como∫ ∞ −∞ 1√ 2πσ exp { 1 n [ t+ n(ti − t) ] xi − (xi − μ) 2 2σ2 } dxi cuyo valor es finalmente exp { μ n [ t+ n(ti − t) ] + σ2 [ t+ n(ti − t) ]2 2n2 } por consiguiente M(t, t1, t2, . . . , tn) = exp { n∑ i=1 { μ n [ t+ n(ti − t) ] + σ2 [ t+ n(ti − t) ]2 2n2 }} y como n∑ i=1 (ti − t) = 0, entonces M(t, t1, . . . , tn) = exp { μt+ σ2t2 2n + σ2 2 n∑ i=1 (ti − t)2 } = exp { μt+ 1 2 σ2 n t2 } exp { σ2 2 n∑ i=1 (ti − t)2 } 1.7. DEMOSTRACIÓN DE LOS TEOREMAS DEL CAPÍTULO 33 hecho que revela la independencia de Xn, (X1−Xn), (X2−Xn), . . . , (Xn−Xn). Por consiguiente Xn, (X1 −Xn)2, (X2 −Xn)2, . . . , (Xn −Xn)2 es un conjunto de variables aleatorias independientes e igualmente Xn y n∑ i=1 (Xi − Xn)2. En consecuencia Xn y S2n son estad́ısticamente independientes. Demostración (Teorema 1.4.14). De la demostración del teorema 1.4.2 se tiene que n∑ i=1 (Xi − μ)2 = n∑ i=1 (Xi −Xn)2 + n(Xn − μ)2 por lo tanto n∑ i=1 (Xi − μ)2 σ2 = n∑ i=1 (Xi −Xn)2 σ2 + n(Xn − μ)2 σ2 luego E ⎡⎢⎢⎣exp ⎡⎢⎢⎣t n∑ i=1 (Xi − μ)2 σ2 ⎤⎥⎥⎦ ⎤⎥⎥⎦ = E [exp [t (n− 1)S2nσ2 + tn(Xn − μ)2σ2 ]] = E [ exp [ t (n− 1)S2n σ2 ]] E [[ t n(Xn − μ)2 σ2 ]] puesto que Xn y S2n son estad́ısticamente independientes. Debido a que n∑ i=1 (Xi − μ)2 σ2 ∼ χ2(n) y n(Xn − μ) 2 σ2 ∼ χ2(1) entonces ( 1 1 − 2t )n 2 = E [ exp [ t (n− 1)S2n σ2 ]]( 1 1 − 2t ) 1 2 es decir E [ exp [ t (n− 1)S2n σ2 ]] = ( 1 1 − 2t )n−1 2 t < 1 2 dicho de otra manera n∑ i=1 (Xi −Xn)2 σ2 = (n− 1)S2n σ2 ∼ χ2(n− 1) 34 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES Demostración (Teorema 1.4.15). La demostración de este teorema se lle- vará a cabo mediante inducción matemática sobre el tamaño de muestra. Previamente a ella y con el fin de incluirlos en la demostración, es necesario aprestar tres elementos a saber: 1. Si X,Y son dos variables aleatorias independientes, cov(X,XY ) = E[Y ]V [X ] 2. Si la función de densidad de una variable aleatoria X es simétrica con respecto a E[X ], cov(X,X2) = 2E[X ]V [X ] 3. Y finalmente las relaciones Xn+1 = 1 n+ 1 ( nXn +Xn+1 ) nS2n+1 = (n− 1)S2n + n n+ 1 ( Xn+1 −Xn )2 En primer lugar, al ser X,Y independientes tambien lo son X2 y Y . Por ello cov(X,XY ) = E[X2Y ] − E[X ]E[XY ] = E[Y ]E[X2] − E[Y ](E[X ])2 es decir, cov(X,XY ) = E[Y ] [ E[X2] − (E[X ])2] = E[Y ]V [X ]. En segundo lugar, si la función de densidad es simétrica con respecto a E[X ] E [ (X − E[X ])3] = 0 = E [X3 − 3X2E[X ] + 3X (E[X ])2 − (E[X ])3] = E [ X3 ]− 3E [X2]E[X ] + 2 (E[X ])3 con lo cual E [ X3 ] = 3E [ X2 ] E[X ] − 2 (E[X ])3. cov(X,X2) = E [ X3 ]− E[X ]E[X2] = 3E[X2]E[X ] − 2 (E[X ])3 − E[X ]E[X2] = 2E[X ]E[X2] − 2 (E[X ])3 = 2E[X ] [ E[X2] − (E[X ])2] = 2E[X ]V [X ] Por último, Xn+1 = 1 n+ 1 n+1∑ i=1 Xi = 1 n+ 1 [ n∑ i=1 Xi +Xn+1 ] = 1 n+ 1 [ nXn +Xn+1 ] 1.7. DEMOSTRACIÓN DE LOS TEOREMAS DEL CAPÍTULO 35 nS2n+1 = n+1∑ i=1 ( Xi −Xn+1 )2 = n+1∑ i=1 ( Xi −Xn +Xn −Xn+1 )2 = n+1∑ i=1 [( Xi −Xn )2 + 2 ( Xn −Xn+1 ) ( Xi −Xn ) + ( Xn −Xn+1 )2] = (n− 1)S2n + ( Xn+1 −Xn )2 + 2 ( Xn −Xn+1 ) n∑ i=1 ( Xi −Xn ) + 2 ( Xn −Xn+1 ) ( Xn+1 −Xn ) + (n+ 1) ( Xn −Xn+1 )2 como n∑ i=1 ( Xi −Xn ) = 0, nS2n+1 = (n− 1)S2n + ( Xn+1 −Xn )2 + 2 ( Xn −Xn+1 ) ( Xn+1 −Xn ) + (n+ 1) ( Xn −Xn+1 )2 = (n− 1)S2n + ( Xn+1 −Xn )2 + ( Xn −Xn+1 ) [ 2Xn+1 + (n− 1)Xn − (n+ 1)Xn+1 ] realizando los reemplazos: (n+ 1)Xn+1 = nXn +Xn+1 y Xn −Xn+1 = 1 n+ 1 ( Xn −Xn+1 ) nS2n+1 = (n− 1)S2n + ( Xn+1 −Xn )2 + ( Xn −Xn+1 ) n+ 1 [ 2Xn+1 + (n− 1)Xn − ( nXn +Xn+1 )] = (n− 1)S2n + ( Xn+1 −Xn )2 − (Xn+1 −Xn) n+ 1 ( Xn+1 −Xn ) = (n− 1)S2n + n n+ 1 ( Xn+1 −Xn )2 Entrando en materia, teniendo en cuenta que E[Xi] = μ, V [Xi] = σ2, para i = 1, 2, . . . , n, al considerar una muestra de tamaño n = 2, S22 = 1 2 − 1 2∑ i=1 ( Xi −X2 )2 = (X1 −X2)2 2 36 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES cov ( X2, S 2 2 ) = cov ( X1 +X2 2 , (X1 −X2)2 2 ) = 1 4 cov ( X1 +X2, (X1 −X2)2 ) = 1 4 [ cov ( X1 +X2, X21 − 2X1X2 +X22 )] = 1 4 [ cov(X1, X21 ) − 2cov(X1, X1X2) + cov ( X1, X 2 2 )] + 1 4 [ cov(X2, X21 ) − 2cov(X2, X1X2) + cov ( X2, X 2 2 )] = 1 4 [2E[X1]V [X1] − 2E[X2]V [X1] − 2E[X1]V [X2] + 2E[X2]V [X2]] porque X1 tiene la misma distribución de X2 y además son variables indepen- dientes, cov ( X2, S 2 2 ) = 1 4 ( 2μσ2 − 2μσ2 − 2μσ2 + 2μσ2) = 0 Por hipótesis de inducción cov ( Xn, S 2 n ) = 0. Ahora para una muestra de tamaño n+ 1, cov ( Xn+1, S 2 n+1 ) = Δ Δ = cov
Compartir