Logo Studenta

Test Score de Rao para el Modelo de Solapamiento de Draper y Guttman

¡Este material tiene más páginas!

Vista previa del material en texto

Test Score de Rao para el Modelo de Solapamiento de Draper y Guttman
Autor:
Darghan Contreras Aquiles Enrique
Un Documento enviado al Programa de Doctorado en Estadística de la Facultad de Ciencias
Económicas y Sociales
como requisito �nal para obtener el grado de
Doctor en Estadística
Responsables:
Sinha Surendra Prasad, Profesor Tutor
Goitia Arnaldo, Profesor Cotutor
Universidad De Los Andes
Mérida, Venezuela
2010
Copyright c© Darghan Contreras Aquiles Enrique, 2010. Todos los Derechos Reservados.
ii
DEDICACIÓN
. . . a toda mi familia, mi querida esposa Ketty y mis dos hermosos hijos, Kelly y Kevin
iii
AGRADECIMIENTOS
En esta importante oportunidad me gustaría expresar mis agradecimientos a todos aquellos que me
ayudaron en varios aspectos relacionados con esta investigación, aunque tal vez en este escrito no pueda
ser posible magni�car lo que signi�có el apoyo especial de mi tutor, el Doctor Sinha, sería necesario
un documento aislado para reconocer su gran labor en mi formación desde mis inicios en la estadística
hasta la actualidad y seguramente en mi futuro. A su lado, el Doctor Goitia, mi co-tutor, siempre de
una manera acertada supo dirigir mi atención en los detalles matemáticos de manera concreta, casi de
modo impresionante encarriló mi labor para lograr menos dispersión y ser más e�ciente en el desarrollo
del trabajo. Ustedes dos son la piedra angular en mi formación estadística.
Fuera de lo académico, quiero agradecer a la familia Gutierrez, su apoyo en los momentos de mi
mayor esfuerzo permitieron dedicar mayor concentración a mi trabajo y no a la búsqueda de solventar
mis de�ciencias económicas . En este mismo sentido, la profesora Zulmary fue un gran apoyo, pues
me mantuvo siempre involucrado en actividades de postgrado sin obviamente descuidar mi objetivo,
no tienen idea cuanto les agradezco. También quiero reconocer el importante papel de los profesores
Francisco Gamboa y Marcos Cordero , así como a mi amigo de la juventud Oscar Perez, mi doctorado
coincidió con el de ellos y por ende, sus recursos de información documental me permitieron tener
material actualizado para el desarrollo de mi trabajo, gracias por todos los artículos enviados y por el
tiempo invertido en su búsqueda. Otros, como mis ex-alumnos, Pablo Rivero, quien revisó la traducción
al inglés de algunos artículos relativos a mi tesis y Francisco Bonilla, quien monitoreó de los cortos
ensayos utilizados en las aplicaciones prácticas del test desarrollado, no pueden pasar inadvertidos,
fueron esenciales en etapas claves de la investigación, gracias por involucrarse desinteresadamente en
este proyecto. Quiero dar un agradecimiento especial a Astrid, ella me introdujo al mundo Latex y
me enseñó a escribir mi primer documento, el cual sirvió de modelo para todo el trabajo realizado.
iv
Finalmente quisiera agradecer a las Señoras Lucy y Clemencia del IEAC, pues sus directrices por ser
amplias conocedoras de todos los aspectos relacionados con mi doctorado , señalaron apropiadamente
el camino a seguir en la consecución de cada una de las etapas de este proyecto.
v
Índice general
AGRADECIMIENTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii
LISTA DE TABLAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . viii
LISTA DE FIGURAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ix
RESUMEN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xi
ABSTRACT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xii
Capítulo1.. INTRODUCCIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1. PROBLEMA SUJETO A LA INVESTIGACIÓN . . . . . . . . . . . . . . . . . . . . . 1
1.2. JUSTIFICACIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. OBJETIVOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1. GENERALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2. ESPECÍFICOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
CAPÍTULO 2.. MARCO TEÓRICO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.1. La Noción de Experimento Aleatorio . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.2. La Noción del Modelo de Probabilidad . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.2.1. Conjunto de Resultados Finito . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2.2. Conjunto de Resultados Numerable . . . . . . . . . . . . . . . . . . . 15
2.1.2.3. Conjunto de Resultados No Numerable:Noción General de Variable
Aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.3. Del Espacio de Probabilidad al Modelo de Probabilidad . . . . . . . . . . . . . 19
2.1.4. La Noción de una Muestra Aleatoria . . . . . . . . . . . . . . . . . . . . . . . . 21
ÍNDICE GENERAL vi
2.1.4.1. n-Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.1.4.2. Algunos Otros Modelos de Probabilidad . . . . . . . . . . . . . . . . . 24
2.2. Estimación y Pruebas de Hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.2. Estimación: Propiedades Asintóticas de los Estimadores . . . . . . . . . . . . . 29
2.2.2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.2.2. Consistencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.2.3. Consistencia Fuerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.2.4. Normalidad Asintótica . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.3. Modelos Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.4. Métodos de Estimación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2.4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2.4.2. Estimación Mínimo-Cuadrática . . . . . . . . . . . . . . . . . . . . . . 38
2.2.4.3. La Función de Verosimilitud y La Estimación Máximo-Verosímil . . . 41
2.2.5. Función Score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2.5.1. La Media de la Función Score . . . . . . . . . . . . . . . . . . . . . . 46
2.2.5.2. La Varianza de la Función Score . . . . . . . . . . . . . . . . . . . . . 47
2.2.6. Pruebas de Hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.2.6.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.2.6.2. Enfoque de Neyman y Pearson . . . . . . . . . . . . . . . . . . . . . . 50
2.2.6.3. Características Óptimas de Un Test . . . . . . . . . . . . . . . . . . . 53
2.2.6.4. Métodos para encontrar Pruebas Óptimas . . . . . . . . . . . . . . . . 54
2.2.7. Procedimientos de Prueba Asintóticos . . . . . . . . . . . . . . . . . . . . . . . 56
2.2.7.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.2.7.2. Prueba Asintótica de la Razón de la Verosimilitud . . . . . . . . . . . 58
2.2.7.3. Test de Wald . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.3. Test Score de Rao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.3.1. Distribución del Estadístico Score de Rao . . . . . . . . . . . . . . . . . . . . . 62
ÍNDICE GENERAL vii
2.4. Solapamiento y el Modelo de Draper y Guttman . . . . . . . . . . . . . . . . . . . . . 64
2.4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.4.2. Imposición de Condiciones Laterales al Modelo de Draper y Guttman . . . . . 66
2.4.3. Reparametrización del Modelo de Draper y Guttman . . . . . . . . . .. . . . . 68
2.5. Metodología de Super�cies de Respuesta . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.5.1. El modelo de primer Orden. Diseño Factorial 2k . . . . . . . . . . . . . . . . . . 70
2.5.2. El modelo de Segundo Orden. Diseño de Box-Behnken . . . . . . . . . . . . . . 71
2.5.3. El modelo de Segundo Orden. Diseño Central Compuesto . . . . . . . . . . . . 73
CAPÍTULO 3.. MARCO METODOLÓGICO Y NUEVOS DESARROLLOS . . . . 74
3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.2. Test Score de Rao en el Modelo de Solapamiento . . . . . . . . . . . . . . . . . . . . . 74
3.2.1. Metodología para el Desarrollo del Test de Rao para Solapamiento: Modelo de
Draper y Guttman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.2.2. Metodología para el Desarrollo del Test de Rao para Solapamiento: Modelo de
Super�cies de Respuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.3. Propuesta de Estimación par el Coe�ciente de Solapamiento . . . . . . . . . . . . . . . 83
3.3.1. Estimador Propuesto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.3.2. Intervalo Para el Coe�ciente de Solapamiento según Shukla y Subrahmanyan . 85
CAPÍTULO 4.. APLICACIONES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.2. Aplicaciones en el Modelo de Draper y Guttman . . . . . . . . . . . . . . . . . . . . . 87
4.2.1. Solapamiento intra-hilera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.2.2. Solapamiento intra-hilera e inter-hileras . . . . . . . . . . . . . . . . . . . . . . 91
4.2.3. Aplicación del test de Solapamiento en el Diseño factorial 2k . . . . . . . . . . 94
4.2.4. Aplicación del test de Solapamiento en el Diseño de Box-Behnken. . . . . . . . 95
4.2.5. Solapamiento en el Diseño Central Compuesto . . . . . . . . . . . . . . . . . . 98
ÍNDICE GENERAL viii
APÉNDICE A..MATERIAL ADICIONAL . . . . . . . . . . . . . . . . . . . . . . . . 101
A.1. Algoritmos en SAS/IML para cada aplicación . . . . . . . . . . . . . . . . . . . . . . . 101
A.1.1. Aplicación del Test de Solapamiento.(solapamiento intra-hilera). . . . . . . . . 101
A.2. Cálculos del Intervalo de Shukla y Subrahmanyan . . . . . . . . . . . . . . . . . . . . . 105
A.2.1. Aplicación del Test de Solapamiento.(solapamiento intra-hilera e inter-hileras). 107
A.3. Espacios Columna , Matrices de Proyección Perpendicular y Complemento Ortogonal . 107
A.4. Cálculo de la Inversa de U 'U=(X'X+L'L) . . . . . . . . . . . . . . . . . . . . . . . . 109
A.5. Descomposición de la Matriz Ṁ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
A.6. Cálculos Generales Asociados al Vector Score, Hessiano y Matriz de Información
Esperada de Fisher del Modelo Reparametrizado de Draper y Guttman . . . . . . . . 111
A.7. Taxonomía de Diseño Experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
BIBLIOGRAFÍA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
ix
Índice de cuadros
3.1. Análisis de Varianza de dos Vías sin Interacción . . . . . . . . . . . . . . . . . 78
4.1. Disposición del diseño 2k en variables codi�cadas para 9 réplicas . . . . . . . . 95
4.2. Disposición del diseño en variables codi�cadas (dos réplicas). Diseño de Box-
Behnken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.3. Disposición del diseño en tratamientos y variables codi�cadas, (2 réplicas).
Diseño Central Compuesto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
x
Índice de �guras
4.1. Modelos de vecindad para el cálculo de los pesos en el patrón de siembra inter-
hileras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.2. Distribución de las Unidades en Campo en las dos Hileras. . . . . . . . . . . . 88
4.3. Modelos de vecindad dentro y entre hileras para el cálculo de los pesos en el
patrón de siembra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4. Modelos de vecindad para el cálculo de los pesos en el patrón de siembra. Diseño
Factorial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.5. Modelos de vecindad para el cálculo de los pesos en el patrón de siembra en
bloque 3. Diseño de Box-Behnken. . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.6. Modelos de vecindad para el cálculo de los pesos en el patrón de siembra en
hileras. Diseño Central Compuesto . . . . . . . . . . . . . . . . . . . . . . . . 99
xi
RESUMEN
En ciertas investigaciones se asume que la variable respuesta es afectada por el cambio de los
niveles de los factores, sin embargo, en la práctica los niveles de estos factores podrían mezclarse lo que
inhabilitaria separar el efecto de los mismos sobre la respuesta. Este fenómeno de solapamiento ha sido
evaluado mediante el modelo de Draper y Guttman (MDG) utilizando el Test Score de Rao,(1948).
La conjunción del (MDG) y el test de Rao rindió un test para el coe�ciente de solapamiento αs ,
desarrollado en primer lugar en modelos de super�cies de respuesta, donde generalmente la matriz
X que identi�ca a las variables de entrada, es de rango completo. Esta versión del test se desarrolló
y aplicó en algunos modelos de primer y segundo orden usando diferentes patrones de vecindad. La
simplicidad relativa del desarrollo motivó la profundización del uso del test en modelos donde la
matriz X, ahora como matriz de diseño, requiriera del uso de ciertas condiciones para poder aplicar la
estimación máximo-verosímil, entre ellas la reparametrización del modelo o la imposición de condiciones
laterales con la estimación mínimo-cuadrática para obtener soluciones de los parámetros diferentes al
de solapamiento. Ya con el test score para el modelo reparametrizado, se evaluaron varias soluciones
de los parámetros molestos lo cual condujo a la prueba de invarianza del test.Todo el desarrollo estuvo
acompañado con interesantes hallazgos los cuales se recogieron en algunos teoremas que utilizan los
conceptos de operadores de proyección perpendicular . Además, se propuso una generalización de la
tabla del análisis de varianza para un modelo de dos vías sin interacción, la cual puede ser extendida a
otros modelos de diseño, y que desde el punto de vista computacional no requiere del uso de una inversa
generalizada de la matrizX ′X. Finalmente, se propuso un estimador de αs, el cual pudo veri�carse con
el intervalo para αs de Shukla y Subrahmanyan (1999).Los tests desarrollados así como el estimador
son fáciles de adoptar donde pudiera ocurrir solapamiento y donde a su vez esté garantizado el uso de
tamaños de muestra lo su�cientemente grandes como para cumplir el supuesto asintótico del test. Esto
permitirá al analista llegar a conclusiones apropiadas sobre el efecto del los tratamientos en ausencia
de solapamiento.
xii
ABSTRACT
In many investigations the response variable is assumed to be in�uenced by the change in the
levels of factors, however, in practice the levels of these factors can get mixed up and so they will not be
able to assess their e�ects on the response. This phenomenon of overlap has been evaluated by Draper
and Guttman model (MDG) using the Rao's Score Test, (1948). The combination of (MDG) and
the Rao�s test yielded a test for overlap coe�cient αs developed primarily in response surface models,
where usually the matrix X which identi�es the input variables is of full rank. This version of the
test was developed and applied in some models of �rst and second order using di�erent neighborhood
patterns. The relative simplicity of development led to a deeper insight in using the test in situations
where the X matrix , now a design matrix, would require the use of certain conditions for applying
the maximum-likelihoodestimation, including the reparameterization of the model or the imposition
of side conditions with the least-square estimates for solutions of parameters di�erent than those of the
overlap. Using the test score for reparameterized model, we evaluated various solutions to the nuisance
parameters which led to the proof of invariance of the test. All development was accompanied with
some interesting �ndings which were collected in some theorems that use the concepts of perpendicular
projection operators. A generalization of the ANOVA table was also proposed for a two-way model
without interaction, which can be extended to other design models, and that from the computational
point of view the test does not require the use of a generalized inverse of the X′X matrix. Finally, we
proposed an estimator of αs, which could be veri�ed with the interval for αs proposed by Shukla and
Subrahmanyan (1999). The tests and the estimators developed are easy to adapt where overlap may
occur and where in turn the use of large sample sizes are guaranteed in order to ful�ll the asymptotic
assumptions of the test. This allows the analyst to reach appropriate conclusions about the treatment
e�ects adjusted by the overlap.
1
Capítulo1. INTRODUCCIÓN
1.1. PROBLEMA SUJETO A LA INVESTIGACIÓN
En las investigaciones de carácter agronómico es común encontrar que un tratamiento aplicado
sobre una unidad experimental especí�ca tiene un efecto directo sobre esta y un efecto de solapamiento
o traslapo sobre una o varias unidades experimentales vecinas, lo que seguramente afectará la respuesta
que esté siendo medida en cada unidad y por ende la discusión de resultados y las conclusiones
asociadas. Son variadas las razones que se pudieran encontrar para el surgimiento de este fenómeno
y pudiéramos clasi�carlas en intrínsecas al tratamiento como lo que pudiera pasar con el uso de
controladores biológicos que se mueven de la unidades experimentales objetivo a las unidades sometidas
a otro nivel de tratamiento; y las extrínsecas al tratamiento que pudieran ser causadas por agentes
climatológicos como el viento, lo cual suele ocurrir en ensayos donde se aplican fertilizantes foliares
pulverizados con baja o ninguna capacidad de adherencia.
En la literatura sobre procedimientos estadísticos para la investigación agrícola suele considerarse a
este fenómeno como parte del tema conocido como competición y suele atribuirse al mismo tratamiento
que está siendo aplicado (factor intrínseco) y/o al arreglo de las unidades experimentales en campo
como la razón extrínseca primordial. (Gómez & Gómez, 1984).
En el artículo base de la presente investigación escrito por Shukla y Subrahmanyam (1999) se separa
el efecto de solapamiento del efecto de competición y se de�ne la competición como el efecto mutuo de
la respuesta aleatoria de unidades experimentales vecinas . En este artículo se desarrolla un intervalo
de con�anza para cada efecto, es decir, el de competición y el de solapamiento. En el caso del efecto de
solapamiento se usa el modelo no lineal desarrollado por Draper y Guttman (1980) y para el efecto de
competición se utiliza el modelo simultáneo de Besag y Kempton (1986), sin embargo, para el propósito
CAPÍTULO 1. INTRODUCCIÓN 2
de la actual investigación se utiliza solo el modelo de Draper y Guttman con el objeto de desarrollar
el test de solapamiento utilizando el principio fundamental de prueba desarrollado por Rao (1948) y
que suele llevar su nombre en su honor. (Bera y Billias , 2001).
La naturaleza del modelo de Draper y Guttman orienta la investigación por diferentes caminos, ya
que la matriz de diseño X del modelo es de rango incompleto por columnas, con lo cual no resulta
directa la obtención de una solución única para el vector de parámetros además de surgir singularidad
en la matriz de información esperada de Fisher. En primer lugar, para evitar estos inconvenientes, se
propone el desarrollo del test score para el modelo de solapamiento de Draper y Guttman en modelos
de super�cies de respuesta de primer y segundo orden donde se tenga certeza que la matriz X ′X no
resulte singular, pues existen algunos casos que aunque estando la matrizX vinculada a los modelos de
regresión, la utilización inadecuada de corridas axiales y puntos centrales en el diseño, podría generar
singularidad en la matriz X ′X y por ende en la matriz de información esperada. En segundo lugar,
para resolver el problema de falta de unicidad en la estimación de los parámetros del modelo es posible
la reparametrización del mismo siguiendo la metodología propuesta por Christensen (2002). Aunado
a esta solución, es posible desarrollar una serie de aspectos teóricos vinculados a la imposición de
condiciones laterales para el modelo de rango incompleto de modo que pueda obtenerse una única
solución para el vector de parámetros del modelo, teniendo en cuenta que la imposición de estas
condiciones mediante la ampliación del modelo original rinde un vector de errores con distribución
normal singular , con lo cual no es posible la utilización del método de estimación de parámetros
basado en el principio de máxima verosimilitud, por lo que mediante la estimación mínimo-cuadrática
del modelo restringido por la hipótesis nula se obtienen los estimadores de los parámetros. Finalmente,
en el modelo de rango incompleto se obtiene una solución del vector de parámetros tomando en cuenta
una inversa generalizada para la matriz X ′X.
Aunque el Test Score de Rao (RST ) se fundamenta en la función de verosimilitud, resulta de interés
conocer la posibilidad de utilizar para la construcción del test de solapamiento un estimador (o
simplemente una solución para el vector de parámetros) no necesariamente obtenido por el principio
de máxima verosimilitud para el modelo reparametrizado, sino también poder utilizar una solución
del vector de parámetros obtenida por el método de máxima verosimilitud para el modelo original
CAPÍTULO 1. INTRODUCCIÓN 3
(no reparametrizado) o por la imposición de condiciones laterales usando como estimación la mínimo-
cuadrática. La idea detrás del uso de otros estimadores u otras soluciones de los parámetros distinto al
parámetro vinculado a la hipótesis nula es veri�car la posible propiedad de invarianza del test de Rao
para solapamiento cuando se usan estimaciones o soluciones como las descritas previamente. Todo este
trabajo se desarrolla haciendo uso de operadores de proyección perpendicular pues suele simpli�carse
el desarrollo del test y la demostración de los teoremas desarrollados en esta investigación así como la
demostración de la invarianza del test.
Finalmente en lo que respecta a los nuevos desarrollos, surgió un interés por generar alguna estimación
del coe�ciente de solapamiento, lo cual fue posible gracias a la técnica del análisis de covarianza y la
imposición de condiciones laterales al modelo de Draper y Guttman junto con un arti�cio hecho sobre
el modelo de modo que dejara de ser un modelo no lineal. El estimador propuesto del coe�ciente fue
veri�cado en el intervalo propuesto por Shukla y Subrahmanyan, (1999) resultando coherente cuando
se comparaba con los resultados obtenidos del test score desarrollado para solapamiento. Esto se ilustró
en la primera aplicación del capítulo 4.
En la actualidad se percibe un uso creciente del test score de Rao (Rao'Score Test), de hecho ha
cumplido recientemente 60 años de su desarrollo pero es en la actualidad cuando se ha venido aplicando
en diferentes áreas de la investigación , de hecho, el Journal of Statistical P lanning and Inference
editó una emisión especial en el año 2001 para conmemorar sus 50 años y presentar al público los
recientes avances . En vista de su apogeo y la gran utilidad que pudiera tener un test para evaluar la
presencia de solapamiento se decidió realizar esta investigación , la cual ha venido generando resultados
importantes no solo en el campo de la estadística sino también en las cienciascomo la agronomía y
muy seguramente podrá en un futuro extenderse en las ciencias de la educación pues en esta área suele
ocurrir �ujo de información entre los estudiantes que están siendo sometidos a diferentes métodos de
enseñanza como consecuencia del auge de las tecnologías de la información y comunicación .
El test score de Rao es un test generalmente más sencillo en comparación con el test de la razón de la
verosimilitud ya que el estadístico requiere que la estimación de los parámetros sea obtenida solamente
bajo la hipótesis nula, que en el caso del modelo de Draper y Guttman, la estimación se basará en
el modelo lineal usual, del cual resulta sencillo obtener una solución de la ecuación de verosimilitud
CAPÍTULO 1. INTRODUCCIÓN 4
sin importar el rango de la matriz X ′X. Aunque la estimación se simpli�ca trabajando con el modelo
restringido por la hipótesis nula (H0), la obtención del test se di�culta cuando la matriz X es de rango
incompleto pues este depende de la matriz de información esperada y en este caso resulta singular, sin
embargo, Cox (2006) sugiere que una simple transformación de los parámetros es lo único requerido
para resolver el problema de la singularidad de la matriz de información, en tal sentido resulta muy útil
la propuesta de Christensen (2002) para reparametrizar el modelo y poder obtener una única solución
al nuevo vector de parámetros de este nuevo modelo equivalente al modelo original. Finalmente, en el
interés de resolver el problema de singularidad de la matriz de información se recurre a la imposición
de condiciones laterales, sin embargo, esta propuesta aunque elimina la singularidad de la matriz X ′X
genera singularidad en la matriz de varianzas y covarianzas de los errores del modelo, con lo cual
es solo posible obtener la estimación de los parámetros del modelo mediante las estimación mínimo-
cuadrática y se imposibilita el uso de la estimación máximo verosímil, pues es bien conocido el hecho
de inexistencia de la función densidad normal singular y por ende el uso de la teoría de la verosimilitud
involucrada en la obtención del test score de Rao.
Todo el trabajo realizado para poder construir el test score de Rao no fue en vano, ya que de todas las
propuestas fue posible obtener al menos una estimación(solución) para los parámetros de ruido (todos
los parámetros no considerados en la hipótesis nula presentes en el modelo de Draper y Guttman
además de la varianza de cada uno de los errores, para los cuales se asumió normalidad, independencia
e idéntica distribución), los cuales sirvieron para demostrar la propiedad de invarianza del test score
de Rao para solapamiento y desarrollar una serie de teoremas que no solo sirvieron para generalizar la
tabla del análisis de varianza de un modelo de dos vías sin interacción (lo cual pudiera ser extendido a
modelos más complicados) sin usar una inversa generalizada de la matriz X ′X, lo que desde el punto
de vista computacional tiene sus ventajas, sino que también pudieran ser útiles dentro de la misma
estadística por la interesante descomposición de la matriz de diseño y el uso de la teoría vinculada a
los operadores de proyección perpendicular.
Esta investigación termina con la propuesta del estimador puntual para el coe�ciente de solapamiento
usando el análisis de covarianza y la imposición de condiciones laterales sobre el modelo de Draper y
Guttman. El estimador propuesto se veri�ca con el intervalo de Shukla y Subrahmanyan (1999), con
CAPÍTULO 1. INTRODUCCIÓN 5
el objeto de comparar este resultado con el obtenido de la aplicación del test score de Rao. Todo este
trabajo se ilustró solo en la primera aplicación del capítulo 4. Este último trabajo deja las puertas
abiertas a la investigación respecto al comportamiento distribucional del estimador y el estudio de sus
propiedades.
CAPÍTULO 1. INTRODUCCIÓN 6
1.2. JUSTIFICACIÓN
En las investigaciones experimentales agropecuarias así como investigaciones de carácter
académico, la aplicación de un tratamiento sobre una unidad experimental pudiera dispersarse a
las unidades experimentales vecinas lo cual puede complicar el análisis de los datos pues no resulta
obvio atribuir el efecto de un tratamiento particular sobre una respuesta que esté siendo medida en
el estudio debido al solapamiento de los tratamientos. Por ejemplo, en una investigación forrajera
donde pudieran estarse probando diferentes planes de fertilización sobre las parcelas, los diferentes
niveles de fertilización aplicados sobre una unidad experimental especí�ca, pudieran ser movidos(por
variables ambientales o simplemente por el hombre) total o parcialmente a parcelas diferentes donde no
fueron originalmente aplicados. Este fenómeno de solapamiento, cuando verdaderamente está presente,
pudiera afectar los resultados y por ende su discusión. Esta situación podría también evidenciarse
en las investigaciones de carácter académico, ya que al aplicar tratamientos, por ejemplo, diferentes
métodos de enseñanza sobre una muestra de estudiantes, pudiera ocurrir un �ujo de la información
asociada a los métodos entre estudiantes sometidos a los diferentes tratamientos,es decir, puede que
entre estudiantes sometidos a diferentes métodos de enseñanza con materiales de apoyo intrínsecos al
método, por diferentes razones se intercambien el material, lo que genera el solapamiento o traslapo de
la información , trayendo como consecuencia probable un efecto sobre los resultados del experimento
planeado originalmente y a su vez en las conclusiones sobre el mejor método de enseñanza.
Poder detectar el solapamiento de los tratamientos no solo por la inspección visual de las unidades
experimentales que pudieran no ponerlo en evidencia a simple vista, sino a través del ajuste de un
modelo, resulta no solamente de valor teórico por la incorporación de un test nuevo sino también
de valor práctico y metodológico por su gran aplicabilidad en el diseño de experimentos y su fácil
adopción en diferentes áreas donde pudiera presentarse este fenómeno, como lo describieron Silk(1966)
y Sudman(1971).
CAPÍTULO 1. INTRODUCCIÓN 7
1.3. OBJETIVOS
1.3.1. GENERALES
1. Desarrollar el Test Score de Rao en el modelo de Solapamiento de Drapper Guttman
reparametrizado.
2. Desarrollar el Test Score de Rao en Modelos de Super�cie de Respuesta de Primer y Segundo
Orden.
3. Presentar una propuesta de Estimación Puntual del Coe�ciente de Solapamiento para el Modelo
de Draper y Guttman.
4. Probar la invarianza del Test Score para Solapamiento cuando son sustituidas diferentes
estimaciones(soluciones) mínimo-cuadráticas y máximo-verosímiles de los parámetros molestos
no obtenidas por máxima-verosimilitud sobre el modelo reparametrizado de Draper y Guttman.
1.3.2. ESPECÍFICOS
1. Construir el Test Score de Rao para el coe�ciente de solapamiento para un modelo de clasi�cación
de dos vías reparametrizado , utilizando una hipótesis relativa a una función lineal.
2. Aplicar el Test Score de Rao para el coe�ciente de solapamiento para el modelo de clasi�cación
de dos vías reparametrizado , utilizando dos diferentes matrices de pesos asociadas al vecino más
cercano.
3. Generalizar la tabla del análisis de varianza para el modelo de clasi�cación de dos vías sin
interacción haciendo uso de una matriz de proyección de perpendicular sobre el espacio de
columnas de X generada a partir de la imposición de condiciones laterales al modelo restringido
de Draper y Guttman y una partición particular de la matriz de diseño.
4. Evaluar el Test Score de Rao para el coe�ciente de solapamiento del modelo de Draper y
Guttman reparametrizado utilizando dos diferentes soluciones para el vector de parámetros
CAPÍTULO 1. INTRODUCCIÓN 8
y la varianza del error aparte de los estimadores máximo-verosímiles naturales del modelo
reparametrizado(propiedad de invarianza).
5. Desarrollar un estimador puntual obtenido por mínimos-cuadrados e imposición de condiciones
laterales sobre unaleve modi�cación hecha al modelo de Draper y Guttman original, sin afectar
la naturaleza del mismo.
6. Presentar una serie de teoremas y sus demostraciones, relativos a una matriz particular de
proyección perpendicular sobre el espacio de columnas de la matrizX, generada por la imposición
de condiciones laterales sobre el modelo de Draper y Guttman y obtenida por estimación mínimo-
cuadrática.
7. Desarrollar el Test Score de Rao para el coe�ciente de solapamiento en super�cies de respuesta.
8. Ilustrar mediante aplicaciones el uso del Test Score de solapamiento en modelos de super�cie de
respuesta generadas por los diseños de super�cie de Box-Behnken, Diseño Factorial 2k y Diseño
Central Compuesto , haciendo una extensión del modelo de Draper y Guttman y utilizando
diferentes patrones de siembra para modi�car la matriz de pesos de los vecinos más cercanos.
9
Capítulo2. MARCO TEÓRICO
2.1. Introducción
Prasanta Mahalanobis comentó que la estadística sería la clave de la tecnología en el siglo 20
(Mahalanobis, 1965), de hecho, en pleno siglo 21 estos comentarios siguen vigentes, pues la estadística en
la actualidad, sigue aplicándose exitosamente en casi todas las disciplinas. La psicometría, la biometría,
la econometría y la sociometría son en la actualidad campos de estudio bien establecidos.
Aún con esta diversidad de disciplinas, los objetivos principales de las técnicas estadísticas pueden
ser divididos ampliamente en dos áreas interrelacionadas, la estimación y las pruebas de hipótesis.
De estas dos áreas fundamentales, el nacimiento y formalización de la segunda área ha sido más
tortuosa, sin embargo, gracias a la ayuda de Gosset (Student), Neyman y Pearson (Prueba de la razón
de la verosimilitud y pruebas óptimas), Wilks (distribución asintótica del la prueba de la razón de la
verosimilitud), Wald (Prueba de Wald) y Rao(Test Score), se ha aceptado la visión de la estadística
como una "tecnología", y entonces, los procedimientos generados por estos famosos autores, cuyos siglas
en inglés son LR(razón de la verosimilitud), W (Wald) y RST (Test Score de Rao) son las técnicas más
importantes en la evaluación y prueba de modelos estadísticos.
Si bien es cierto que alrededor de la fecha de publicación del artículo de Rao sobre el Test Score , este
tuvo importancia, también es cierto que este artículo no fue notado por otros durante un gran tiempo,
aún por aquellos investigadores que estaban estimulados en el área de prueba, de hecho Silvey (1959)
presentó un test idéntico al de Rao y no hizo referencia al trabajo de Rao a pesar de la gran similitud
de su artículo con el de Rao. Ya para los años 80 se retomó el auge inicial de estos dos grandes trabajos
y sin lugar a duda resulta justo atribuir a los econometristas la gran popularidad del test Score de
Rao (RST ). En esta prueba no es difícil explicar su atractivo, pues el requerimiento computacional
CAPÍTULO 2. MARCO TEÓRICO 10
se restringe a la estimación solo bajo la hipótesis nula. Otra característica atractiva del RST es su
simplicidad algebraica, lo cual facilita su implementación en software especializado.
Resulta interesante mencionar cómo una investigación de amplia aplicación como la de Milliken y
Graybill (1970) sobre una especi�cación no lineal en un modelo de regresión, la cual se ha usado como
una generalización de la prueba de no aditividad de Tukey en su famoso artículo de un grado de libertad
para no aditividad, no es sino un caso particular del test score de Rao, tal como lo demostró Laurent,
(1990).
La vigencia del test de Rao queda una vez más mani�esta en la actualidad con el desarrollo del test en
un modelo de solapamiento , tema bastante común en las ciencias agrarias. Aunque el solapamiento ha
sido estudiado por varios autores, entre ellos Pearce (1957), Draper y Guttman (1980), Kempton (1982)
y Besag y Kempton (1986) , ninguno de ellos y otros versados en el tema han usado el test score de Rao
en el modelado del solapamiento . En tal sentido, el desarrollo del test score de Rao en este interesante
tema con especial aplicación en experimentos agrícolas tiene gran importancia, especialmente cuando
se hace uso de operadores de proyección perpendicular en el análisis matricial tal como lo desarrolla
Ronald Christensen (2002) y cuando se involucra la conocida metodología de super�cies de respuesta.
En las siguientes secciones se detallan algunos aspectos teóricos relacionados con el test score de
Rao y su desarrollo en el modelo de solapamiento de Draper y Guttman. Posteriormente se explican
la imposición de condiciones laterales con el objeto de obtener un modelo cuya matriz de diseño
sea de rango completo, además se desarrollan y demuestran algunos teoremas interesantes que son
consecuencia de la imposición de condiciones laterales . Una de las secciones claves es precisamente
aquella donde se construye el test de solapamiento basado en el score test de Rao reparametrizando
el modelo original de Draper y Guttman, el cual se ilustra mediante la aplicación con datos obtenidos
en experimentación real de carácter académico utilizando dos diferentes patrones de vecindad de los
vecinos más cercanos y el test score de Rao en el modelo de solapamiento haciendo uso de la teoría
de espacios vectoriales. Una vez introducida la teoría de super�cies de respuesta, se construye el Score
test de Rao pero utilizando como matrices de diseño la asociada a una super�cie de respuesta. Esta
última sección se ilustra con dos aplicaciones diferentes, la primera la de una super�cie de respuesta
de primer orden y la segunda una super�cie de respuesta de segundo orden. Finalmente se propone
CAPÍTULO 2. MARCO TEÓRICO 11
un estimador puntual para el coe�ciente de solapamiento y se usa el intervalo de con�anza para este
coe�ciente desarrollado por Shukla y Subrahmanyan, (1999) para veri�car si pertenece o no al intervalo
y si el resultado es coherente con lo obtenido mediante el test score de solapamiento.
2.1.1. La Noción de Experimento Aleatorio
El punto de arranque de cualquier investigación estadística está en los datos en la forma de un
conjunto de observaciones. En el caso más simple, estos son experimentales y pertenecen a una muestra
aleatoria, es decir,los valores de alguna variable aleatoria Y son obtenidos experimentalmente. Para ser
más preciso, sea E un experimento conectado con la variable aleatoria Y . Formalmente debe construirse
para este experimento un modelo matemático, el cual incluye un espacio de probabilidad (S,=,P(.)), y
se de�ne de manera apropiada una función medible sobre este espacio, la cual se denominará variable
aleatoria Y . Spanos (1999) denomina al conjunto S como el conjunto de todos los posibles resultados
del experimento, = como el σ−álgebra de los subconjuntos de S y a P (.) como la función conjunto
de probabilidad. Sin pérdida de la generalidad se puede asumir que (S,=, P (.)) representa al espacio
de probabilidad, el cual tiene la estructura matemática que se requiere para construir toda la teoría de
probabilidad. De ahora en adelante se llamará a P (.) como la distribución de la variable aleatoria Y .
Como puede notarse, en el contexto de un experimento aleatorio se consideran una serie de conceptos
importantes relacionados con un experimento aleatorio del cual se obtiene una muestra aleatoria, en
tal sentido, en esta sección se muestran algunos de estos conceptos con el �n de proveer una noción
de espacio estadístico simple de modo que el lector pueda ver la transformación de este espacio en un
modelo estadístico simple de�nido sobre la recta real, para �nalmente llegar al entendimiento de un tipo
especial de modelo muestral llamado muestra aleatoria, es decir, un conjunto de variables aleatorias
Y := (Y1, Y2, · · · , Yn), las cuales serán consideradas independientes e idénticamente distribuidas (iid).
Estos conceptos también proveen un soporte teórico estadístico a la teoría de estimación y pruebas de
hipótesis involucradasen el desarrollo que se hará posteriormente del test score de Rao para el modelo
de solapamiento de Draper y Guttman.
En un experimento aleatorio es preciso formalizar lo que signi�ca una sucesión �nita de ensayos.
Suponga que se denotan a los n ensayos con {A1,A2, · · · ,An}. Suponga que cada ensayo se asocia con
CAPÍTULO 2. MARCO TEÓRICO 12
un espacio de probabilidad (Si,=i, Pi(.)), para i = 1, 2, · · · , n. Para poder discutir cualquier relación
entre ensayos es preciso asociarlos con un espacio de probabilidad general, de lo contrario no puede
aseverarse que el resultado de un ensayo en particular no afecta el resultado de otro ensayo. El espacio
de probabilidad general que se sugiere es el espacio de probabilidad producto, es decir
(S1,=1, P1(.))× (S2,=2, P2(.))× · · · × (Sn,=n, Pn(.)),
el cual puede reordenarse como
([S1 × · · · × Sn][=1 × · · · × =n][P1(.)× · · · × Pn(.)]) := (S(n),=(n), P(n)(.)).
La demostración de que (S(n),=(n), P(n)(.)) es un espacio propio de probabilidad se puede encontrar
en Parthasarathy (1977). Habiendo establecido que el espacio de probabilidad producto es un espacio
de probabilidad, se puede notar que {y1, y2, · · · , yn} es un evento en (S(n),=(n), P(n)(.)), de modo que
ahora se puede asegurar que el espacio de probabilidad (S,=, P (.)) permanece igual de ensayo a ensayo
en el sentido que:
(Si,=i, Pi(.)) = (S,=, P (.)),∀ i = 1, 2, · · · , n.
La condición anterior es conocida como idéntica distribución. Para formalizar ahora la aseveración
de que cada ensayo es independiente del otro es preciso de�nir el concepto de espacio muestral .
Denotando la sucesión de n ensayos por Gn = {A1,A2, · · · ,An}, donde Ai representa al i-ésimo
ensayo del experimento asociado con el espacio de probabilidad producto, se dice entonces que Gn es
el espacio muestral, donde A1,A2, · · · ,An es un evento en el contexto del espacio de probabilidad
producto, como tal, es posible adjuntar una probabilidad a este evento usando la función de conjunto
P(n), de modo que los ensayos serán independientes si:
P(n) (A1, · · · ,Ak) = P(1)(A1) · · ·P(k)(Ak), k = 2, 3, · · · , n.
Una sucesión de ensayos que cumple la condición de independencia e idéntica distribución es
conocida como ensayos aleatorios. Es importante destacar que la noción de espacio muestral no
es inextricablemente ligada con la sucesión de ensayos aleatorios, de hecho, los componentes de
(S(n),=(n), P(n)(.)) pudieran ser tanto no independientes como no idénticamente distribuidos.
CAPÍTULO 2. MARCO TEÓRICO 13
Al combinar el espacio de probabilidad producto con la sucesión de ensayos aleatorios se conforma lo
que es conocido como espacio estadístico simple denotado por
(S(n),=(n), P(n)n,Giidn ).
Con esta última de�nición se completa la formalización de experimento aleatorio, sin embargo, esta
formulación es de naturaleza abstracta ya que involucra conjuntos arbitrarios y funciones de conjunto
y no números y funciones numéricas que suelen ser más familiares. Esta abstracción obliga a la
consideración en la siguiente sección de una forma más manejable al mapear esta estructura matemática
sobre la recta real.
2.1.2. La Noción del Modelo de Probabilidad
El espacio estadístico aunque suele ser adecuado para propósitos matemáticos no conduce
naturalmente en sí mismo al modelado de un fenómeno estocástico. Un fenómeno estocástico tal como
el rendimiento de algún cultivo es generalmente observado en la forma de datos numéricos y no en
términos de eventos abstractos. De aquí que para el propósito de modelar es necesario cambiar el
espacio estadístico abstracto en algo menos abstracto de�nido en términos de números y funciones
numéricas haciendo uso del concepto de variable aleatoria, el cual posibilita el mapeo del espacio
estadístico sobre la recta real.
El mapeo del espacio de probabilidad (S,=, P (.)) sobre la recta real R se hará en tres pasos. En el
primer paso se mapea S en la recta real R de modo que se preserve la estructura del evento de interés
=, el concepto de una variable aleatoria Y . Con el uso del concepto de variable aleatoria se procede
con el segundo paso, el cual relaciona la función conjunto de probabilidad:
P (.) : = → [0, 1] ,
con una función numérica más simple conocida como la función distribución acumulada (fda) de�nida
en términos de la variable aleatoria Y :
FY (.) : R → [0, 1] .
CAPÍTULO 2. MARCO TEÓRICO 14
El tercer paso simpli�ca la fda al transformarla en la función densidad de probabilidad (fdp)
fy(.) : R → [0,∞) .
Para entender la noción moderna de una variable aleatoria y como esta transforma el espacio estadístico
de naturaleza abstracta en algo mucho más fácil de manipular se hará una discusión comenzando con
el caso más simple para �nalizar con el caso más complejo, lo cual desde el punto de vista pedagógico
resulta conveniente. La simplicidad es relativa al conjunto de resultados S, el cual puede ser �nito,
in�nito numerable o el caso más complejo donde el espacio de resultados es no numerable.
2.1.2.1. Conjunto de Resultados Finito
Cuando S = {s1, s2, · · · , sn}, la de�nición de una variable aleatoria simple con respecto al espacio
de eventos = se da mediante la función:
Y (.) : S → RY : Ay := {s : Y (s) = y} ∈ = ∀ y ∈ R. (2.1)
Heurísticamente hablando, una variable aleatoria es una función que asigna números a todos los
elementos de S de una forma que se preserva la estructura de los eventos de =, ya que todo Ay
es un evento que también pertenece a =, siendo Ay la pre-imagen de Y en Y = y, lo cual puede
denotarse además como
Ay := {s : Y (s) = y} = Y −1(y), y ∈ R,
no siendo la pre-imagen de Y la función inversa usual, solo el codominio.
Usando el concepto de variable aleatoria se mapea S en un subconjunto de la recta real RY . Ya que
no se quiere cambiar la estructura del espacio de probabilidad original se impone la condición (2.1)
para asegurar que todos los eventos de�nidos en términos de la variable aleatoria Y pertenezcan al
espacio de los eventos original. Además, se quiere asegurar que los mismos eventos en el espacio de
probabilidad original y la nueva formulación, tal como Ay := {s : Y (s) = y} tengan asignadas las
mismas probabilidades. Para asegurar esto se de�ne la función punto fy(.), la cual se llamará función
densidad y viene expresada como
fy(.) := P (Y = y) ∀ y ∈ RY . (2.2)
CAPÍTULO 2. MARCO TEÓRICO 15
Es importante mencionar que (Y = y) es solo una forma corta de expresar Ay := {s : Y (s) = y}.
Claramente, para todo y /∈ RY , se tiene que Y −1(y) = ∅, de este modo fy(y) = 0 para todo y /∈ RY .
En el contexto del espacio de probabilidad original (S,=, P (.)), donde S = {s1, s2, · · · , sn}, la
estructura probabilística del experimento aleatorio se especi�có en términos de:
{s1, s2, · · · , sn} :
n∑
i=1
p(si) = 1.
Recordando que todos los eventos A ∈ = son solo uniones de ciertos resultados que son mutuamente
excluyentes, utilizando el axioma de probabilidad conocido como axioma de la aditividad contable, se
puede de�nir la probabilidad de A como la suma de las probabilidades asignadas a cada uno de los
resultados que componen el evento A, es decir, si A = {s1, s2, · · · , sn}, entonces:
P (A) =
n∑
i=1
p(si).
Hasta ahora, con la ayuda del concepto de variable aleatoria se ha logrado entender el cambio:
(S,=, P (.)) Y (.)→ (RY , fy(.)),
habiendo transformado la estructura probabilística original en:
{fy(y1), fy(y2), · · · , fy(ym)} :
m∑
i=1
fy(yi) = 1,m ≤ n;
lo cual es conocido como la distribución de probabilidad de la variable aleatoria Y. La transformación
realizada permite que en lugar de tener una lista de {fy(y1), fy(y2), · · · , fy(ym)}, se puede usar una
función real valorada en la forma de una fórmula la cual especi�ca la distribución implícitamente,
donde para cada valor de Y, la función fy(y) especi�ca su probabilidad.
2.1.2.2. Conjunto de Resultados Numerable
Cuando S = {s1, s2, · · · , sn, · · ·} se tiene una simple extensión del conjunto de resultados �nitodonde la estructura probabilística del experimento se especi�ca en términos de:
{p(s1), p(s2), · · · , p(sn), · · ·} :
∞∑
i=1
p(si) = 1,
CAPÍTULO 2. MARCO TEÓRICO 16
de modo que la probabilidad de que un evento A ∈ = es igual a la suma de las probabilidades asignadas
a cada uno de los componentes del evento A, es decir:
P (A) =
∑
i:si∈A
p(si).
2.1.2.3. Conjunto de Resultados No Numerable:Noción General de Variable Aleato-
ria
Habiendo ya introducido los conceptos básicos que son necesarios para pasar del espacio de
probabilidad abstracto a algo más manejable en el contexto del modelado, haciendo uso de los conjuntos
de resultados �nitos e in�nitos numerables, ahora se explicarán estos mismos conceptos de un modo más
general sobre el conjunto de resultados no numerable. De hecho, la estrategia seguida en los conjuntos
de resultados de las dos sub-secciones previas ya no funciona aquí. Si se hace que el conjunto S sea el
conjuntos de los números reales R, se notará que la razón del no funcionamiento es simple, ya que en
un conjunto con in�nitos resultados es imposible ordenarlos en una sucesión de modo que puedan ser
contados y por ende puedan ser asignadas probabilidades. De hecho, intuitivamente se sabe que no es
posible cubrir la recta real punto por punto, de hecho, la única forma de cubrir R o cualquiera de sus
subconjuntos no numerables es usando una sucesión de intervalos con la siguientes formas:
(a, b), [a, b] , [a, b) , (−∞, a].
Como se verá a continuación, la forma más conveniente de estos intervalos viene dada por
{(−∞, y]} ∀ y ∈ R. (2.3)
En vista de la discusión anterior, cualquier intento de de�nir una variable aleatoria usando la de�nición
de variable aleatoria simple como:
Y (.) := S → RY : {s : Y (s) = y} = Y −1(y) ∈ R ∀ y ∈ R, (2.4)
está condenado a fallar. De hecho, ya se ha dicho que la única forma de cubrir R es por medio de
intervalos y no de puntos. El intervalo semicerrado de (2.3) sugiere la modi�cación de los eventos
{s : Y (s) = y} de (2.4) en eventos de la forma {s : Y (s) ≤ y}.
CAPÍTULO 2. MARCO TEÓRICO 17
Una variable aleatoria relativa a = es una función Y (.) := S → RY que satisface la restricción:
{s : Y (s) ≤ y} : Y −1((−∞, y]) ∈ = ∀ y ∈ R. (2.5)
La única diferencia entre la notación (2.4) y (2.5) es debida a la forma de los eventos usados, además,
en virtud de que {s : Y (s) = y} ⊂ {s : Y (s) ≤ y}, la última de�nición es más general. De esta última
de�nición se observa que la pre-imagen de la variable aleatoria Y (.) toma como intervalos ((−∞, y]),
con y ∈ R a partir del espacio del los eventos =. El conjunto de todos los intervalos genera un σ−álgebra
sobre la recta real llamado el σ−álgebra de los conjuntos de Borel denotado como B(R). De aquí que
la pre-imagen de la variable aleatoria Y (.) constituye un mapeo tal como
Y −1(.) : B(R)→ =. (2.6)
Para continuar con la transformación del espacio de probabilidad en algo más apropiado para el
propósito de modelar, es preciso transformar P (.) : = → [0, 1] en una función conjunto sobre la
recta real o más precisamente sobre B(R), este cambio toma la forma:
P (Y ≤ y) = P (Y −1((−∞, y])) = PrY (((−∞, y])).
Es importante resaltar en esta etapa que los eventos en el primer y segundo término son elementos
de = y el de la última igualdad es un elemento de B(R). Ahora es posible asignar probabilidades
a los intervalos de la forma {(−∞, y] : y ∈ R} cuya pre-imagen pertenece a =. Para asignar estas
probabilidades a todo elemento By ∈ B(R) se tiene que:
P (Y −1)(By) = PrY (By) ∀ (By) ∈ B(R).
Esto de�ne una nueva función conjunto de probabilidad como una función compuesta P (Y −1)(.) donde
P (.) : = → [0, 1], (Y −1)(.) : B(R)→ =, de este modo:
PrY (.) := P (Y −1)(.) : B(R)→ [0, 1].
Reuniendo los elementos dados en esta sección se puede notar como el efecto de una variable aleatoria
Y induce un nuevo espacio de probabilidad denotado como (R,B(R), P rY (.)) con el cual se puede
CAPÍTULO 2. MARCO TEÓRICO 18
reemplazar el espacio de probabilidad abstracto, con la ventaja de que ahora todo toma lugar en la
recta real y no en un espacio abstracto.
Para �nalmente llegar al modelo de probabilidad es necesario aún dar a conocer algunos conceptos
comunes en la teoría de la probabilidad, entre ellos, el de una función Borel-medible, ya que el interés
no suele recaer solo en la de�nición de variables aleatorias sino también en funciones regulares de
tales variables, es decir, funciones continuas o diferenciables en el contexto del cálculo o funciones que
preservan la estructura de los eventos. Una función de�nida por:
h(.) : R → R : {h(y) ≤ y} : h−1(((−∞, y])) ∈ B(R), ∀ y∈ R,
es llamada función Borel-medible, es decir, una función de Borel es una función la cual es una variable
aleatoria relativa a B(R). Dentro se estas funciones se encuentran las funciones indicadoras, las
funciones monótonas, las funciones continuas y funciones con un número �nito de discontinuidades.
Usando el concepto de variable aleatoria Y (.) se ha transformado el espacio de probabilidad abstracto
en un espacio menos abstracto, sin embargo, no se ha llegado a donde realmente se quiere llegar, pues
PrY (.) := P (Y −1)(.) es aún una función de conjuntos. Si bien es cierto que es mucho más manejable
una función de conjuntos ya que esta se de�ne sobre la recta real, aún así sigue siendo una función de
conjuntos. Una opción más deseable es una función numérica punto a punto pues estas resultan más
familiares. La forma para lograr esta transformación resulta interesante. Viendo a PrY (.) como una
función del límite �nal del intervalo (−∞, y] se de�ne la función distribución acumulada(fda) como:
FY (.) : R → [0, 1] , donde FY (y) = P {s : Y (s) ≤ y} = PY ((−∞, y]). (2.7)
La táctica que condujo a esta de�nición se debe a la posibilidad de usar cualquiera de los siguientes
intervalos:
(a, b), [a, b], [a, b), (−∞, a], donde a < b, a ∈ R, b ∈ R,
para generar el σ-álgebra de los conjuntos de Borel. En vista de esto se puede pensar que la fda está
siendo de�nida via :
P {s : a < Y (s) ≤ b} = P {s : Y (s) ≤ b} − {s : Y (s) ≤ a} = PrY ((a, b]) = FY (b)− FY (a),
CAPÍTULO 2. MARCO TEÓRICO 19
y entonces se asume que FY (−∞) = 0.
La función distribución acumulada proporciona el último enlace en la cadena de transformaciones del
espacio abstracto de probabilidad inicial en algo mas conveniente para modelar. Antes de proceder con
la mejora del conocimiento intuitivo del concepto es necesario relacionarlo con la noción de función
densidad, que sin pérdida de la generalidad se puede considerar solamente el caso de una variable
aleatoria continua (conjunto de resultados no numerable).
Habiendo de�nido la fda sobre intervalos de la forma (−∞, y] se puede proceder a recuperar la función
densidad fy(.)(cuando esta existe). Asumiendo que existe una función de la forma:
fy(.) : R → [0,∞), (2.8)
de modo tal que esté relacionada con la fda por medio de:
FY (y) =
∫ y
−∞
fy(u)du, (2.9)
donde fy(u) ≥ 0. En este caso se dice que fy(.) es la función densidad correspondiente a FY (.). Esta
recuperación presupone la existencia de una función no negativa cuya forma uno deber suponer a priori.
Cuando fy(.) se asume continua, esta se puede recuperar de FY (.) usando el bien conocido teorema
fundamental del cálculo mediante diferenciación, siempre y cuando exista su anti-derivada.
2.1.3. Del Espacio de Probabilidad al Modelo de Probabilidad
En las dos secciones previas se desarrollaron una serie de pasos y se explicaron algunos conceptos
de la teoría de la probabilidad con el objeto de transformar el espacio de probabilidad abstracto en
algo más fácil de modelar con datos numéricos. La primera etapa de la transformación introdujo la
noción de una función real valorada del espacio de resultados a la recta real, condicionada a preservar
la estructura original del espacio de los eventos; el concepto de variable aleatoria. En la segunda etapa
se usó el concepto de variable aleatoria para mapear (S,=, P(.)) en (R,B(R), PY (.)). En la tercera
etapa se transformó la función de conjunto PY (.) en una función numérica punto a punto, la función
distribución acumulada. En la última etapa se simpli�có esta función al introducir la función densidad,
con lo que se extendió la formulación al caso donde las probabilidades son funciones conocidas de uno
CAPÍTULO 2. MARCO TEÓRICO 20
o varios parámetros desconocidos, lo cual se logró al introducir estos parámetros en las expresiones de
la función distribución acumulada y la función densidad: F (y;θ), f(y;θ), lo cual se puede simbolizar
mediante:
(S,=, P (.)) Y (.)⇒ (R,B(R), PY (.))⇒ {f(y;θ),θ ∈ Θ, y ∈ R}.
Ignorando los pasos intermedios, se puede notar el mapeo de los componentes individuales como:
S ⇒ R, [=, P (.)]⇒ {f(y;θ),θ ∈ Θ}.
El resultado �nal de la transformación muestra como el espacio de probabilidad (S,=, P (.)) ha sido
cambiado por el modelo de probabilidad de�nido por:
Ψ = {f(y;θ),θ ∈ Θ, y ∈ RY }, (2.10)
donde Ψ es una colección de funciones densidad indexadas por un conjunto de parámetros desconocidos
θ; una densidad para cada posible valor de θ en el espacio de los parámetros Θ. El interés en llegar
al modelo de probabilidad recae en que a partir de este existe un enlace directo con los datos reales
que puede ayudar a la elección de un modelo apropiado. El modelo de probabilidad constituye uno
de los dos pilares sobre los cuales se erige la noción de un modelo estadístico, la piedra angular de
la inferencia estadística ( y al modelado empírico); el otro pilar es el modelo muestral, el cual será
presentado en la siguiente sección.
En el contexto del modelado empírico se utiliza la noción de modelo de probabilidad de la siguiente
manera. En primer lugar, se postula a priori una familia de densidades como el mecanismo estocástico
que dio origen a los datos observados en cuestión. La tarea del modelador consiste en seleccionar la
familia más apropiada para esos datos. El modelador no se compromete a priori con una densidad
en particular, por decir, f(y;θ0), donde θ0 es un valor especí�co del parámetro desconocido, como
la que proporciona el resumen adecuado de los datos bajo consideración. En lugar de eso, asume que
la densidad es un miembro de la familia postulada para algún θ ∈ Θ. En el modelado empírico se
de�ne el modelo de probabilidad en términos del parámetro o vector de parámetros desconocido, y
deja que los datos, con el uso de la inferencia estadística, seleccionen su valor apropiado de Θ. La
pregunta que surge en esta etapa es : ¾Cómo saber cuál es el modelo de probabilidad apropiado ?
CAPÍTULO 2. MARCO TEÓRICO 21
Una respuesta simpli�cada del modelador a esta pregunta involucra el uso varios componentes que
relacionan al modelo de probabilidad con los datos en cuestión, entre ellos la función densidad, estudio
de los momentos, el soporte de la densidad (rango de valores de la variable aleatoria para los cuales la
densidad es positiva) y el conocimiento o estudio de la abundancia de densidades ya existentes, donde
cualquiera de estas podría resultar apropiada en una situación en particular, Spanos (1999).
2.1.4. La Noción de una Muestra Aleatoria
La idea central de esta sección es completar la transformación del espacio estadístico simple
en el modelo estadístico simple. Hasta aqui se ha convertido al espacio muestral en un modelo de
probabilidad, ahora se convertirá el espacio muestral en un modelo muestral. Para esto se retoman
nuevamente los conceptos de independencia e idéntica distribución pero en conjunción con el concepto
de variable aleatoria. Al utilizar nuevamente la de�nición de ensayo aleatorio, también se puede
notar que la condición de independencia se de�ne en términos de funciones de conjuntos las cuales
pertenecen a espacios abstractos de probabilidad. La di�cultad que surge ahora en transformar los
ensayos Gn = {A1,A2, · · · ,An} en un conjunto de variables aleatorias Y (n) := (Y1, Y2, · · · , Yn)
tiene que ver con los conceptos equivalentes de Pn(.) y Pk(.) en términos de variables aleatorias.
El concepto correspondiente a la función de conjunto Pn(.) es llamado función distribución conjunta
y el correspondiente a Pk(.) es llamado función distribución marginal. Al usar estas dos nociones se
puede de�nir el concepto de muestra aleatoria como un conjunto de variables aleatorias independientes
e idénticamente distribuidas.
El concepto de una distribución conjunta es sin duda una de las nociones más importantes tanto en
la teoría de la probabilidad como en la inferencia estadística. Como en el caso de una sola variable
aleatoria, la discusión se hará solo para el caso de variables continuas pues no se pierde la generalidad
de la explicación, pues es este el caso que se ajusta de forma más conveniente al objetivo de la actual
investigación.
En el caso donde el conjunto de resultados S es no numerable, las variables aleatorias de�nidas sobre
este se denominan continuas, ya que su rango de valores está en el intervalo de la recta real. Imagine
que se tienen dos variables aleatorias continuas Y1(.) y Y2(.) de�nidas sobre el mismo espacio de
CAPÍTULO 2. MARCO TEÓRICO 22
probabilidad (S,=, P (.)), es decir,
Y1(.) : S → R : Y −11 ((−∞, y1]) ∈ =,∀ y1 ∈ R,
Y2(.) : S → R : Y −12 ((−∞, y2]) ∈ =,∀ y2 ∈ R.
Mirando cada variable aleatoria por separado se puede de�nir la función distribución acumulada
individualmente como:
P (s : Y1(s) ≤ y1 = P (Y −11 ((−∞, y1])) = PY1(((−∞, y1])) = FY1(y1), y1 ∈ R,
P (s : Y2(s) ≤ y2 = P (Y −12 ((−∞, y2])) = PY2(((−∞, y2])) = FY2(y2), y2 ∈ R.
De modo conjunto, se puede asociar a cada par (y1, y2) ∈ R×R eventos de la forma:
{Y1(s) ≤ y1, Y2(s) ≤ y2} := {Y1(s) ≤ y1} ∩ {Y2(s) ≤ y2}, (y1, y2) ∈ R×R.
Ya que = es un σ-álgebra (cerrado a las intersecciones), el mapeo:
Z2(., .) = (Y1(.), Y2(.)) : S → R2
constituye un vector aleatorio; la pre-imagen de Z2(., .) : viene dada por:
Z2
−1(((−∞, y1])× ((−∞, y2])) =
[
Y −11 (((−∞, y1])) ∩ Y
−1
2 (((−∞, y2]))
]
∈ =,
ya que Y −11 (((−∞, y1])) ∈ = y Y
−1
2 (((−∞, y2])) ∈ = por de�nición. La función distribución acumulada
conjunta se de�ne como:
FY1Y2(., .) : R2 → [0, 1].
La función densidad conjunta asumiendo que existe f(y1, y2) ≥ 0, se de�ne mediante:
FY1Y2(y1, y2) =
∫ y1
−∞
∫ y2
−∞
f(u, v)dudv.
2.1.4.1. n-Variables Aleatorias
Extender la noción de variable aleatoria al caso Y (.) = (Y1(.), Y2(.), · · · , Yn(.)) resulta simple
habiendo ya señalado el procedimiento hasta el caso bivariado. Las n-variables aleatorias se extienden
mediante:
Y (.) : S → Rn,
CAPÍTULO 2. MARCO TEÓRICO 23
donde Rn : R×R× · · · × R denota al producto cartesiano de la recta real. La función de n-variables
Y (.) es un vector aleatorio relativo a = si:
Y (.) : S → Rn : Y −1((−∞,y]) ∈ =, ∀ y ∈ Rn,
donde y := (y1, y2, · · · , yn) y (−∞,y] := ((−∞, y1])× ((−∞, y2])× · · · ((−∞, yn]). En vista de que =
es un σ-álgebra se sabe que Y (.) es un vector aleatorio relativo a = si y solo si las variables aleatorias
(Y1(.), Y2(.), · · · , Yn(.)) son variables aleatorias relativas a =. Esto ocurre ya que Y −1k (((−∞, yk])) ∈
= ∀ k = 1, 2, · · · , n, de este modo:
⋂
n
i=1Y
−1
k ((−∞, yk]) ∈ =.
Resulta interesante tratar los conceptos de independencia e idéntica distribución en el caso de n-
variables aleatorias, aunque se trata en esencia de manejar los aspectos notacionales. Recordando algo
antes mencionado, los eventos A1, A2, · · · , An son independientes si se cumple la siguiente condición:
P (A1 ∩A2 ∩ · · · ∩Ak) = P (A1) · P (A2) · · ·P (Ak), ∀ k = 2, 3, · · · , n. (2.11)
En términos de variables aleatorias, las variables Y1, Y2, · · · , Yn se llaman independientes si se mantiene
la siguiente condición con el uso de funciones densidad:
f(y1, y2, · · ·, yn) = f1(y1) · f2(y2) · · · fn(yn),∀ (y1, y2, · · · , yn) ∈ Rn. (2.12)
Además de la independencia, las variables aleatorias Y1, Y2, · · · , Yn son independientes e idénticamente
distribuidas si:
fk(yk;θk),∀ k = 1, 2, · · · , n.
Con la independenciay la idéntica distribución se puede formalmente establecer la de�nición de
muestra aleatoria, de hecho, la muestra Y iid(n) es llamada muestra aleatoria si las variables aleatorias
Y1, Y2, · · · , Yn son:
Independientes. Lo cual se expresa con:
f(y1, y2, · · ·, yn;φ) =
n∏
k=1
fk(yk;θk)∀ (y1, y2, · · · , yn) ∈ Rn.
CAPÍTULO 2. MARCO TEÓRICO 24
Idénticamente Distribuidas. Lo cual se expresa mediante:
fk(yk;θk) = f(yk;θ), ∀ k = 1, 2, · · · , n.
Uniendo las dos expresiones, la densidad conjunta para Y iid(n) toma la forma:
f(y1, y2, · · ·, yn;φ) =
n∏
k=1
fk(yk;θk) =
n∏
k=1
f(yk;θ),∀ (y1, y2, · · · , yn) ∈ Rn. (2.13)
donde fk(yk;θk) denota la distribución marginal de Yk(.), Spanos (1999).
El concepto de muestra aleatoria es una forma muy especial de lo que suele llamarse modelo muestral,
ya que este último no es sino una muestra con cierta estructura probabilística. El objetivo del modelo
muestral consiste en relacionar los datos observados con el modelo de probabilidad. Al reunir todos
los resultados principales de las cinco secciones previas, se está en la capacidad de de�nir un modelo
estadístico genérico simple como:
1. Modelo de Probabilidad: Ψ = {f(y;θ),θ ∈ Θ, y ∈ R},
2. Modelo Muestral: Y = (Y1, Y2, · · · , Yn) es una muestra aleatoria.
La noción de modelo estadístico constituye una contribución básica de la teoría de la probabilidad a la
teoría de la inferencia estadística. Todas las formas de la inferencia estadística paramétrica presumen un
modelo estadístico particular. Un ejemplo particular de un modelo estadístico simple bastante conocido
es el modelo Normal simple, el cual viene dado por:
1. Modelo de Probabilidad Normal Univariante:
ψ =
{
f(y;θ) =
1
σ
√
2π
exp
{
−(y − µ)
2
2σ2
}
,θ = (µ, σ2) ∈ R×R+, y ∈ R
}
,
2. Modelo Muestral: Y es una muestra aleatoria, es decir:
Y := (Y1, Y2, · · · , Yn).
2.1.4.2. Algunos Otros Modelos de Probabilidad
Para el desarrollo de los objetivos de la actual investigación resulta interesante considerar otras
familias de distribuciones que dependen de sus parámetros, es decir, son familias paramétricas de
distribuciones, una de las cuales será esencial en la presentación posterior de esta investigación.
CAPÍTULO 2. MARCO TEÓRICO 25
1. Distribución Normal Multidimensional. En el caso multidimensional, el símbolo Φ denota al
modelo de probabilidad normal en Rn con el vector de medias µ = (µ1, · · · , µn) y matriz de
varianzas y covarianzas Σ. Si Σ−1 es la inversa de la matriz de varianzas y covarianzas (en caso
de que exista), entonces el modelo viene dado por:
Φ =
{
f(y;θ) = |2πΣ|−1/2exp
{
−(y − µ)
′Σ−1(y − µ)
2
}
,θ = (µ,Σ) ∈ Rp,y ∈ Rn
}
,
donde p considera representa el número total de parámetros asociados al vector de medias
y la matriz de varianzas y covarianzas y y = (y1, y2, · · · , yn). La distribución multi-normal
anterior con media µ y matriz de covarianzas Σ está relacionada con la distribución normal
estándar multivarianteNn(0; In) mediante la transformación deMahalanobis , de hecho, haciendo
Z = Σ−1/2(Y − µ) se obtiene que
Z ∼ Nn(0; In),
donde 0 representa al vector nulo de medias y In a una matriz identidad de dimensión n× n.
2. Distribución Normal Singular. Suponga que se tiene que el rango de la matriz de varianzas y
covarianzas es k<n , donde n es la dimensión de la variable aleatoria Y . Ahora se de�ne la
densidad (singular) de Y con la ayuda de la g-inversa de Σ, es decir, Σ¯ , mediante
f(y,µ,Σ) =
(2π)−k/2
(λ1 · · ·λk)1/2
exp
{
−(y − µ)
′Σ¯(y − µ)
2
}
.
La matriz Σ¯ es la g-inversa de Σ y (λ1 · · ·λk) son los valores propios no nulos de Σ , Härdle y
Simar,2003.
En el desarrollo de los objetivos de la presente investigación surgen conceptos estadísticos inferenciales
relacionados con la teoría de la estimación y las pruebas de hipótesis, en tal sentido, las siguientes
secciones estarán dedicadas a los conceptos inferenciales ligados de forma congruente con el objeto de
la actual investigación. Entre estos conceptos pudieran destacarse los métodos de estimación mínimo
cuadrática y máximo verosímil así como el enfoque de Neyman y Pearson en las pruebas de hipótesis
estadísticas y los métodos de mayor uso en la obtención de pruebas estadísticas, Spanos (1999).
CAPÍTULO 2. MARCO TEÓRICO 26
2.2. Estimación y Pruebas de Hipótesis
2.2.1. Introduction
La inferencia estadística desde la concepción de Fisher comienza con la postulación a priori de un
modelo estadístico con el que se pretende dar una adecuada descripción probabilística del mecanismo
estocástico que presumiblemente rinde el conjunto de datos bajo estudio. La forma genérica más simple
del modelo estadístico involucra al modelo de probabilidad y al modelo muestral. El responsable del
modelado observa el conjunto de datos y := (y1, y2, · · · , yn) como una realización del mecanismo
estocástico representado por el modelo. En particular, estas observaciones son vistas como valores
especí�cos que toman las variables aleatorias que componen la muestra en cuestión. La muestra, como
un conjunto de variables aleatorias puede considerarse como:
Y (n)(.) : S → X ,
donde X representa al conjunto de todos los valores posibles conocido como espacio muestral. Los datos
observados vistos como una realización muestral se interpretan como un punto perteneciente a este
espacio; uno de los muchos puntos posibles. En esencia, la inferencia estadística constituye un conjunto
de procedimientos (estimación y pruebas de hipótesis) que permiten hacer conclusiones válidas acerca
del mecanismo estocástico subyacente que genera los datos observados, la cual usa el modelo estadístico
postulado en conjunción con la realización muestral.
Antes de entrar a discutir las facetas de la teoría de la estimación y las pruebas de hipótesis en el
contexto clásico es importante de�nir en primer lugar la distribución muestral, con el �n de unir el
modelo de probabilidad y el modelo muestral. La distribución conjunta de las variables aleatorias
(Y1, Y2, · · · , Yn) que conforman la muestra es lo que se conoce como distribución muestral, la cual se
denotará en adelante como:
D(Y1, Y2, · · · , Yn;θ).
En segundo lugar, se combina la información de la distribución muestral con los datos observados para
de�nir la función de verosimilitud, la cual se denotará como:
L(y1, y2, · · · , yn;θ) ∝ D(Y1, Y2, · · · , Yn;θ),
CAPÍTULO 2. MARCO TEÓRICO 27
donde ∝ se lee como �proporcional a�.
Los procedimientos inferenciales tales como la estimación y las pruebas de hipótesis se basan en la
información resumida en D(Y1, Y2, · · · , Yn;θ), por lo que lo apropiado de estos procedimientos depende
crucialmente de la validez de los supuestos del modelo estadístico postulado. En casos donde estos
supuestos no se cumplen para un conjunto de datos en particular, los resultados inferenciales conducirán
tanto a resultados inadecuados como a una mala discusión de los mismos.
Habiendo introducido los conceptos básicos de la propuesta clásica, se dará también una introducción
a dos de las facetas principales de la inferencia estadística, a saber, la estimación y las pruebas de
hipótesis.
Estimación En el contexto del modelo estadístico postulado, la información de los datos viene
en la forma de un valor particular de Y ∈ X , y sin pérdida de la generalidad, lo que se busca es un valor
de θ ∈ Θ el cual es de alguna mejor manera soportado por la realización muestral. Para considerar el
hecho de que esta realización muestral solo representa un punto en X , resulta conveniente de�nir una
regla que facilita la elección del valor más representativo de θ ∈ Θ como un mapeo de X a Θ tal como:
h(.) : X → Θ.
Este mapeo, denotado por θ̂ = h(Y1, Y2, · · · , Yn) es conocido como estimador de θ. El valor particular
tomado por este estimador basado en la realización muestral es conocido como estimación, es decir:
θ̂ = h(y).
Es importante resaltar que el símbolo θ̂ denota tanto al estimador como la estimación, por lo que
cuando se use sin la expresión dellado derecho de la ecuación anterior debe considerarse su signi�cado
de acuerdo al contexto.
Como se pude notar, la interpretación de los datos observados como una de las muchas realizaciones
diferentes de la muestra, la cual se asume sea representativa del mecanismo que rinde la muestra, hace
posible ir más allá del simple hecho de tener los datos a la mano, además, se pueden hacer conclusiones
del mismo mecanismo que los genera. Esto se debe a que una vez que se tiene la estimación, el
CAPÍTULO 2. MARCO TEÓRICO 28
mecanismo especi�cado por el modelo estadístico seleccionado a priori se convierte en su descripción
idealizada del fenómeno en cuestión.
Pruebas de Hipótesis Otra forma de inferencia tiene que ver con las pruebas de hipótesis
de interés acerca de un parámetro o vector de parámetros. Cada hipótesis de�ne un subconjunto del
espacio de parámetros, y la idea del contraste de hipótesis consiste en desarrollar un test que permita
decidir a cual subconjunto del espacio de las parámetros pertenece el verdadero valor del parámetro,
es decir, si Θ0 ∈ Θ es soportado por los datos, en este sentido, una opción para para tomar la decisión
involucra el uso de una regla de decisión tal como la que desarrollaron Neyman y Pearson. Sin pérdida
de la generalidad respecto a la dimensión del parámetro desconocido, esta regla permite decidir si la
realización muestral conduce a la decisión Θ ∈ Θ0 o Θ ∈ Θ1 := Θ−Θ0. En términos de las observaciones
y del espacio de los parámetros esto equivale a especi�car un mapeo ν(.) que divida el espacio de las
observaciones X en dos subconjuntos C0 y C1 correspondiente a Θ0 y Θ1 respectivamente. El mapeo
ν(.) es también una función de la muestra Y y de este modo cualquier declaración probabilística
relativa a las hipótesis en cuestión se basará en la distribución muestral. Dado que no es posible estar
seguro de que la decisión tomada sobre la base de una muestra particular es correcta, sería deseable
hacer declaraciones probabilísticas basadas en una sucesión de ensayos con el �n de aceptar o no la
hipótesis en cuestión con cierto nivel de probabilidad.
Antes de iniciar de manera más explícita las secciones de estimación y prueba, resulta conveniente
desarrollar algunos aspectos teóricos relacionados con las distribuciones muestrales, en tal sentido, en
el siguiente parágrafo se de�ne la distribución muestral, la cual será bastante útil en el contexto de la
teoría de la estimación y las pruebas de hipótesis.
Distribución Muestral La di�cultad al establecer la distribución muestral es una de las
facetas básicas de la inferencia estadística. Esta di�cultad incluye la deducción matemática de la
naturaleza exacta de la distribución de los parámetros estimados en muestras aleatorias. Por de�nición,
un estimador es solo una función de variables aleatorias que componen la muestra. En teoría esta
distribución puede obtenerse usando la distribución conjunta D(y1, y2, · · · , yn;θ) por medio de la
CAPÍTULO 2. MARCO TEÓRICO 29
siguiente relación:
F (θ̂; y) = P (h(Y1, Y2, · · · , Yn) ≤ θ) =
∫
· · ·
∫
N
D(y1, y2, · · · , yn;θ)dy1 · · · dyn, (2.14)
dondeN representa a la región de integración y viene dada por {(y1, y2, · · · , yn) : h(y1, y2, · · · , yn) ≤ θ}.
La distribución del estadístico h(Y ) es conocida como la distribución muestral.
2.2.2. Estimación: Propiedades Asintóticas de los Estimadores
2.2.2.1. Introducción
De�nir estimadores no resulta difícil, sin embargo, surgen problemas al seleccionar el mejor entre
todos estos estimadores. Dado que los estimadores son función de la muestra (variables aleatorias),
ellos son en sí mismos variables aleatorias, por lo que cualquier discusión sobre el mejor estimador
debe estar relacionado a su distribución. Un estimador �ideal� es aquel que toma un solo valor con
probabilidad 1, independientemente de la realización muestral. Sin embargo, no es posible obtener un
estimador ideal en muestras �nitas (ver Spanos, 1999, capítulo 12), por lo que sería interesante para
quien modela, disponer de un estimador que alcance esta forma ideal cuando el tamaño de muestra
crece al in�nito, es decir, estimadores cuya distribución muestral se aproxime a la distribución muestral
ideal en algún sentido probabilístico cuando n→∞.
El sentido probabilístico viene dado en dos versiones: Convergencia en probabilidad y convergencia
casi segura, ambas relacionadas con la Ley de los Grandes Números(LGN ). La Convergencia en
probabilidad asociada con la LGN rinde una propiedad conocida como consistencia. Además, el
Teorema Central del Límite (TCL) puede ser usado frecuentemente para obtener la distribución
muestral de h(Y1, Y2, · · · , Yn) cuando n→∞.
Lo que se necesita conocer de la teoría de muestras grandes para el desarrollo de esta investigación es
capturado principalmente por el comportamiento de la media muestral cuando la muestra llega a ser
grande. Los teoremas listados en esta sección son su�cientes para la teoría de la verosimilitud en este
contexto. Si se desea probar alguna extensión teórica de algún resultado poco común es importante
reconocer dos tipos de resultados:
CAPÍTULO 2. MARCO TEÓRICO 30
Los resultados de primer orden que capturan la magnitud de una estimación. La base de estos
resultados radica en la ley de los grandes números y en particular se usará el concepto de
convergencia en probabilidad.
Los resultados de segundo orden que tratan con la variabilidad o la distribución de un estimador.
Para este caso se cuenta con el teorema del límite central.
Ley de los Grandes Números. Teniendo un comportamiento de primer orden, es de esperar
intuitivamente que Ȳ (media muestral) llegue a ser cercana al verdadero valor de la media µ, lo cual
puede demostrarse fácilmente como sigue. Sea Y1, · · · , Yn una muestra iid de una población con media
µ y varianza σ2. Utilizando la desigualdad de Chebyshev, para cualquier � > 0,
P
(∣∣Ȳ − µ∣∣ > �) ≤ var(Ȳ )
�2
=
σ2
�2n
→ 0
cuando n tiende al in�nito. Esto se resume en la expresión: La media muestral converge en probabilidad
a la media real µ, o
Ȳ
p→ µ.
El resultado anterior es conocido como Ley Débil de los Grandes Números(LDGN ). Este resultado está
lejos del conocido como Ley Fuerte de los Grandes Números(LFGN ), la cual formula que
P
(∣∣Ȳ − µ∣∣→ 0) = 1,
siempre y cuando µ exista. Esto signi�ca que Ȳ está garantizada con probabilidad 1 de que converge a µ
en el sentido numérico usual; de aquí que resulte correcto pensar que una media muestral observada sea
numéricamente cercana al verdadero valor µ; esto precisamente no está garantizado por la convergencia
en probabilidad. Este modo de convergencia es llamado convergencia casi segura y se denota como
Ȳ
c.s.→ µ.
En resumen, pudiera interpretase la Ley Débil como un teorema frecuentista, es decir, si se repite un
experimento un gran número de veces, cada vez que se calcula la media muestral, una gran proporción
CAPÍTULO 2. MARCO TEÓRICO 31
de estas está cercano al verdadero valor de la media. La declaración �la media muestral está cerca al
verdadero valor de la media� no aplica a una realización en particular a diferencia de la Ley Fuerte
que trata con una sola realización de los datos.
Teorema del Límite Central. En inferencia estadística no es su�ciente la propiedad de primer
orden dada en la LDGN, de hecho es necesario conocer la propiedad de segundo orden, es decir, la
variabilidad de la media Ȳ alrededor de µ, la cual viene dada por el Teorema del Límite Central (TCL):
Si Y1, · · · , Yn es una muestra iid de una población con media µ y varianza σ2, entonces
√
n
(
Ȳ − µ
) d→ N (0;σ2),
donde
d→ se lee como �converge en distribución� y N(; ) se re�ere a la distribución Normal. Es
sorprendente que solamente µ y σ2 importen en la distribución asintótica de Ȳ y no la simetría ni
la curtosis de la distribución, estas características sin embargo, determinan cuan rápido la distribución
de Ȳ converge a la distribución normal, lo cual se denota

Continuar navegando

Materiales relacionados

5 pag.
Análise do Comportamento do Péndulo Simples

Universidade de Vassouras

User badge image

DAVID ALEJANDRO BELTRAN CIFUENTES

3 pag.
taller ingeco (3)

Universidade de Vassouras

User badge image

DAVID ALEJANDRO BELTRAN CIFUENTES

14 pag.
CARACTERÍSTICAS DE LA EDUCACIÓN PREESCOLAR

Corporación Educativa Para El Futuro Sinfronteras S.A.S

User badge image

Luz Marina Ochoa

3 pag.
tp 1 Linguistica

UNIP

User badge image

Belén Caballero