Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
1 Clase de Estimación de parámetros Estadística Aplicada a la Psicología y Psicoestadística Descriptiva Prof. Tit. Dra. Mariela Ventura Año 2017 Introducción El uso principal de la inferencia estadística en la investigación empírica, es lograr conocimiento de una gran clase de unidades estadísticas o población (seres humanos, plantas, parcelas de tierra, tornillos, etc.), a partir de un número relativamente pequeño de los mismos elementos de las muestras. Es decir, conocer parámetros a partir de los estadísticos de las muestras. Hemos dicho que los métodos de inferencia estadística emplean el razonamiento inductivo, razonamiento de lo particular a lo general y de lo observado a lo no observado, de la muestra a la población. Los valores de medidas descriptivas (media, desviación típica, variancia, r de Pearson, proporción, etc.) calculadas para las poblaciones, se llaman parámetros. Para las muestras, estas mismas medidas descriptivas se llaman estadísticos. Un parámetro describe una población de la misma manera que un estadístico describe a una muestra. Un estadísticocalculadoen una muestra es un estimador del parámetro en la población de la cual se extrajo la muestra.La media calculada en la muestra escogida es un estimador de la media poblacional o verdadera. La Inferencia estadística La teoría clásica de la Inferencia Estadística trata dos cuestiones fundamentales: * Estimar el valor de un parámetro desconocido, por ejemplo µ. Es decir, ¿Cuál es el valor de la media parámetroµ? * Verificar si un determinado valor cualquiera poblacional (µ) es o no igual, o consistente, con cierto valor predeterminado de una muestra (�� ). ¿Es razonable que este valor de la muestra se de en la población? 2 El primero de estos dos procedimientos, de inferir de una muestra a una población, se llama estimación de un parámetro; el segundo, en el que se afirma acerca de un parámetropara una población y se va a una muestra se llama, prueba de una hipótesis. En la Estimación de Parámetros con determinadas técnicas se realiza una predicción sobre cuáles podrían ser los parámetros de la población. En general, se suele preferir realizar una estimación mediante un intervalo, esto es, obtener un intervalo dentro del cual se espera se encuentre el valor real del parámetro con un cierto nivel de confianza, a una estimación puntual. Utilizar un intervalo resulta más informativo, porque proporciona información sobre el posible error de estimación, que está asociado con la amplitud de dicho intervalo. Se establece con un determinado nivel de confianza. El nivel de confianzaes la probabilidad de que a priori el verdadero valor del parámetro quede contenido en el intervalo. Entonces, el proceso inferencial comienza con 1) La selección de una muestra aleatoria, luego de definir la población con un parámetro desconocido. 2) Encontrar un estimador del parámetro, su distribución muestral teórica y su deviación típica. 3) Luego se obtienen los datos 4) Se calcula el estadístico – estimación- a partir del cual se realizará la inferencia. 5) Hacer un informe con los resultados y su error muestral. Una vez calculado el estadístico, comienza el proceso de estimación. En este proceso -de estimación de parámetros- intervienen tres distribuciones: 1) La distribución muestral empírica y conocida, 2) La distribución de muestreo del estadístico (teórica) y 3) La distribución poblacional (generalmente desconocida e hipotética). Estimador y estimación Un estimador es un estadístico. 3 Que sea un estadístico significa que es una función de la muestra usada para estimar un parámetro desconocido de la población. Por ejemplo,si en un estudio socio demográfico se desea conocer el salario medio (el parámetro desconocido) se recogerán observaciones del salario en distintos grupos al azar de una comunidad (la muestra) y la media aritmética de las observaciones puede utilizarse como estimador del salario medio. Un estimador es la regla usada para obtener estimaciones:puede ser la media que es la suma de los X/n o la desviación estándar que es la raíz cuadrada del promedio de los desvíos. Como vimos antes, un estimador proporciona dos modos de obtener estimaciones: puntual y por intervalos. El estimador nos da alguna información respecto del parámetro, o sea una estimación. Por ejemplo, la media de la muestra, , es un estimador de la media µ en la población. Para cada parámetro pueden existir varios estimadores diferentes. En general, escogeremos el estimador que posea mejores propiedades que los restantes, como insesgadez, eficiencia, convergencia y robustez o consistencia. ¿Cómo debe ser la muestra? Para que una muestra sirva adecuadamente como base para obtener estimadores de parámetros poblacionales, debe ser representativa de la población. No solo se debe pensar en el tamaño de la muestra sino asegurarse estadísticamente su calidad. Es decir, que esa muestra represente verdaderamente a la población hacia la cual se extienden los resultados. Sabemos que un método de muestreo aleatorio asegura que la muestra elegida sea representativa de la población y que el proceso sea adecuado. Que sea representativa, significa que la información proporcionada por una muestra será en mayor o menor grado, un reflejo de la información contenida en la población. Por lo tanto podemos servirnos de las muestras para hacer inferencias sobre la población. El muestreo al azar de una población producirá muestras que -"a la larga”- son representativas de la población. Si una muestra se extrae aleatoriamente, es representativa de la población en todos los aspectos, y el estadístico diferirá del parámetro solo por azar. 4 Otro rasgo importante de una muestra al azar es el poder estimar el grado de error debido al azar (error de muestreo). Distribución muestral del estadístico Un parámetro como vimos, es un valor poblacional único, constante, que en general se desconoce. Para determinar su valor exacto deberíamos realizar observaciones en todos los elementos de la población y esto, pocas veces ocurre. El costo, y el esfuerzo que supondría sobre todo en poblaciones numerosas nos obligan a establecer inferencias de los valores del conjunto total a partir de cifras que se basan sólo en muestras de este conjunto. Gracias a la distribución muestral de un estadísticoes posible realizar esta inferencia si no podemos acceder a toda la población. La distribución de muestreo es una distribución teórica probabilística formada por todos los valores que puede asumir un estadístico (que hemos dicho, es una variable aleatoria) a partir de todas las muestras aleatorias de tamaño n que es posible extraer de una población (N) y que le asigna una probabilidad concreta de ocurrencia a cada uno de ellos. La distribución de muestreo de un estadístico o distribución muestral de un estadístico en general, nos indica: 1) Todos los valores que un estadístico puede aceptar. 2) La probabilidad de obtener cada valor, bajo el supuesto de que éstos sean obtenidos solo por azar. Todo valor estadístico tiene una distribución muestral (la media, la mediana, la desviación estándar, la diferencias entre medias de una misma población, una proporción, la correlación, etc.). Nosotros veremos en esta materia, la distribución muestral de la media, ya que lo que estimaremos es la media parámetro o poblacional (µ), así como la de diferencia de medias. No es la misma la distribución muestral de la media, que de la mediana como podemos ver en estos gráficos. Vamos a ver cómo utilizar estas distribuciones para hacer inferencias estadísticas con una sola observación o medida estadística. Nos permite 5 evaluarel conocimiento que tenemos sobre la media de la muestra para estimar la media de la población.Esta puede determinarse de manera empírica y teórica Para entender lo que significa una distribución muestral y sus propiedades la vamos a obtener primero de manera empírica, en ejemplo ficticio e hipotético, ya que la población estará formada por 3 elementos, es decir, N=3. Si calculáramos la media de la población o parámetro (µ) que consta de 3 datos y su varianza esto sería sencillo. N=3 con tres valores 1,2, y 3 Datos: 1; 2; 3 µ=6/3=2 σ2=2/3=0,66 σ= 66,0 =0,81 Ahora, si extraemos de esa población (N=3) muestras de tamaño n=2, tendremos las siguientes combinaciones posibles de muestras, y si luego calculamos la media para cada una de ellas, son nueve los posibles valores del estadístico de las muestras que se pueden obtener (en este caso, las medias): X _ 1-1; 1 1-2; 1,5 1-3; 2 2-1; 1,5 2-2; 2 2-3; 2,5 3-1; 2 3-2; 2,5 3-3 3 Valores de las muestras 6 Esta tabla nos muestra las medias de las distintas muestras. Podemos ver las veces que las mismas se repiten. Es decir construir un cuadro de frecuencias. Ahora podemos construir la distribución de probabilidad de esos datos. Es decir, la distribución de muestreo de medias en la que, en la tercera columna se adjunta la probabilidad asociada de ocurrencia de cada uno de esos valores o estadísticos, como vemos en la siguiente: X _ F P Xf _ . 1 1 0.11 1 1,5 2 0.22 3 2 3 0.33 6 2,5 2 0.22 5 3 1 0.11 3 N 9 1.00 18 Esta distribución de probabilidad muestra que el valor más probable es 2 y los menos probables 1 y 3. Una de las características o propiedades que se desprende de esto es que: µ X _ =18/9=2= µ La media de la distribución de muestreo de medias, es igual a la media parámetro, µ. Por otra parte, σ2 X _ =3/9=0,33 σ X _ = 33,0 0,57 Observamos que σ2 X _ = σ2/n, de modo que σ= σ/ n σ2/n= 0,66/2=0,33 σ= σ/ n =0,57 A través de este ejemplo de tres casos hemos podido demostrar dos características importantes de la distribución muestral de medias: 1) La media de la distribución de muestreo de medias es igual a la media parámetro µ X _ =µ 2) La varianza de cociente entre la varianza y n. σ2 X _ = σ2/n Pero a medida que las poblaciones y las muestras incluyen mayor número de casos, el procedimiento realizado anteriormente se complica. Entonces, ya no se hace posible calcular empíricamente la distribución de muestreo de un conjunto de datos numerosos. Por ello, recurrimos entonces a la estadística teórica, a partir de algunos teoremas matemáticos útiles como el Ley de los Grandes Números 1) Teorema del límite central Los estadísticos han demostrado que si tenemos una pobla observaciones se distribuyen normalmente (µ; σ numerosas muestras del mismo tamaño n al azar, la distribución muestral de medias es una curva normal con media µ por lo tanto la desviación estándar (que se llama error estándar) es /√n. Esto es lo que dice lo que se suele llamar central del límite “Si se sacan repetidas muestras de tamaño n de una población con media µ y variancia σ2, la distribución muestral de las medias será normal con media µ y variancia σ X _ 2 igual a σ X _ =σ X _ /√n ”. 7 La media de la distribución de muestreo de medias es igual a la media La varianza de la distribución de muestreo de medias es igual al cociente entre la varianza y n. /n Pero a medida que las poblaciones y las muestras incluyen mayor número de casos, el procedimiento realizado anteriormente se Entonces, ya no se hace posible calcular empíricamente la distribución de muestreo de un conjunto de datos numerosos. Por ello, recurrimos entonces a la estadística teórica, a partir de algunos teoremas matemáticos útiles como el Teorema Ley de los Grandes Números. Teorema del límite central Los estadísticos han demostrado que si tenemos una pobla observaciones se distribuyen normalmente (µ; σ numerosas muestras del mismo tamaño n al azar, la distribución muestral de medias es una curva normal con media µ por lo tanto la desviación estándar (que se llama error estándar) es Esto es lo que dice lo que se suele llamar Teorema del límite central o central del límite: repetidas muestras de tamaño n de una población con media µ , la distribución muestral de las medias será normal con media 2=σ X _ 2/n o desviación estándar (que se llama error estándar) /√n ”. La media de la distribución de muestreo de medias es igual a la media la distribución de muestreo de medias es igual al Pero a medida que las poblaciones y las muestras incluyen mayor número de casos, el procedimiento realizado anteriormente se Entonces, ya no se hace posible calcular empíricamente la distribución de muestreo de un conjunto de datos numerosos. Por ello, recurrimos entonces a la estadística teórica, a partir de algunos Teorema del Límite Central y la Los estadísticos han demostrado que si tenemos una población cuyas observaciones se distribuyen normalmente (µ; σ2), si se extraen numerosas muestras del mismo tamaño n al azar, la distribución muestral de medias es una curva normal con media µ X _ y una variancia σ X _ 2=σ X _ 2/n, por lo tanto la desviación estándar (que se llama error estándar) es σ X _ =σ X _ Teorema del límite central o repetidas muestras de tamaño n de una población con media µ , la distribución muestral de las medias será normal con media /n o desviación estándar (que se llama error estándar) 8 La desviación típica de una distribución de muestreo de medias, es una medida del error muestral (error estándar), de las fluctuaciones al azar, es decir en el cálculo de cada media de la muestra. Este error es inversamente proporcional al tamaño de la muestra. Si se aumenta el tamaño de la muestra la dispersión disminuye. Lo simbolizaremos como σ X _ , que es σ X _ /√n. Es decir, que la distribución muestral de medias se asemeja a la distribución normal de probabilidades: Cuanto mayor sea el número de casos más leptocúrtica será la distribución muestral como se ve en la figura: Lo que se puede ver aquí también es que a medida que n aumenta, disminuye la desviación. En efecto, el tamaño muestral (cantidad de casos o n) se encuentra íntimamente relacionado con el error típico de una distribución muestral. Hemos visto que σ2 X _ = σ2/n, lo cual significa que a medida que n va aumentando la varianza de la distribución muestral va disminuyendo. 2) La Ley de los grandes números Ofrece una información adicional este Teorema, y dice que “independientemente de la forma de la distribución de la población, a medida que n aumente, la distribución será normal con media µ y variancia σ2/n. Pero por más maravilloso que sea el Teorema del Límite Central presenta como mínimo dos problemas: 1) Depende de un tamaño muestral muy grande; 2) Para utilizarlo, necesitamos conocer σ, la desviación típica poblacional. Pasaje de la distribución real a una distribución normal (muestras grandes) Recordemos que cuando estudiamos la distribución normal vimos que era posible el pasaje de una distribución real a la distribución normal expresada en términos de puntajes z o puntajes típicos (desvíos reducidos de z), de manera que un valor cualquiera de la variable X (normal) tenía un valor determinado z. z= XX o bien, (valor X respecto a la media) 9 Lo mismo con el estadístico (media de las muestras)= x X (media respecto a la parámetro) Ahora bien, si la media (estadístico) de la muestra es una variable aleatoria, también se distribuye normalmente, y se puede transformarla a la variable tipificada z= µX / σ X _ , la que se distribuirá N (0, 1). Esto significa que podemos utilizar la distribución normal estandarizada para conocer las probabilidades asociadasa los diferentes valores del estadístico X _ . En general, los parámetros son desconocidos, y tenemos que hacer la inferencia para los valores de la población a partir de los datos de la muestra únicamente. 1) Distribución muestral de medias cuando se desconoce σ, las muestras son grandes s y se extraen de manera aleatoria simple Si las muestras son grandes (N≥30 casos) la distribución de muestreo de medias es normal se asemeja a la distribución normal de probabilidades y esa similitud crece a medida que n aumenta (ley de los grandes números) independientemente de la forma de la población; a su vez, s es una buena estimación de σ, y en consecuencia s/ n es una buena estimación del error estándar de la media. Como en este caso se estima σ, el error estándar de la media lo representaremos con sigma con copete σ X _ = s/ n . Ahora bien, la distribución muestral de la medias es distinta para muestras grandes (igual o mayor de 30 casos) o muestras pequeñas (menor de 30). A menudo las muestras son pequeñas y normalmente se desconoce σ. Lo que podemos hacer en este caso, es estimar, usando la desviación típica de la muestra (s). Hemos visto que la distribución de las medias de las muestras no son todas normales, que dependen de su tamaño. En el caso de que las muestras son pequeñas, en lugar de la variable aleatoria � = � � –� � √� . Y definimos una nueva variable aleatoria t. Por ello, en las muestras más pequeñas usamos la distribución t como modelo teórico. � = �� − μ � √��� 10 La distribución muestral de medias tiene la forma de la distribución normal si se extrae de una población normal. Igualmente, si la forma no es normal a medida que la n aumente, la distribución muestral será normal. 1) Distribución muestral de medias cuando se desconoce σ, las muestras son pequeñas y se extraen de manera aleatoria simple Cuando el número de casos es pequeño (n<30 casos), la distribución de muestreo de medias no se asemeja a la curva normal, es más achatada en el medio y más elevada en los extremos y la diferencia es mayor a medida que los casos de la muestra disminuye. En estos casos la distribución de muestreo se distribuye según otro modelo probabilístico que es el de la distribución t de student, introducida por Gosset bajo el seudónimo de student. Comparemos: Z= µX / σ/ n t= µX / Sn/ n -1 Observemos que los numeradores son idénticos pero los denominadores difieren en que en t, la σ es reemplazada por s y n, por n-1. Se puede hacer esa corrección en el cálculo del error o en el de la desviación estándar. Si se hace en uno, no se hace en el otro (n-1). Sabemos que para estimar σ se hace a partir de s de la muestra, y que los desvíos se calculan en relación con la media de la muestra. Debemos tener en cuenta que tenemos n-1 valores que pueden variar libremente para que la suma de los desvíos con respecto a la media sea igual a 0. Esto está relacionado con los grados de libertad (gl). Hay una regla que dice: “Cuando un estadístico se usa para estimar un parámetro, los grados de libertad (libertad de variar) dependen del número de restricciones impuestas sobre las observaciones. Por cada restricción impuesta se pierde un grado de libertad”. La desviación estándar (s) de una muestra es una buena estimación de σ cuando n es grande, no sucede lo mismo cuando n es pequeña, a menos que en el cálculo de s se consideren los grados de libertad (n-1). Del mismo modo para obtener una buena estimación del error estándar de media se consideran los grados de libertad porque s interviene en su fórmula. S X _ =S/ n Si el cálculo ya lo toma en cuenta en la s no se l estándar. Características de la distribución t de Student es un seudónimo que utilizó un inglés llamado Gosset el modelo de la curva de t en 1908, y le puso así famoso estadístico Fisher Es una distribución más chata y aplanada que la distribución normal, más platicúrtica y esto dependerá del tamaño de la muestra. Si n es muy pequeña, la distribución t será más chata. Por lo tanto, hay una distribución t para cada tamaño de muestra. Para usar t debe suponerse siempre que la distribución de la población es normal, especialmente si n es muy pequeño Se trata de una familia de curvas porque hay una distribución t por cada número diferente de grados de libertad. A medida que aumentan los grados de libertad la distribución se asemeja cada vez más a la normal, tal como s observa en el gráfico siguiente: En los problemas, la distribución de t se usa igual que la distribución normal. Así sabemos que en la tabla en la distribución normal, el área central del 95% está entre ±1,96 y la de 99% entre ± 2,58. En la tabla de t e valores son distintos y han sido calculados para los d Libertad (se los busca en tabla de puntajes t) Conociendo estos conceptos ahora podemos ir a la Estimación de Parámetros Estimación de parámetros 11 -1 Si el cálculo ya lo toma en cuenta en la s no se l Características de la distribución t de student Student es un seudónimo que utilizó un inglés llamado Gosset el modelo de la curva de t en 1908, y le puso así famoso estadístico Fisher. Es una distribución más chata y aplanada que la distribución normal, más cúrtica y esto dependerá del tamaño de la muestra. Si n es muy pequeña, la distribución t será más chata. Por lo tanto, hay una distribución t para cada tamaño de muestra. debe suponerse siempre que la distribución de la población es specialmente si n es muy pequeño. Se trata de una familia de curvas porque hay una distribución t por cada número diferente de grados de libertad. A medida que aumentan los grados de libertad la distribución se asemeja cada vez más a la normal, tal como s observa en el gráfico siguiente: En los problemas, la distribución de t se usa igual que la distribución normal. Así sabemos que en la tabla en la distribución normal, el área central del 95% está entre ±1,96 y la de 99% entre ± 2,58. En la tabla de t e valores son distintos y han sido calculados para los d los busca en tabla de puntajes t) Conociendo estos conceptos ahora podemos ir a la Estimación de de parámetros Si el cálculo ya lo toma en cuenta en la s no se lo repite en el error Student es un seudónimo que utilizó un inglés llamado Gossetquien elaboró el modelo de la curva de t en 1908, y le puso así en honor a su maestro, el Es una distribución más chata y aplanada que la distribución normal, más cúrtica y esto dependerá del tamaño de la muestra. Si n es muy pequeña, la distribución t será más chata. Por lo tanto, hay una distribución t debe suponerse siempre que la distribución de la población es Se trata de una familia de curvas porque hay una distribución t por cada número diferente de grados de libertad. A medida que aumentan los grados de libertad la distribución se asemeja cada vez más a la normal, tal como se En los problemas, la distribución de t se usa igual que la distribución normal. Así sabemos que en la tabla en la distribución normal, el área central del 95% está entre ±1,96 y la de 99% entre ± 2,58. En la tabla de t esos valores son distintos y han sido calculados para los distintos Grados de Conociendo estos conceptos ahora podemos ir a la Estimación de 12 Una estimación de parámetros es el procedimiento utilizado para conocer las características de un parámetro poblacional, a partir del conocimiento de la muestra. Tenemos dos tipos de estimación de parámetros: 1) Estimación puntual Constituye la más simple de las inferencias estadísticas. Consiste en asignar directamente un valor muestral concreto –estadístico- al parámetro poblacional que se desea estimar. Esuno de los métodos de estimación más simples ideado por Pearson. Un estimador puntual es un único punto o valor, el cual se considera va a estimar a un parámetro. La expresión E ( ) =me sugiere que ese, un único valor de es un estimador puntual insesgadoo no viciado de µ. Para ejemplificar lo anterior, supongamos que evaluadores externos en una universidad están interesados en conocer el CI promedio de los profesores. Se toma la muestra aleatoria y el promedio es de 135. El estimado sería entonces 135. El valor de 135 se llama estimado puntual porque utiliza solo un valor para la estimación. Si en cambio le preguntáramos a estos evaluadores si creen que la media verdadera es de 135, lo más seguro es que dirían que no. entonces, ¿cuán cerca está 135 de la media poblacional? El problema con la estimación puntual es que dado un parámetro concreto siempre es posible disponer de más de un estadístico diferente para efectuar una estimación del mismo. Y no hay una forma natural de determinar cuál de ellos es el ideal para efectuar una estimación concreta. Se hace necesario por lo tanto, determinar cuáles son las características de un buen estimador. Estimación por intervalo de confianza Se basa en un rango de valores entre los que se espera se pueda encontrar el verdadero valor del parámetro con una probabilidad alta y conocida. Un estimador por intervalo se construye sobre el concepto de un estimador puntual, pero además, proporciona algún grado de exactitud del estimador. Y se estima con un error determinado. Es decir que 13 el nivel de confianza es la probabilidad de que el parámetro a estimar se encuentre en el intervalo de confianza.p= 1 - α El nivel de significación se designa mediante α. La construcción de este tipo de intervalos sólo cabe para las muestras probabilísticas. Las distintas fórmulas del error estándar según el diseño de la muestra sirven como poderosos instrumentos para establecer estimaciones por intervalo de confianza. Convencionalmente suelen utilizarse intervalos que tienen un nivel de confianza de 0,95 o de 0,99. Como vimos, el tamaño del intervalo está controlado por el nivel de confianza 1-α (es como el radio que establezco en la diana) y el tamaño de la muestra (n). Como ya dijimos el estadístico �� solo tiene una distribución aproximadamente normal cuando se calcula utilizando una muestra muy grande (30 o más).Para muestras más pequeñas, se va a utilizar la distribución t de student. Ya dijimos que la distribución t es más dispersa que la normal y que la cantidad de dispersión depende del tamaño de la muestra. Gosset calculó tablas de la distribución t para diferentes tamaños muestrales, donde encontramos también los valores críticos de acuerdo a los Gl y el nivel de confianza. Como la curva de t es más plana que la normal, el valor de t que delimita se encuentra más lejos que 0 o que z0,025. Cuanto más grados de libertad, más se aproxima al valor crítico de z para el mismo nivel de confianza. Si hablamos con exactitud, la derivación de la distribución t depende de la presunción de que la muestra era de una población normal, pero incluso dan buenos resultados cuando la forma de la distribución poblacional no es muy normal. 14 Propiedades de un buen estimador Para que un estadístico pueda ser considerado un buen estimador debe reunir determinadas propiedades, entre ellas: 1. Debe ser insesgado Parece razonable pensar que un buen estimador debe cumplir como primera propiedad la de ofrecer estimaciones correctas. Podemos esperar de un buen estimador que ofrezca al menos, como promedio, estimaciones correctas. A esta propiedad de obtener como promedio estimaciones correctas, se le llama carencia de sesgo. Un estimador es insesgado si su valor esperado coincide con el parámetro que estima. Es decir, un estimador es insesgado cuando el valor de la media de la distribución muestral del estadístico es exactamente igual al valor del parámetro por estimar. Por ejemplo, es un estimador insesgado de µ porque µ =µ 2. Debe ser eficiente Un estimador es tanto o más eficiente cuanto menor es su varianza. Supongamos que disponemos de dos estadísticos (la media estimador 1, y la mediana estimador 2, por ejemplo) para estimar la media poblacional. Decimos que el estimador 1 es más eficiente que el 2 si la varianza del 1 es menor que la del 2. Una mayor eficiencia, por lo tanto indica que un estadístico varía menos de muestra en muestra por lo que las estimaciones que se pueden hacer con él serán más precisas que las efectuadas con un estimador menos eficiente. Lo cierto es que si un estimador insesgado, ofrece en promedio estimaciones correctas si ese estimador no es eficiente (es decir, si su varianza es muy grande) nos encontraremos que muchas de esas X _ X _ Tirador eficiente pero sesgado Tirador insesgado y eficiente 15 estimaciones están muy por encima del verdadero valor, y otras muy por debajo. Aunque se estén contrarrestando entre unas y otras para ofrecer una estimación promedio correcta, podríamos estar cometiendo un error muy grande al usar una de esas estimaciones. De ahí la importancia de que un buen estimador debe ser además de insesgado, eficiente. La media es un estimador es un estimador insesgado y eficiente de la media parámetro, más que la mediana (insesgada, pero no eficiente). Tiene otras propiedades que se deben dar como la consistencia y la suficiencia, pero solo veremos las dos anteriores que son las más importantes. Estimación de µ por intervalos de confianza Para poder estimar la media de la población µ debemos especificar un intervalo dentro del cual podemos afirmar con cierto grado de confianza conocido que está la media de la población. Definamos entonces un intervalo de confianza como un rango de valores que es probable que contenga el valor poblacional; en tanto que los límites de confianza son los valores que delimitan el intervalo de confianza. Llamaremos coeficiente de confianza o nivel de confianza a la probabilidad asociada al mismo. Llamaremos límites de confianza a los dos valores extremos del intervalo. Vamos a ver cómo la distribución muestral de un estimador (en este caso la media) nos permite determinar la amplitud del intervalo de confianza o confidencial y el correspondiente coeficiente confidencial o “nivel de confianza” como también se lo suele llamar. Si tenemos la media de la muestra y queremos estimar, a partir de ella, la media parámetro µ, usaremos el error estándar de la distribución de muestreo de medias, nos fijamos un nivel de significación α, o sea un riesgo máximo en la estimación (0,05 o 0,01), y usaremos la siguiente fórmula siempre y cuando las muestras sean grandes: n s zX . 1-α= p (µ+ zα/2. σ 2/n< X < µ+ -zα/2. σ 2/n) Podemos ser más exactos y definir los intervalos con un grado determinado de confianza (95% y 99%). Un intervalo de confianza del 95 % es uno tal que 16 hay una probabilidad del 95 % que contenga a la media parámetro y 5 % de error. Uno de 99% goza de una probabilidad de 0,99 y 1% de error. Aquí vemos los intervalos cuyos límites pueden quedar afuera. Entonces, una vez que ya hemos calculado el estadístico (la media, por ejemplo) comenzamos el proceso de estimación del parámetro (esto es, la media poblacional). Para ello nos basaremos en tres distribuciones: la de la muestra , que es empírica; la de la población que es generalmente desconocida e hipotética y la distribución muestral del estadístico que es probabilística, y que es la que nos permite el pasaje de la muestra a la población al permitirnos estimar el parámetro. Habrá siempre una discrepancia entre el valor muestral y el valor del parámetro que se desea estimar. Llamaremos error muestral a esa discrepancia. En la estimación puntual no hay forma de conocer el valor del error por lo que no sabemos si el error que estamos cometiendo es grande o pequeño. Y sin embargo, cualquier investigador necesitaconocer la precisión con la que está trabajando, y por lo tanto, el error. Este tema puede resolverse procediendo a través de la estimación por intervalos. Procediendo de esta forma es posible conocer el error muestral máximo (Emáx) cometido en la estimación, es decir, el tamaño de la distancia máxima que con una determinada probabilidad esperamos exista entre el verdadero valor del parámetro estimado y el valor del estadístico utilizado como estimador. Entonces, en la estimación por intervalos, se trata de obtener dos valores que permitan afirmar que existe una alta probabilidad de que el verdadero valor del parámetro se encuentra entre esos dos valores. 17 Para obtener esos valores, a un estimador puntual (el estadístico de la muestra) se le suma y se le resta una cantidad (Emáx) relacionada con el error típico de su distribución muestral. Por lo tanto para realizar la estimación por intervalos necesitamos utilizar estimadores con distribución muestral conocida. Errores que se pueden cometer en la estimación de parámetros: Hay dos tipos de errores que se pueden cometer al estimar un intervalo de confianza: debidos al azar y no debidos al azar Errores debidos al azar Sabemos que ningún subconjunto de datos mide exactamente al conjunto total del que forma parte. El grado de error al que se incurre al extender los resultados de una muestra probabilística a la población se puede establecer a partir del error estándar. Este error mide las variaciones debidas al azar, es decir, los errores de muestreo que son los errores de muestra en muestra o casuales (que son los errores que eventualmente pueden afectar las mediciones). Por supuesto que cuanto menor es su valor mayor es la precisión en la inferencia, de allí la importancia en determinarlo. Errores no debidos al azar Tanto en un censo cuando se examina la población completa como en un muestreo cuando se toma una porción de la población pueden deslizarse errores no casuales, asociados con que la población no está bien definida, hubo fraude, cansancio, etc. El error estándar no descubre este tipo de descuidos no accidentales como tampoco el derivado de una selección inapropiada de las muestras. Si no se tienen en cuenta estos errores puede que hagamos un esfuerzo considerable incluso económico para conformar muestras más grandes, y esto no sirva de nada. Pasos para calcular el intervalo de confianza 1) Cuando se desconoce sigma, muestras grandes (≥ 30 casos) *Estimación por intervalo de confianza: el valor de µ se encuentra en algún punto de un intervalo de valores con una probabilidad alta y conocida. Cuando hacemos este tipo de razonamientos, suponemos que la distribución de la media muestral es aproximadamente normal (porque es grande, mayor 18 de 30 casos) con media µ y desviación típica σ= � √� , que recibe el nombre de error estándar, o error típico de muestreo. Como no conocemos el valor de sigma, lo sustituimos por s (es decir, la desviación típica o estándar de la muestra elegida). Entonces tenemos un sigma estimado, no conocido, que lo nombramos con el término ���� = � √� . Pasos Establecer el nivel de confianza (por lo general de 0,95 o de 0,99) Calcular el error estándar estimado (porque no se conoce y se usa s) de la distribución de muestreo de medias, que es igual a s sobre raíz cuadrada de n. Calcular el error estándar de donde eσ =s/√n Determinar el valor de z que delimita el área de la distribución muestral de medias (normal) asociada con la probabilidad del nivel de confianza establecido. Se calcula el error máximo, que es igual a / z/ por el error estándar. Determinar el Li (Límite inferior) que es igual al estadístico menos el error máximo. Determinar el Ls (Límite superior) que es el estadístico más el error máximo. Establecer el intervalo de confianza entre esos dos valores. o µ= ± z. σ/√n Nivel de confianza Z 0,95 ±1,96 0,99 ±2,58 Por ejemplo para construir un intervalo de confianza del 95 %; µ= ±1,96 .σ X _ X _ X _ X _ 19 Veamos un ejemplo, Así supongamos que para una muestra de 100 casos, la media sea de 20 puntos. Como no conocemos el σ de la población, en este caso lo que tenemos es el desvío de la muestra, y hacemos el supuesto que es la mejor estimación posible de la desviación estándar de la población. Usamos, para estimar el error estándar de la distribución de muestreo de medias, la “s” de la muestra que es =5. Entonces σX, que es 5/√100=5/10=0,5 Ahora ya tenemos todos los datos que necesitamos X =20 n=100 s=5 σ X =0,5 Podemos establecer un intervalo de confianza para establecer los límites entre los cuales se encuentra con un cierto grado de probabilidad (en este caso de 0, 95) la media parámetro, dado que sabemos que la distribución muestral de medias es normal. Gráficamente vemos que si el intervalo es del 95%, quedan fuera 5% dividido en 2,5 para cada lado o 0,025. Si se resta el 50% que corresponde a la mitad de la curva, ese segmento de 0,025= 0,475; buscamos esa área en la tabla y corresponde a un z de 1,96. Del otro lado de la curva, lo mismo nada más que el z es negativo, de -1,96. Calculemos los límites entonces: 20 µ = X ±1,96.s/√n µ= X ±1,96. 0, 5= 20±0,98 O sea que la µ se encuentra con un 95% entre los valores 19, 01 y 20, 98 con un 5% de error. Si queremos establecer límites más exactos, por ejemplo, podemos fijar el 99%. Entonces busquemos en la tabla de puntajes z, esto corresponde aun z de 2, 58, y -2,58. Estos valores de z se usan siempre que una muestra sea considerada grande o mayor de 30 casos. µ = X ±2,58.s/√n µ= X ±2,58. 0, 5= 20±1,29 18,71 y 21,29 Concluimos que entre 18,71 y 21,29 se encuentra la media parámetro con un 99% de confianza y 1% de error. 1) Cuando se desconoce σ; n ˂ 30 y el muestreo es aleatorio simple *Estimación por intervalo de confianza: rango de valores entre los que probablemente se encuentra µ. Pasos Establecer el nivel de confianza 1-α (por lo general de 0,95 o de 0,99). Para el nivel de confianza establecido y gl=n-1; determinar el valor absoluto de t (ver en Tabla de Puntajes t). Calcular el error estándar de la distribución de muestreo de la media (estadísticos): eσ =s/√n-1 Calcular el error máximo que es /t/. eσ Establecer el Li (Límite inferior): X -t .s/√n1-1 Establecer el Ls (Límite superior): X +t .s/√n1-1 Valores críticos de t asociado con la probabilidad del nivel de confianza y de acuerdo a los gl=n-1 (se busca en Tabla de puntajes t) µ= ±t.s/√n-1 Veamos un ejemplo, X _ 21 Supongamos un caso con n=16; X =24; s=8. Los grados de libertad son n-1=16-1=15; tendremos que la verdadera media con una probabilidad del 95% estará entre 24±2,13. 116 8 24±4,41, o sea, Entre 19,58 y 28,41 se encuentra la media parámetro con una probabilidad de certeza del 95% y un riesgo de error de 5%. Entre 17,89 y 30,11 se encuentra la media de la población o parámetro con un 95 % de confianza y un 5 % de error. Tabla de puntajes t Gl Probabilidad 0,10 0,05 0,02 0,01 … … 25 2,06 2,79 … …. En esa tabla se ubican para determinados grados de libertad asociados con el tamaño de la muestra. El valor aparece positivo, pero sabemos que es el mismo con signo negativo. Para ello, también debemos determinar el nivel de confianza con el que lo haremos. En este caso el IC= µ= ± 2,06.s/√n-1. Veamos un ejemplo: Un estadístico se dice que no es segado o parcial cuando la media de una gran cantidad de valores muestrales por muestreo repetido, se acerca al valor de la población, o sea, al parámetro. Ya vimos que el estadístico de la media de la distribución muestral es iguala la media de la población, es decir, no tiene parcialidad o sesgo, en cambio, el valor de la variancia de X _ 22 una muestra calculada según la fórmula común: s2= n XX )( es una estimación parcial o segada de la variancia de la población. En el caso de que la muestra sea grande no hay problemas, pero en el caso de que la muestra sea pequeña (menor de 30 casos), hay que corregir este sesgo que puede ser muy grande y lo que se hace es dividir en n-1, la fórmula entonces queda: s2= 1 )( n XX , de modo que así tendremos una estimación imparcial de la σ poblacional. El uso de (n-1) para obtener una estimación no sesgada implica el concepto de Grados de Libertad. Si n es el número de las observaciones de la muestra, n-1 es el número de grados de libertad, es decir, la cantidad, de valores de la variable que tenemos libertad para cambiar cuando calculamos los desvíos. Supongamos que tenemos 5 medidas: 10, 14, 6, 5, 5. Su media es 8, luego los desvíos respecto de la media es 2, 6, -2, -3,-3. La suma de los desvíos respecto a la media es 0. En consecuencia, si se conocen 4 cualesquiera de estos desvíos, el desvío restante está determinado. Así 4 de los desvíos pueden variar independientemente y por esto, sus Grados de Libertad son 4; n-1= 5-1=4. Se usa el símbolo gl. El concepto de grados de libertad es simple. El número de grados de libertad es siempre el número de valores que puede variar dadas la cantidad de restricciones impuestas en los datos.
Compartir