Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
INTRODUCCIÓN. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . OBJETIVOS GENERALES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . OBJETIVOS PARTICULARES. . . . . . . . . . . . . . . . . . . . . . . . . . CONCEPTOS BÁSICOS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ESTADÍSTICA DESCRIPTIVA INTRODUCCIÓN. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . RECOLECCIÓN DE DATOS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEORÍA DEL MUESTREO. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TRATAMIENTO DE LOS DATOS. . . . . . . . . . . . . . . . . . . . . . . . TRATAMIENTO POR DATOS AGRUPADOS. . . . . . . . . . . . . . Medidas de posición. . . . . . . . . . . . . . . . . . . . . . . . . Medidas de dispersión. . . . . . . . . . . . . . . . . . . . . . . . Estudio de la forma de la curva. . . . . . . . . . . . . . . . . Estudio de la normalidad de la muestra. . . . . . . . . . . DISTRIBUCIONES BIDIMENSIONALES. . . . . . . . . . . . . . . . . . . . CORRELACIÓN. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . INDEPENDENCIA ESTADÍSTICA. . . . . . . . . . . . . . . . . . . . . REGRESIÓN. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . PROBABILIDAD DEFINICIONES PREVIAS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . DEFINICIONES DE PROBABILIDAD. . . . . . . . . . . . . . . . . . . . . . CÁLCULO DE PROBABILIDAD. . . . . . . . . . . . . . . . . . . . . . . . . PERMUTACIONES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . COMBINACIONES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . PROBABILIDAD CONDICIONAL. . . . . . . . . . . . . . . . . . . . . PROBABILIDAD TOTAL. . . . . . . . . . . . . . . . . . . . . . . . . . . . TEOREMA DE BAYES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . VARIABLES ALEATORIAS. . . . . . . . . . . . . . . . . . . . . . . . . . . . V. A. DISCRETAS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . V. A. CONTINUAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . DISTRIBUCIONES PROBABILÍSTICAS. . . . . . . . . . . . . . . . . . . . DISTRIBUCIONES PROBABILÍSTICAS DISCRETAS. . . . . . . . . DISTRIBUCIONES PROBABILÍSTICAS CONTINUAS. . . . . . . . INFERENCIA ESTADÍSTICA INTRODUCCIÓN. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . LOS ESTIMADORES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ESTIMACIÓN PUNTUAL. . . . . . . . . . . . . . . . . . . . . . . . . . . ESTIMACIÓN POR INTERVALOS. . . . . . . . . . . . . . . . . . . . . PRUEBA DE HIPÓTESIS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ACTIVIDADES ESTADÍSTICA DESCRIPTIVA. . . . . . . . . . . . . . . . . . . . . . . . . . . PROBABILIDAD. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . INFERENCIA ESTADÍSTICA. . . . . . . . . . . . . . . . . . . . . . . . . . . BIBLIOGRAFÍA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Estadística Aplicada Di Paolo, Claudio Javier Índice 2 3 4 5 8 8 8 10 11 14 17 19 21 22 22 24 25 29 30 31 31 32 32 32 32 33 33 34 35 35 37 43 43 43 44 48 51 63 68 74 2 En las Escuelas Técnicas nos ocupamos de formar al alumno íntegra- mente, haciendo énfasis en la prácticas profesionalizantes a partir de un exigente y continuo entrenamiento. Somos productores de resultados y, por sobre todo, de información. Pero más aún, productores de datos; que muchas veces se pierden por no registrarlos. Es allí en donde debemos continuar la labor tan importante, que no sólo culmina en la producción de resultados fruto de la aplicación de las técnicas, sino, también, en darle tratamiento al conjunto de datos producidos, a partir de un correcto registro, para poder intervenir en conclusiones sobre los resultados y poder tomar decisiones que mejoren la calidad de la educación desde el proceso hasta su producto final. Estadística Aplicada Di Paolo, Claudio Javier Introducción 3 El propósito de este curso-taller es implementar un plan estratégico teórico-práctico de técnicas estadísticas, para continuar la labor desarrollada en el campo práctico e incorporarlas en el campo científico- tecnológico (gestión y control de la calidad), valiéndonos de los datos producidos para darles tratamiento, utilizando como soporte los medios informáticos; especialmente las hojas de cálculo, que son versátiles, útiles y fáciles de usar. De esta manera, se desea que el docente se actualice en el ámbito del uso de las nuevas tecnologías como recursos exigentes para la mejora de las prácticas educativas, proyecte un camino de trabajo continuo, incorporando estándares de calidad que puedan ordenar y organizar el trabajo cotidiano, juzgar la eficacia y precisión de los datos experimentales, así como también generar conciencia de que estos juicios pueden perfeccionarse mediante la aplicación de métodos estadísticos. Se pretende motivar a los docentes en el uso de nuevas tecnologías acopladas a equipos de laboratorios y/o taller, para la obtención automática de datos y su posterior análisis, valiéndonos de un conjunto de herramientas estadísticas, que nos permita proyectar un futuro (inferencia), establecer intervalos de confianza (márgenes de aceptabilidad) y acciones correctivas a partir de la detección de errores (planes de contingencia). Estadística Aplicada Di Paolo, Claudio Javier Objetivos Generales 4 Que el participante logre: Analizar y discutir distintos enfoques metodológicos para la enseñanza teórico - práctica de la estadística, en las instituciones educativas. Adoptar una posición crítica, responsable, cooperativa y constructiva en relación al trabajo de campo, de articulación curricular y trabajo en equipo. Conocer la posibilidad de acoplar equipos e instrumentos de medición y ensayo con la informática para el procesamiento automático de los datos. Utilizar las hojas de cálculo para la implementación de técnicas estadísticas. Aplicar el uso de técnicas estadísticas como herramientas de gestión. Mejorar las prácticas educativas. Incorporar estándares de calidad. Contextualizar la práctica profesional con los contenidos de las prácticas curriculares. Estadística Aplicada Di Paolo, Claudio Javier Objetivos Particulares 5 ESTADÍSTICA Muchas son las definiciones propuestas por varios autores; sin ultimar detalles, todos acuerdan en que la Estadística es la ciencia de recolectar datos, describirlos, interpretarlos, analizarlos y emitir conclusiones sobre los resultados. Cualquiera sea el punto de vista, lo fundamental es la importancia científica que tiene la estadística, debido al gran campo de aplicación que posee. La Estadística se divide en dos áreas: Estadística descriptiva: consiste en el proceso de la recolección, clasificación, descripción, representación y análisis de datos a partir de una muestra. Nos permite conocer la realidad de lo ocurrido. Estadística inferencial: consiste en la aplicación de técnicas apoyadas en modelos probabilísticos que a partir de datos muestrales permiten efectuar estimaciones, decisiones, predicciones u otras generalizaciones sobre un conjunto mayor de datos. POBLACIÓN Es la colección (ó conjunto universo) de individuos, objetos o eventos cuyas propiedades serán analizadas. Hay dos tipos de poblaciones: Población finita: es posible enumerar físicamente cada uno de los ele- mentos que la componen. Ej.: Estudio estadístico sobre libros de una biblioteca de una escuela. Población infinita: cuando los elementos que lacomponen son un número ilimitado e imposible de contar. Ej.: La población de todas las personas que podrían tomar ibuprofeno. MUESTRA Es un subconjunto representativo de la población. VARIABLE Característica de interés sobre cada elemento individual de una pobla- ción o muestra. Estadística Aplicada Di Paolo, Claudio Javier Conceptos Básicos 6 TIPOS DE VARIABLES CUANTITATIVAS Cuando representan una medición. Discretas: Sólo pueden tomar valores enteros. Continuas: Pueden tomar cualquier valor real dentro de un intervalo. CUALITATIVAS Cuando representan una cualidad. Escala Nominal: significa asignar arbitrariamente una etiqueta a una variable. Por ej.: Sexo: 0 Femenino 1 Masculino Escala Ordinal: se asignan valores a la variable ordenadamente de manera tal que el mayor se corresponde a la mejor opción. Por ej.: 0 Malo 1 Regular 2 Bueno 3 Muy Bueno 4 Excelente Escala de intervalo: existe un orden entre los valores y además, una noción de distancia. Por ej.: la medición de la temperatura que se puede obtener por un termómetro en grados Fahrenheit. Escala de razón: la magnitud tiene un sentido físico y existe el cero absoluto que se puede asignar a la ausencia de información. Por ej.: la variable edad estudiada en una población. DATO Valor de la variable asociada a un elemento de una población o muestra. Este valor puede ser un número, una palabra o un símbolo. DATOS Conjunto de valores recolectados para la variable de cada uno de los elementos que pertenecen a la muestra. EXPERIMENTO Actividad planeada cuyos resultados producen un conjunto de datos. PARÁMETRO Valor numérico que resume todos los datos de una población. ESTADÍSTICO Valor numérico que resume los datos de una muestra. Estadística Aplicada Di Paolo, Claudio Javier Conceptos Básicos 7 Para interpretar estos conceptos podemos citar como ejemplo el siguiente caso de estudio: Un estudiante del colegio está interesado en averiguar el valor promedio en pesos de los automóviles que pertenecen al cuerpo docente del IPEM XXX de la ciudad de Córdoba. Cada término se identifica en esta situación como: 1 POBLACIÓN: el conjunto de todos los automóviles que pertenecen a todos los miembros del cuerpo docente del IPEM XXX. 2 MUESTRA: es un subconjunto de la población. Por ejemplo podría ser los automóviles de los docentes de todas las divisiones de cuarto año del IPEM XXX. 3 VARIABLE: valor en $ de cada automóvil. 4 DATO: El valor en $ de un automóvil en particular. El automóvil del Profesor Pérez, Juan valuado en $ 25.400. 5 DATOS: Conjunto de valores en $, correspondientes a la muestra obtenida: $ 25.400; $ 12.800; $ 35.600; $ 17.765. 6 EXPERIMENTO: Método aplicado para seleccionar y recolectar los datos correspondientes a los automóviles de la muestra y su valor. 7 PARÁMETRO: valor promedio en $, de los automóviles del cuerpo docente del IPEM XXX. 8 ESTADÍSTICO: Valor promedio en $ de los automóviles, correspon- dientes a los docentes de todas las divisiones de cuarto año del IPEM XXX. Estadística Aplicada Di Paolo, Claudio Javier Conceptos Básicos 8 INTRODUCCIÓN Antes de comenzar a detallar las mediciones y los cálculos que planificamos estudiar, es necesario plantear los diversos métodos que abarca la Teoría del Muestreo, punto de partida para iniciar cualquier estudio estadístico. RECOLECCIÓN DE DATOS Es un proceso complicado y debe realizarse con la mayor cautela y profesionalismo posible. Podemos incluir los siguientes pasos para organizar la recolección: 1 Definir los objetivos del estudio. 2 Definir la variable y la población de interés. 3 Definir los esquemas para recolectar y medir los datos. 4 Determinar las técnicas idóneas para realizar el análisis de datos: descriptivo o inferencial. TEORÍA DEL MUESTREO Método que utilizaremos para la recolección de datos. Es tan o más importante que el desarrollo en sí del estudio; es determinar fehacientemente una "buena" muestra, lo más representativa e insesgada posible que se ajuste a la población, para que las conclusiones e inferencias que se hagan en términos de la población sean "tan buena" como el conjunto de datos que la determinó. MÉTODO DE MUESTREO SESGADO O NO PROBABILÍSTICO Producen valores que difieren sistemáticamente de la población que está siendo muestreada. Existe una intención para seleccionar un dato. Dos métodos de este tipo pueden ser: Muestra por conveniencia: ocurre cuando es posible acceder fácil- mente a los elementos de una población de la que se elige la muestra. Muestra por voluntarios: consta de resultados recolectados a partir de los elementos de la población que por su propia iniciativa eligen contribuir con la información necesaria. MÉTODO DE MUESTREO INSESGADO O PROBABILÍSTICO Es aquel que no presenta sesgo. Cada dato de la población tiene idéntica posibilidad de ser elegido para formar parte de la muestra. Los dos métodos que se utilizan para recolectar datos son los estudios experimentales y los estudios observacionales. Muestra de juicio: las muestras son elegidas con base en el hecho de que son "típicas". Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva 9 Muestra aleatoria o al azar Método al azar simple: este método permite que todos los elementos de la población tenga igual posibilidad de ser incluido en la muestra. Por ej.: se desea seleccionar a 200 alumnos (n) del IPEM XXX cuya matrícula total es 1200 alumnos (N). En este caso la probabilidad de elección de cada alumno, entendiendo a probabilidad como nº de casos favorables divido nº de casos posibles; es: P = n/m P = 200 / 1200 P = 0,17 Método por estratos: para el muestreo estratificado se divide a la población en varios grupos homogéneos que se diferencian unos de otros por características especiales; de manera que cada elemento sólo pueda pertenecer a un grupo. Dentro de este método se encuentra tres casos especiales: 1 Muestras de igual tamaño: Debe seleccionarse igual número de elemento en cada grupo. 2 Muestreo proporcional: El tamaño de elementos por grupo se escoge en forma proporcional al tamaño de la población. 3 Afinación óptima: Este método utiliza la mejor subdivisión posible de una muestra total. Por ej.: en el IPEM XXX de los 1.200 alumnos de matrícula, 800 pertenecen al CBU y 400 al CE. Aplicando el método por estratos, decidimos escoger 60 alumnos de cada grupo, calculamos la probabi- lidad de ocurrir de cada alumno según su ciclo: Alumnos del CBU P = 60 / 800 P = 0,075 Alumnos del CE P = 60 / 400 P = 0,15 De esta manera observamos que los alumnos del CE tienen mayor probabilidad de ser escogido pero que ambos son importantes para nuestro muestreo. Método por conglomerados: existe situaciones en la que no se dispo- ne de elementos agrupados por estratos y que no se puede aplicar el método al azar simple. En estos casos los elementos se encuentran de manera natural agrupados por conglomerados cuyo número si se conoce. Por ej.: la población de un país se distribuye en provincias, los habitantes de una provincia en ciudades, los de una ciudad en barrios,etc. Si se supone que cada uno de estos conglomerados son muestras representa- tivas de la población total, respecto a la variable que se estudia, es posible seleccionar al azar algunos de estos conglomerados y a partir de allí analizar todos sus elementos o una muestra al azar simple. Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva 10 Método de elección sistematizado: una forma práctica para seleccionar los elementos de la muestra es escoger una muestra aplicando un intervalo. Así sistematizamos una selección. El cálculo del intervalo (k) es: k = N (tamaño de la población) / n (tamaño de la muestra). Por ej.: de esta manera, si tenemos necesidad de seleccionar alumnos del IPEM XXX aplicando este método,decimos que 1.200 son los alumnos y 120 es el número de alumnos que deseo elegir; seleccionaré a un alumno por cada intervalo, esto es: k= 1200/120 k= 10; elijo a un alumno por cada 10 alumnos. Nota: Si el estudio lo realizo con la totalidad de los datos, es decir con la población, estoy frente a un censo; caso contrario, si selecciono, esto es aplicando cualquiera de los métodos de muestreo, estoy frente a una muestra representativa de la población. TRATAMIENTO DE LOS DATOS Hay dos maneras de comenzar a tratar los datos, y la que se utilice depende del nº de datos que conforma a la muestra, que llamaremos tamaño de la muestra y la denotaremos por (N). TRATAMIENTO POR DATOS NO AGRUPADOS Estamos frente al caso de trabajar los datos en forma cruda, sin transfor- marlos. Es la forma más aproximada y menos erróneas, pero se la puede emplear siempre que el tamaño de la muestra sea pequeño. Como contrapartida, podemos decir que si el tamaño de la muestra es pequeño, creamos una cierta incertidumbre con respecto a cuan representativo es de la población. TRATAMIENTO POR DATOS AGRUPADOS Es el más utilizado porque se emplea en la mayoría de los casos. Nos detendremos a aplicar las fórmulas, a analizarlas y a programarlas en una planilla de cálculo para poder dejar una plantilla de trabajo fija que nos sirva como herramienta de trabajo para todos los estudios que planteemos realizar. Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva 11 TRATAMIENTO POR DATOS AGRUPADOS Luego de recolectar los datos, que lo dispondremos organizados en columnas en forma desordenada; debemos ordenarlos de menor a mayor. A partir de la clasificación y ordenación de los datos y calculando el rango de la distribución como medida de dispersión absoluta, nos dispondre- mos a agrupar los datos en una Tabla de Distribución de Frecuencias. 1 Determinación de los Intervalos de frecuencia Al resumir gran cantidad de datos es útil distribuirlos en clases. El número de intervalos a utilizar es autónomo, pero existe una manera de calcularlo para guiarse, que es a través de esta fórmula: m = 1 + 3.33 log N ; donde m : número de intervalos; N : tamaño de la muestra. 2 Determinación de la amplitud de clase El rango nos ayuda a determinar la amplitud de clase, llamamos así a la distancia que debe tener cada clase, siendo ésta una medida constante y a partir de la cual podemos construir nuestra Tabla de Distribución de Frecuencias. A = R / m ; donde A: amplitud de clase; R: Rango; m: número de intervalos. 3 Marca de clase ( ) Es el resultado de aplicar la semisuma, promedio o media aritmética entre los límites ficticios o entre los límites reales. Al ser la media aritmética de cada intervalo, lo consideramos como el valor más representativo y el que utilizaremos para determinar los estadísticos a calcular. 4 Frecuencias absolutas ( ) Se determina así a la cantidad de datos que son incluidos en cada clase. 5 Frecuencias absolutas acumuladas ( ) Se determina así a la cantidad de datos acumulados a partir del intervalo inmediato anterior. Se aplica la suma acumulada de cada frecuencia hasta obtener el 100% del tamaño de la muestra. Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva x& in aaf Rango = Dato mayor - dato menor N = Tamaño de la Muestra mM XXR −= 12 6 Frecuencia relativa y frecuencias relativas acumuladas ( ) Se determina así a la proporción de datos representados en cada clase. Se calcula dividiendo la frecuencia absoluta de cada intervalo con respecto al tamaño de la muestra. Su valor acumulativo mayor será el 1 que representa al 100% de la muestra. A partir del número de intervalos, la amplitud y el rango, construiremos la tabla de distribución de frecuencias. (Tabla 1) Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva rf Tabla 1. Tratamiento por Datos Agrupados. Tabla de Distribución de frecuencias. Tema de estudio: Objetivos: Número de intervalo Límite ficticio inferior Límite ficticio superior Límite real inferior Marca de clase Límite real superior Frecuencia absoluta Frecuencia relativa Frecuencia absoluta acumulada ascendente Frecuencia absoluta acumulada descendente Frecuencia relativa acumulada ascendente Frecuencia relativa acumulada descendente ifx ′′ irf>aaf <aaf <raf>rafi inifx′ ix′ ix& ix ′′ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 Dato Mayor: Dato Menor: Rango Tamaño de muestra Cant.de Intervalos Amplitud de clase R= N= m= a= 13 7 Representación gráfica Diagrama de barras o columnas: sistema de ejes de coordenadas; en las abscisas representa intervalos de clase, y en las ordenadas sus corres- pondientes frecuencias absolutas, para una variable cuantitativa continua. Histograma: se construye a partir de la tabla estadística de trata- miento de los datos, representando sobre cada intervalo, un rectángulo que tiene a este segmento como base. El criterio para calcular la altura de cada rectángulo es mantener la proporcionalidad entre las frecuencias absolutas (o relativas) de cada intervalo y el área de los mismos. x: límites ficticios inferiores y superiores; y: frec. absolutas o relativas Polígono de frecuencias: a partir del histograma podemos construir el polígono de frecuencias, que consiste en unir, mediante líneas rectas de puntos, las marcas de clases contiguas de cada intervalo. El primer y el último intervalo, adyacentes a ellos, lo supongo con la misma amplitud y de frecuencia nula para unir la línea de punto (poligonal). Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva 1 2 3 4 5 6 7 8 9 10 11 12 13 14 Intervalos de clase Fr ec ue nc ia s 2 3 4 5 6 7 8 9 1 0 9,5 14,5 19,5 24,5 29,5 34,5 39,5 44,5 49,5 54,5 59,5 64,5 69,5 74,5 79,5 Límites ficticios Polígono de frecuencias Fr ec ue nc ia s 2 3 4 5 6 7 8 9 1 0 // 14 Ojivas: gráfico de una distribución de frecuencias acumuladas (relativa o absoluta) descendente o ascendente. Esta gráfica indica la forma como crece la información a través de los intervalos, se puede utilizar como medición de las variaciones de los grupos. El punto donde se cortan las dos ojivas, es el punto central de la distribución, es decir, la mitad de la información (dato correspondiente con la mediana). 8 Cálculos y análisis estadísticos 8.1 MEDIDAS DE POSICIÓN Medidas de posición CENTRAL Las medidas de centralización son valores que tienden a situarse en el centro del conjunto de datos ordenados según su magnitud. Las medidas de centralización más usadas son: Media aritmética, mediana y moda. Para el cálculo de todas ellas, en el tratamiento por datos agrupados, es utilizada la marca de clase como la unidad más representativa de cada intervalo o clase. Media aritmética o promedio: medida de tendencia central más co- nocida, se puede aplicar a variables de intervalos ya sean discretos o con- tinuos. Esta medida se define como el promedio de los datos en estudio. Cálculo de la media aritmética ( ) Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva x N m i inix X ∑ == 1 .& La sumatoria de todas las marcas de clases por sus respectivas frecuencias absolutas dividido el tamaño de la muestra. O la sumatoria de todas las marcas de clases por sus respectivas frecuencias relativas. Límites ficticios Fr ec ue nc ia s Ab so lu ta s 10 15 20 25 30 35 45 55 50 40 5 0 9,5 14,5 19,5 24,5 29,5 34,5 39,5 44,5 49,5 54,5 59,5 64,5 69,5 74,5 79,5 Frecuencias absolutas acumuladas Ascendentes Frecuencias absolutas acumuladas Descendentes 2 N // X~ 15 Existen 2 formas más para calcular la media que no son comúnmente utilizadas, ellas son: la media geométrica y la media armónica, que simplemente la mencionaremos. Mediana: es la medidade tendencia central que divide a cualquier distribución en dos partes iguales. Esta medida se puede aplicar a variables de intervalos (discretas y continuas) y variables ordinales. La mediana es una serie de datos ordenados en orden de magnitud, es el valor medio si el número de datos es impar o bien la media aritmética de los valores medios si el número de datos es par. Cálculo de la mediana ( ) Moda: se define como el valor que presenta la mayor frecuencia, se usa con variables de intervalos nominales y ordinales. Es comúnmente utilizada como una medida de popularidad que refleja la tendencia de una opinión. Cálculo de la moda ( ) Nota: Un estudio puede presentar una moda, si la frecuencia mayor es única, en este caso se llamará Unimodal; o varias modas, si la frecuencia mayor se repite en dos o más intervalos, en este caso será Multimodal. Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva an fN xX N N i aa i ⋅ − +′= ∑ 2 2 2~ x̂ Límite real inferior en donde cae la frecuencia que divide la distribución en partes iguales Mitad de las observaciones Sumatoria de las frecuencias acumuladas anteriores a la frecuencia que divide a la distribución en partes iguales Valor de la frecuencia que divide a la distribución en partes iguales Amplitud del intervalo 2 N faa∑ n Ni 2 a x Ni′ 2 Límite real inferior donde está la moda Diferencia entre la frecuencia modal y la frecuencia inmediatamente anterior Diferencia entre la frecuencia modal y la frecuencia inmediatamente posterior Amplitud del intervalo axX xi ⋅ ∆+∆ ∆ +′= 21 1 ˆ ˆ x xi′ˆ ∆1 ∆2 a x~ 16 Medidas de posición NO CENTRALES Las medidas de posición no centrales permiten conocer otros puntos característicos de la distribución. Estos indicadores suelen utilizar una serie de valores que dividen a la muestra en tramos iguales. Entre ellos destacamos: cuarteles, deciles y percentiles. Cuartiles: son 3 valores que distribuyen la serie de datos, ordenada de forma creciente o decreciente, en cuatro tramos iguales, en los que cada uno de ellos concentra el 25% de los resultados. Cálculo de los cuartiles Deciles: son 9 valores que distribuyen la serie de datos, ordenada de forma creciente o decreciente, en diez tramos iguales, en los que cada uno de ellos concentra el 10% de los resultados. Cálculo de los deciles Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva Límite real inferior que contiene al cuartil Cuartil a calcular, su valor puede ser 1, 2 o 3. Frecuencias acumuladas anteriores al intervalo que contiene al cuartil Frecuencias absolutas del intervalo que contiene al cuartil Amplitud del intervaloa a n fnk xQ iq aa i ⋅ − +′= 4 . xi′ k faa niq Límite real inferior que contiene al decil Cuartil a calcular, su valor puede ser 1,2,3,4,56,7,8 ó 9 Frecuencias acumuladas anteriores al intervalo que contiene al decil Frecuencias absolutas del intervalo que contiene al decil Amplitud del intervaloa xi′ k faa niq a n fnk xD id aa ii ⋅ − +′= 10 . 17 Percentiles: son 99 valores que distribuyen la serie de datos, ordenada de forma creciente o decreciente, en cien tramos iguales, en los que cada uno de ellos concentra el 1% de los resultados. Cálculo de los percentiles Nota: Existen otras medidas de posición no centrales que se suelen utilizar y que su cálculo sólo depende de variar el cociente que determina en cuantos tramos iguales se distribuye a la muestra, entre otras se encuentran los quintiles (la divide en 5 partes iguales) y los octiles (en 8 partes iguales). A partir de las divisiones en las observaciones que se realicen en una muestra obtendremos algunas coincidencias en los valores originados por fracciones equivalentes, a saber: el Cuartil 2, el Octil 4, el Decil 5 y el Percentil 50 con el valor de la Mediana. ¿Qué otras coincidencias encontramos? 8.2 MEDIDAS DE DISPERSIÓN Para un mayor análisis de las observaciones de una muestra es necesario ampliarlo para evaluar el grado de homogeneidad entre sus datos, es decir, estudiar la separación de los datos numéricos a partir de una medida de centralización. Las medidas de dispersión más utilizadas son: Rango: Es la medida menos precisa y más sencilla ya que sólo considera a los extremos. Es la diferencia entre el dato mayor y el dato menor de las observaciones. Cálculo del rango Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva Límite real inferior que contiene al percentil Percentil a calcular, su valor puede ser 1,2,3...99 Frecuencias acumuladas anteriores al intervalo que contiene al percentil Frecuencias absolutas del intervalo que contiene al percentil Amplitud del intervaloa xi′ k faa niq a n fnk xP ip aa ii ⋅ − +′= 100 . mM XXR −= 18 Desviación media: mide la distancia absoluta promedio entre cada uno de los datos, y el parámetro que caracteriza la información. Usualmente se considera la desviación media con respecto a la media aritmética: Cálculo de desviación media Varianza: es uno de los parámetros más importantes en estadística paramétrica, se puede decir que, teniendo conocimiento de la varianza de una población, se ha avanzado mucho en el conocimiento de la población misma. Numéricamente definimos la varianza, como desviación cuadrática media de los datos con respecto a la media aritmética: Cálculo de varianza Desviación Estándar o Típica: se define como la raíz cuadrada de la varianza, y es útil a la hora de evaluar y concluir sobre la varianza. Cálculo de desviación estándar ó típica Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva Cantidad de intervalos Marca de clase de cada intervalo (su valor más representativo) Valor de la media aritmética muestral Respectiva frecuencia absoluta de cada intervalo Tamaño de la muestra N nXx DM m i ii∑ = − = 1 .& m xi& X ni N Cantidad de intervalos Marca de clase de cada intervalo (su valor más representativo) Valor de la media aritmética muestral Respectiva frecuencia absoluta de cada intervalo Tamaño de la muestra m xi& X ni N ( ) N nXx S m i ii∑ = − = 1 2 2 .& 2SS = 19 Coeficiente de variación de Pearson: tiene en cuenta el valor de la media aritmética, para establecer un número relativo, que hace comparable el grado de dispersión entre dos ó mas variables. Cálculo de variación de Pearson 8.3 ESTUDIO DE LA FORMA DE LA CURVA Las siguientes índices nos permiten medir las características de curva representada por la serie de datos de la muestra. La Concentración: mide si los valores de la variable están más o menos uniformemente repartidos a lo largo de la muestra. Para medir el nivel de concentración de una distribución de frecuencia se pueden utilizar distintos indicadores, entre ellos el Indice de Gini. Cálculo de índice de Gini El Índice Gini (IG) puede tomar valores entre 0 y 1: IG = 0: Concentración mínima. La muestra está uniformemente repartida a lo largo de todo su rango. IG = 1: Concentración máxima. Un solo valor de la muestra, acumula el 100% de los resultados. La Asimetría: mide si la curva tiene una forma simétrica, es decir, si respecto al centro de la misma (centro de simetría) los segmentos de curva que quedan a derecha e izquierda son similares. Para medir el nivel de asimetría se utiliza el llamado Coeficiente de Asimetría de Fisher. Cálculo de coeficiente de asimetría de Fisher Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva X SVC =.. ( ) ∑ ∑ > = > − = ra m i ira f qf GI 1.. La sumatoria de las diferencias entre cada frecuencia relativa acumulada y qi (razón entre la sumatoria acumulada de cada marca de clase por sus respectivas frecuencias absolutascon respecto a la suma total de cada marca de clase por sus respectivas frecuencias absolutas); dividido la sumatoria de las frecuencias relativas acumuladas ascendentes. Se calcula por momento de tercer orden, . 3 3 S m F =α α ( ) 3 3 1 S N nXx i m i i ⋅− = ∑ = & 3m Fα 20 Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva Los resultados que se determinen a partir del coeficiente pueden ser: = 0 (distribución simétrica; existe la misma concentración de valores a la derecha y a la izquierda de la media) > 0 (distribución asimétrica positiva; existe mayor concentración de valores a la derecha de la media que a su izquierda) < 0 (distribución asimétrica negativa; existe mayor concentración de valores a la izquierda de la media que a su derecha) La Curtosis: mide si los valores de la distribución están más ó menos concentrados alrededor de los valores medios de la muestra. Se definen 3 tipos de distribuciones según su grado de curtosis: Distribución mesocúrtica: presenta un grado de concentración medio alrededor de los valores centrales de la variable (el mismo que presenta una distribución normal). Distribución leptocúrtica: presenta un elevado grado de concentración alrededor de los valores centrales de la variable. αF αF αF CURVA ASIMÉTRICA NEGATIVA Eje de simetría CURVA ASIMÉTRICA POSITIVA Eje de simetría CURVA MESOCÚRTICA Eje de simetría CURVA LEPTOCÚRTICA Eje de simetría CURVA SIMÉTRICA Eje de simetría 21 Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva Distribución platicúrtica: presenta un reducido grado de concentración alrededor de los valores centrales de la variable. Cálculo de coeficiente de Curtosis Los resultados pueden ser los siguientes: = 3 (distribución mesocúrtica o normal). Si es así existe una igual entre la media, la mediana y la moda. > 3 (distribución leptocúrtica o apuntada). < 3 (distribución platicúrtica). 8.4 ESTUDIO DE NORMALIDAD DE LA MUESTRA A partir de la media y la desviación estándar muestrales, estudiaremos la normalidad de una muestra analizando el porcentaje de datos contenidos en la media más menos un desvío, dos desvíos y tres desvíos.Resultando: Si se cumplen estas condiciones podemos decir que estamos frente a una Distribución Normal. Ampliación para el cálculo de las medidas estudiadas Las fórmulas desarrolladas se aplican para el estudio estadístico por tratamiento de datos agrupados, es decir, cuando el número de observaciones es lo suficientemente grande para agruparlos en intervalos; caso contrario, la forma de calcular cada medi- da varía cambiando la marca de clase por el dato crudo (xi); pues ya no tendremos intervalos de clases sino un listado ordenado de datos con lo que trabajaremos. CURVA PLATICÚRTICA Eje de simetría 4 4 S m c =α Se calcula por momento de cuarto orden, . α ( ) 4 4 1 S N nXx i m i i F ⋅− = ∑ = & 4m cα cα cα [ ] 6826.0; =+− sxsxP [ ] 9544.02;2 =+− sxsxP [ ] 9974.03;3 =+− sxsxP El 68,3 % de los datos están contenidos El 95,4 % de los datos están contenidos El 99,7 % de los datos están contenidos µ−3σ µ−2σ µ=σ µ µ+σ µ+2σ µ+3σ Campana de Gauss 22 Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva DISTRIBUCIONES BIDIMENSIONALES 1 Correlación El estudio estadístico que involucra a todas las medidas anteriormente citadas, corresponde al análisis de una sola variable, es decir, es unidimensional. Pero en Estadística contamos con la necesidad de cruzar variables, de estudiar y analizar grados de dependencias, relaciones entre más de una variable de un individuo o cosa. El estudio de distribuciones bidimensionales, nos permite encontrar respuestas a estas inquietudes. La Correlación entre dos o más variables mide el grado de relación entre ellas y a partir de allí podremos inferir datos y/o concluir observaciones. Son ejemplos de variables a ser susceptibles de relacionar: El peso y la estatura de un grupo de adultos. Edad y peso de un grupo de niños. Ingresos y gastos de alquileres de un grupo de familias. Escolaridad e ingreso mensual de un grupo de empleados. Ventas y ganancias de un almacén de variedades. Medidas de pH y acidez en leche. Voltaje y KW en un hogar. Ausentismo y sueldos en los recibos de haberes. Cálculo del Coeficiente de Correlación Lineal de Pearson ( ) Esta fórmula surge de una división entre el numerador que se corresponde con la CoVarianza de la distribución binomial y el denominador con la multiplicación de los Desvíos Típicos o Estándar de cada una de las variables. ∑ ∑ ∑− = ( )[ ] ( )[ ]2222 ∑∑∑∑ −− yynxxn yxxynrxy rxy yx xy xy SS Sr = ( )( ) N YyXx S i m i i xy −− = ∑ =1 Sxy CoVarianza: grado de variación conjunta de dos variables 23 Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva De esta manera puede suceder que: > 0 Cuando una de las variables aumenta, también lo hace la otra. < 0 Cuando una de las variables aumenta, la otra disminuye. = 0 No hay relación entre los aumentos de una y otra. Estas relaciones pueden ser de menor o mayor intensidad con la salvedad de que no sólo depende del grado de variación conjunta entre las variables sino también de las dispersiones de ellas. Por esta razón se utiliza el Coeficiente de Correlación Lineal de Pearson ( ) que elimina este factor. Interpretaciones del Coeficiente Lineal de Pearson De manera tal que para calcular al coeficiente será necesario organizar los datos en Excel con la siguiente tabla. (Tabla 2) La representación gráfica de las variables x e y obtenidas a partir de los datos muestrales, queda reflejada a través de un Diagrama de Dispersión X e Y; representando, lo que comúnmente se conoce como "nube estocástica de puntos". Sxy Sxy Sxy rxy Existe una perfecta relación entre las variables por lo que podemos determinar a partir de una de ellas el valor de la otra. No existe relación entre las variables. La relación es baja, cuanto más próximo a cero esté, la relación está casi ausente. La relación es media. La relación es alta. 1=xyr 0=xyr 3.00 <≤ xyr 7.03.0 <≤ xyr 17.0 <≤ xyr Tabla 2. Tabla para calcular el coeficiente de Correlación i ix ix iyi ix .yiy 1 2 3 4 5 6 7 8 9 10 22 24 Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva Gráfico de dispersión de los valores x e y 2 Independencia estadística Según el teorema de caracterización de independencia, dos variables x e y son estadísticamente independientes, si la frecuencia relativa conjunta es igual al producto de las frecuencias relativas marginales, para todas las variables, esto es: Los datos correspondientes a las variables x e y se representan en tablas de frecuencias como la siguiente: De manera que los corresponden a la columna de los datos de (y1, xi). Mientras que los corresponden a la fila de los datos de (x1, yi). Que se de, igualdad e independencia estadística implica, que las variables son incorreladas, es decir que =0, no existe dependencia lineal. En cambio, que =0 significa que las variables x e y están incorreladas pero no implica que son estadísticamente independientes. Variable X Va ria bl e Y -1 1 3 5 7 9 11 4 6 8 10 12 14 18 22 24 26 28 20 16 2 0 x y x1 y1 y2 y3 y4 y5 x2 x3 x4 x5 n11 n12 n13 n14 n15 n22 n23 n24 n25 n32 n33 n34 n35 n42 n43 n44 n45 n52 n53 n54 n55 n21 n31 n41 n51 jir fff ij •• ⋅= ; ji ,∀ Utilizando las fre- cuencias absolu- tas la fórmula es: N n N n N n jiij •• ⋅= ; ji ,∀ ni• n j• xyr xyr 25 Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva 3 Regresión Luego de constatar, con el Coeficiente de Correlación de Pearson, que dos variables están relacionadas, debemos acudir a un método que nos permita estimar o predecir qué valores obtendrá una variable a partir de los valores asignados a la otra. Paraello, debemos establecer una relación funcional entre las variables, siendo la ecuación, la relación funcional más simple. Hablamos, de esta manera de una Regresión Lineal. 3.1 REGRESIÓN LINEAL Se da por la ecuación de la recta del tipo: Método de los mínimos cuadrados: se emplea para este tipo de prediccio- nes, ya que arroja estimaciones con menor error cuadrático promedio. A partir de la ecuación de la recta debemos conocer los valores de a y b, para poder determinar los correspondientes de X e Y. Cálculo de b (estimada) A partir de b (estimada), logro calcular a (estimada). Cálculo de a (estimada) Luego y (estimada) es: Por lo tanto, si: b > 0, las dos variables aumentan o disminuyen a la vez. b < 0, cuando una variable aumenta, la otra disminuye. Para el caso de determinar x (estimada) a partir de un valor observacional de y, se emplea la ecuación: baxy += ( )22 ∑∑ ∑ ∑∑ − − = XXn YXXYn b N XbY a ∑ ∑− = ˆ 2 x xy S S b = 2 x xy S S b =ó ó ó xbya .−= bxay +=ˆ byax +=ˆ ybxa .−= ( )22 ∑∑ ∑ ∑∑ − − = YYn YXXYnb 26 Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva Bondad del ajuste ó fiabilidad del modelo: a partir del Coeficiente de Determinación evaluamos el error cometido en cada predicción, entre el y experimental y el y estimado. Su fórmula es: Cálculo de Principales características que se deducen a partir de : Como la no podemos tomarlo como medida de bondad del ajuste. La suma de errores cuadráticos no presenta este inconveniente pero sí el de depender del número de observaciones. Por lo tanto, tomando el Error Cuadrático Medio (ECM) evitamos esta dependencia. Cálculo del Error Cuadrático Medio Aquí se da una relación fundamental entre la varianza experimental y la varianza residual. Como , entonces y de ahí que el ECM sea un error estimado de la bondad de ajuste ya que es igual a la varianza residual. Cuanto mayor sea la varianza residual, mayor será la parte de la variabilidad de Y, que es incapaz de explicarse por la relación lineal entre X e Y. Para evaluar la fiabilidad o bondad del ajuste lineal, utilizamos las siguientes fórmulas en relación a lo explicado anteriormente: Si el valor es igual o mayor que 0.75 estamos en condiciones de dar fiabilidad al modelo. Cuanto más próximo a 1 más fiable; a la inversa, cuando más cerca de cero menos fiable. YYe ˆ−= e 0ˆ =−= YYe 0=∑ ie 0 2 ≥= ∑ N e ECM i 0ˆ =yeS El Desvío Típico del Error con respecto a la y estimada es igual a cero Cuando la variable x está en relación con y El ECM o su raíz cuadrada que se denomina Error de Regresión, son inversamente proporcionales a la bondad del ajuste. 2 ˆ 22 yye SSS −= 0=e ECMSe =2 2 2 2 1 x e S Sr −= Cuando la variable y está en relación con x 2 2 2 1 y e S Sr −= 10 2 ≤≤ r 27 Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva 3.2 REGRESIÓN NO LINEAL Regresión Parabólica: Regresión Potencial: cuando la figura que mejor se ajusta es del tipo potencial, la forma de hallar los coeficientes para determinar las estimaciones es aplicando logaritmos. Luego, aplicando un cambio de variables llevamos la función potencial a una función lineal para poder determinar los coeficientes a y b. Nueva Función Lineal Al finalizar la búsqueda de los coeficientes a y b, y poder determinarlo como función potencial,es necesario aplicar el antilogaritmo de A y de b. Cálculo de V (estimada) Para realizar los cálculos parciales y así determinar cada término de la fórmula, es necesario plantear una tabla con las transformaciones de las variables según sus igualdades. Regresión Exponencial: de la misma manera que trabajamos la Regresión Potencial, debemos aplicar logaritmos para poder transformar en Función Lineal y así aplicar el Método de los Mínimos Cuadrados: 2ˆ cxbxay ++= baXY = XbaY XaY aXY b b log.loglog logloglog loglog += += = aA XU YV log log log = = = UbAV .+= ).(ˆ 2 uU S SvV U UV −+= 28 Estadística Aplicada Di Paolo, Claudio Javier Estadística Descriptiva Luego, aplicando un cambio de variables llevamos la función exponen- cial a una función lineal para poder determinar los coeficientes a y b. Nueva Función Lineal Al finalizar la búsqueda de los coeficientes a y b y poder determinarlo como función exponencial, es necesario aplicar el antilogaritmo de A y de B. Entonces, para calcular V (estimada) aplico la siguiente fórmula: Para realizar los cálculos parciales y así determinar cada término de la fórmula, es necesario plantear una tabla con las transformaciones de las variables según sus igualdades. Regresión Logarítmica: bXaY baY abY abY X X X log.loglog logloglog loglog += += = = )log(. xbay += ).(ˆ 2 xX S SvV x XV −+= XBAV .+= aA bB YV log log log = = = 29 Estadística Aplicada Di Paolo, Claudio Javier Probabilidad DEFINICIONES PREVIAS Debemos dar definiciones previas referentes a la Teoría de los Sucesos que son vinculadas al estudio de la Probabilidad como soporte para la Estadística Inferencial o simplemente para cálculos casuísticos: Espacio Muestral: es el conjunto formado por todos los casos posibles en la realización de un experimento. Espacio Muestral Discreto: si es finito o infinito numerable. Espacio Muestral Continuo: si es infinito numerable. Diagrama de Árbol: representación gráfica del espacio muestral. Suceso Aleatorio: cada uno de los posibles subconjuntos que son partes del espacio muestral. Suceso Imposible: aquel subconjunto que nunca ocurre en el espacio muestral. (Conjunto vacío). Suceso Elemental: suceso formado por un solo resultado del espacio muestral. Suceso Compuesto: suceso formado por más de un resultado del espacio muestral. Suceso cierto: es aquel que siempre ocurre. Álgebra de los sucesos Suceso contrario o complemento: llamamos así al suceso que ocurre cuando no se realiza. Ejemplo: Suceso contrario de Q a . Unión de sucesos: Dados dos sucesos A y B llamamos unión de sucesos a ( ) al suceso formado por A o B. Intersección de sucesos: Dados dos sucesos A y B llamamos intersección de sucesos a ( ) al suceso formado por A y B. Sucesos incompatibles: dos sucesos son incompatibles cuando su intersección da como resultado el conjunto vacío. Sucesos compatibles: dos sucesos son compatibles cuando su intersección no da como resultado el conjunto vacío. Experimentos Experimentos deterministas: son aquellos que realizada bajo la misma forma y mismas condiciones iniciales un experimento, resulta siempre el mismo resultado. Por ej.: cuando dejamos caer al vacío, un objeto en reposo desde una misma altura, llega siempre al suelo con una misma velocidad: . Experimento aleatorio: son aquellos experimentos en los que no se puede predecir el resultado final. Por ej.: lanzamiento de un dado. Q BA∪ BA∩ ≠∩ BA φ =∩ BA φ ghv 2= 30 Estadística Aplicada Di Paolo, Claudio Javier Probabilidad DEFINICIONES DE PROBABILIDAD NOCIÓN FRECUENTISTA Desde la perspectiva frecuentista de probabilidad, se observa que en los experimentos aleatorios, a medida que aumenta el número de experi- mentos, las frecuencias relativas en las que ocurre un suceso A, , tiende a converger hacia cierta cantidad que llamamos probabilidad de A. De manera que: La noción frecuentista de probabilidad no puede usarse en la práctica como definición de probabilidad porque: Como N (el nº de experimentos) tiende a infinito, requiere infinitos experimentos para calcular la probabilidad. A veces no es posible realizar experimentos aleatorios. Por ej.: calcular la probabilidad demorir jugando a la ruleta rusa con un revólver; ésto no es posible, ya que necesitamos repetir el experimento un número demasiado alto de veces para tender a la probabilidad. REGLA DE LAPLACE Dadas las explicaciones de la noción frecuentista, podemos definir a la probabilidad a partir de la Regla de Laplace "Si cualquier experimento da como resultado un nº finito de valores posibles, sin razón alguna de forzar un valor por sobre otro, se calcula la probabilidad de un suceso aleatorio A, como: AXIOMAS DE LA PROBABILIDAD Desde otra perspectiva se puede calcular a la probabilidad de un suceso A, teniendo en cuenta el cumplimiento de los siguientes axiomas para encontrar: 1 La probabilidad de que se de un suceso A, resulta estar comprendida entre 0 y 1. 2 La probabilidad de un suceso seguro es igual a 1 Espacio Muestral. 3 La probabilidad de la unión numerable de sucesos disjuntos es igual a la suma de sus probabilidades (Independencia de Eventos). ( )Afr [ ] =AP nº de casos favorables de A nº de casos posibles [ ]AP ( ) N (total de casos) nº de ocurrencias de A=Afr [ ] ( )AfAP rN ∞→ = lím [ ] 10 ≤≤ AP [ ] 1=ΩP [ ] [ ] [ ] �=∩+=∪ BABPAPBAP si , φ 31 Estadística Aplicada Di Paolo, Claudio Javier Probabilidad CONSECUENCIAS DE LOS AXIOMAS DE LA PROBABILIDAD (aplicando la teoría de conjuntos) 1 La probabilidad de un complemento del suceso A, es igual uno menos la probabilidad del suceso A. 2 La probabilidad de un suceso vacío da como resultado cero. 3 Si el suceso A es menor o igual al B, las Probabilidades también serán menor o igual. 4 La probabilidad es un número comprendido entre cero y uno. 5 La probabilidad de la unión de sucesos es igual a la suma de sus probabi- lidades menos la Probabilidad de su intersección, por ser sus sucesos conjuntivos. 6 Cuando la intersección de 3 o más sucesos es distinto a vacío, la probabi- lidad de la unión de los sucesos es igual a la sumas de los sucesos de A, B y C menos sus intersecciones pares, agregando la intersección entre los 3 conjuntos. A partir de los axiomas y sus consecuencias, es posible calcular la probabilidad de un suceso a partir de la teoría de conjuntos. CÁLCULO DE LA PROBABILIDAD PERMUTACIONES Cuando queremos ordenar k elementos de un conjunto de n elementos, para escoger uno o varios de ellos, las posibilidades de orden son n-k+1 y se lee como permutaciones de n en k. Cálculo [ ] [ ]APAP c −= 1 [ ] [ ] BA;si ⊆≤ BPAP [ ] 10 ≤≤ AP [ ]=∪∪ CBAP [ ] [ ] [ ] [ ] ≠∩∩+=∪ BABAPBPAPBAP ;si- φ [ ] 0=�P φ φ[ ] [ ] [ ] [ ] [ ] [ ] [ ] ≠∩∩∩∩+∩∩∩++ CBACBAPCAPCBPBAPCPBPAP si ,--- ( ) ( )! !, kn nknP − = 32 Estadística Aplicada Di Paolo, Claudio Javier Probabilidad COMBINACIONES O COMBINATORIAS En cambio, si queremos escoger k elementos de un conjunto de n elementos, sin importar su orden, n en k combinaciones posibles. PROBABILIDAD CONDICIONAL Cuando queremos calcular la probabilidad de un evento A habiéndose dado un evento B, utilizamos la fórmula , teniendo en cuenta que la probabilidad del evento B tiene que ser mayor a cero. PROBABILIDAD TOTAL Dado un conjunto de sucesos independientes Ai, de manera que (equivale al espacio muestral), es posible determinar como probabilidad total, a la sumatoria de cada Probabilidad Condicional dada por el suceso conocido Bi por su respectiva probabilidad a priori. TEOREMA DE BAYES Se aplica al cálculo de la determinación de causas, a partir de una consecuencia. ( )!! ! knk n k n − = Coeficiente Binomial de n en k [ ] [ ] [ ] [ ] 0; si/ >∩= BP BP BAPBAP [ ] [ ] [ ]ABPAPBAP // ⋅= ∑ Ω=iA [ ] [ ] [ ]i n i i BPBAPAP ⋅= ∑ =1 / [ ] [ ] [ ] [ ] [ ]∑ = ⋅ ⋅= k j jj ii i ABPAP ABPAPBAP 1 / // [ ]iAP [ ]iABP / [ ]i BAP / Probabilidades a priori de las causas o de las hipótesis Verosimilitudes Probabilidad a posteriori, es la probabilidad de que el suceso B, que ya ocurrió, sea la causa del suceso Ai 33 Estadística Aplicada Di Paolo, Claudio Javier Probabilidad VARIABLES ALEATORIAS VARIABLE ALEATORIA DISCRETA (v.a. discreta) Se define así a la variable que puede tomar un número finito o infinito numerable de valores. Medidas de tendencia Central y de Dispersión De forma análoga que en la estadística descriptiva, es posible determinar para las variables aleatorias, su medida central equivalente a la media que se llama Esperanza Matemática y se denota por E(x) ó ; y su medida de dispersión Varianza (de igual nombre) Var[x]. FUNCIÓN DE PROBABILIDAD FUNCIÓN DE DISTRIBUCIÓN Definición Representación Gráfica ( ) [ ]ii xXPxf == (es la probabilidad de que X tome el valor xi) (es la probabilidad de que X tome un valor inferior o igual a xi) Diagrama de Barras - Análogo al de Distribución de frecuencias relativas Diagrama de Barras - Análogo al de Distribución de frecuencias relativas acumuladas ( ) [ ]ii xXPxF ≤= 3/8 0 1 2 3 1/8 f 4/8 7/8 1 1/8 F µ 34 Estadística Aplicada Di Paolo, Claudio Javier Probabilidad El Valor esperado o la Esperanza Matemática para una v.a. discreta se define como el promedio esperado de valores (a diferencia que en la estadística aquí no parto de datos conocidos sino de datos esperados); su cantidad se expresa como: La varianza de una v.a. discreta se calcula a partir del momento de segundo orden: VARIABLE ALEATORIA CONTINUA (v.a. continua) Se define así a la variable que puede tomar un número infinito no numerable de valores. [ ] ( )∑ = = k i ii xfxXE 1 [ ] [ ]( )[ ] [ ]( ) )(2 1 22 i k i i xfXExxEXEXVar ∑ = −=−==σ FUNCIÓN DE DENSIDAD PROBABILÍSTICA FUNCIÓN DE DISTRIBUCIÓN Definición y propiedades Representación Gráfica ( ) = ≥ ∫ ∞+ ∞− 1)( 0 dxxf xf La función es mayor que cero. La integral definida en el intervalo de la fun- ción es igual a uno. Se define como la probabilidad de un intervalo está dado por el área que existe entre la función y las abscisas). (es la probabilidad de que X tome un valor inferior o igual a x) Dados los valores a y b, de manera que a < b, la Probabilidad de que se de un valor X entre a y b es igual al área bajo la curva dado por la integral definida entre los puntos a y b de la función de densidad probabilística. [ ] ∫=≤≤ b a dxxfbXaP )( ( )+∞∞− ; a b X f [ ]≤≤ bXaP ( ) [ ] ∫ ∞− =≤= x dttfxXPxF )( x Área= ( )xF ( )xF ( )xf .... ... ... ... ... ... ... .. Medidas de tendencia Central y de Dispersión El Valor esperado o la Esperanza Matemática para una v.a. continua, difiere de una discreta en que se determina a partir de una cantidad infinita de valores; su cantidad se expresa desde su función de densidad. La varianza de una v.a. continua se calcula a partir del momento de segundo orden. DISTRIBUCIONES PROBABILÍSTICAS Hay leyes de la probabilidad que se aplican a variables aleatorias discretas y continuas, para su cálculo, y que son base para la inferencia estadística. DISTRIBUCIONES PROBABILÍSTICAS DISCRETAS 35 Estadística Aplicada Di Paolo, Claudio Javier Probabilidad [ ] ∫ +∞ ∞− = dxxfxXE )(. [ ] [ ]( )[ ] [ ]( )∫ +∞ ∞− ⋅−=−== dxxfXExxEXEXVar i )(222σ Distribución de Bernoulli Distribución Binomial Consiste en reali- zar un experimento una sola vez y ob- servar si cierto suceso ocurre(éxito) ó no (fracaso). p es la probabili- dad de que ocurra (valor 1) y q=1-p es la probabilidad de fracaso. Ley binomial B(n,p) que se interpreta como la suma de n v.a. independientes de Bernoulli con el mismo parámetro p. Ley de probabilidad Ley de probabilidad [ ] [ ] ==→ ==−=→ =⇔→ 11 010 )( XPp XPpq XpBerx [ ] qpXVar ⋅= [ ] pXE = → → → = En cualquier otro caso 0 Si x = 0 Si x = 1)( p q xf nXXXpnBx ++=⇔→ ...),( 1 Donde nipBerxi ,...,1),( =∀→ [ ] nkqp k n kXPkf knk ,...,1,0)( =∀⋅ === − [ ] pnXE ⋅= [ ] qpnXVar ⋅⋅= DISTRIBUCIONES CARACTERÍSTICAS LEY DE PROBABILIDADMEDIDAS DE SUS MOMENTOS DISTRIBUCIONES PROBABILÍSTICAS DISCRETAS 36 Estadística Aplicada Di Paolo, Claudio Javier Probabilidad Distribución geométrica DISTRIBUCIONES Distribución Binomial Negativa Distribución Hiper- geométrica Distribución de Poisson o de Sucesos raros (λ) CARACTERÍSTICAS LEY DE PROBABILIDAD MEDIDAS DE SUS MOMENTOS Parte de v.a. inde- pendientes de Bernoulli, pero se considera la suma de fracasos obtenidos hasta la aparición del primer éxito buscado en la sucesión. Sobre una sucesión de v.a. independien- tes de Bernoulli, de- finimos el nº de fracasos obtenidos hasta la aparición de r éxitos. Con pará- metros r y p se defi- ne la Ley Binomial negativa. Ley de probabilidad Ley de probabilidad Primeros experimentos Si N, es muy grande, la distribución hipergeométri- ca tiende a aproximarse a la distribución binomial. Éxito final Ley de probabilidad Ley de probabilidad Se utiliza para cal- cular la probabilidad de ciertos sucesos en forma proporcional al conjunto existente. Sus parámetros son: N(tamaño de la po- blación); n(cant. de extracciones sin re- emplazamientos) y p (probabilidad de éxi- to deseado). Cuando un suceso tiene una probabili- dad muy baja de ocurrir, y el nº de ex- perimentos es muy alto, se utiliza esta distribución. Se la conoce como una distribución límite de una distribución binomial. ∞=→ ,...,2,1),( donde ,...,...,, 21 ipBerXXXX ii [ ] ∞=∀⋅=== ,...,1,0)( kqpkXPkf k [ ] p qXE = [ ] 2p qXVar = ∞=→ ,...,2,1),( donde ,...,...,, 21 ipBerXXXX ii [ ] nkpqp r rk kXPkf kr ,...,1,0 1 1 )( 1 =∀⋅⋅ − −+ === − 1−+ rk kr qpk rk p ⋅ −+ = 1 → [ ] p rqXE = [ ] 2p rqXVar = ),,( pnNHgeoX → [ ] ; − ⋅⋅ ⋅ == n N kn qN k pN kXP { } { }Npn,mínNq-n0,si máx ≤≤ k [ ] pnXE ⋅= [ ] 1− − ⋅⋅⋅= N nNqpnXVar positivo) es (p, ,y donde ,)B ∞→= λ⋅ npn(n,p [ ] 0,1,2,....k, ! )( ==== − k ekXPkf k λ λ λ[ ] [ ]== XVarXE )(),(B1,0,30 pnPoissonpnpn ⋅≅⇒≤> DISTRIBUCIONES PROBABILÍSTICAS CONTINUAS Las distribuciones que sintetizaremos corresponden a variables aleatorias continuas unidimensionales, cuyo valor de función de densidad es no nulo y positivo. 37 Estadística Aplicada Di Paolo, Claudio Javier Probabilidad Distribución Uniforme ó rectangular DISTRIBUCIONES Distribución exponencial CARACTERÍSTICAS FUNCIONES DE DENSIDAD Y DISTRIBUCIÓN MEDIDAS DE SUS MOMENTOS Sea X una v.a. con- tinua, la probabilidad de X incluída en ; depende de su longi- tud; siendo la proba- bilidad una constante. Es equivalente a la distribución geomé- trica discreta; descri- be procesos en los que nos interesa sa- ber el tiempo hasta que ocurre determi- nado evento, sin considerar el tiempo transcurrido en el que nada pasó. Se define para los reales positivos. Función de densidad [ ]ba, ),( baUnifX → bxa ab xf ≤≤ − = si,1)( Función de densidad Función de distribución Función de densidad y de distribución -0,5 0,0 1,00,5 1,5 2,0 2,5 3,0 0,8 1,0 0,6 0,4 0,2 0,0 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Unif (a=0, b=2) ( )xF ( )xf )(, ExpXλ λ→ λ xexf xλ <= − 0si;)( <− = − en otro caso ;0 0si ;1 )( xe xF xλ [ ] 2 abXE + = [ ] ( ) 12 2abXVar − = λ [ ] 1 =XE λ [ ] 2 1 =XVar 0 1 32 4 0,8 1,0 0,6 0,4 0,2 0,0 para λ=1λexf xλ= −)( DISTRIBUCIONES PROBABILÍSTICAS CONTINUAS 38 Estadística Aplicada Di Paolo, Claudio Javier Probabilidad DISTRIBUCIONES Distribución Normal o Gaussiana CARACTERÍSTICAS FUNCIONES DE DENSIDAD Y DISTRIBUCIÓN MEDIDAS DE SUS MOMENTOS Función de densidad Es la distribución más importante pues nos permite determi- nar cuan concentra- dos están los datos alrededor de la me- dia. Es la base que da inicio al estudio de la inferencia esta- dística. Estudio de normalidad Para el conjunto de los nº reales. La forma de la función de densidad es la lla- mada campana de Gauss. Reales ),( 2NX → ∈∀⋅= − ⋅ − xexf x µ σ , 2 1)( 2 2 1 π µ σ [ ]=X µE σ[ ] 2=XVar-3 -1-2 20 1 3 0,4 0,3 0,2 0,1 0,0 N ( µ=0, σ=1) σσ µ Cuanto menor sea σ más concentración de da- tos cerca de la media habrá (curva alargada), si σ es más grande, más aplastada será la curva. La figura muestra la Campana de Gauss o la función de densidad de una v.a. de distribu- ción normal. El parámetro µ indica el centro (parámetro de centralización) y σ el parámetro de dispersión. La distancia del centro a los puntos de inflexión es precisamente σ. XXµ X ~ˆ === −= X µ σz Trabajamos con variables tipificadas de: µ=0 σ=1. Si algunos de estos valores difieren, es necesario tipificar de manera tal que consegui- remos una nueva variable para trabajar que lla- maremos v.a. tipificada z. DISTRIBUCIONES PROBABILÍSTICAS CONTINUAS 39 Estadística Aplicada Di Paolo, Claudio Javier Probabilidad DISTRIBUCIONES CARACTERÍSTICAS FUNCIONES DE DENSIDAD Y DISTRIBUCIÓN MEDIDAS DE SUS MOMENTOS Distribución Normal o Gaussiana Aproximación a la Normal de la Ley Binomial A partir de µ y σ, estudiaremos la normalidad de una muestra analizando el porcentaje de datos contenidos en la media menos un desvío, dos desvíos y tres desvíos. De manera que: 1) El 68,3% de los datos están contenidos. 2) El 95,4% de los datos están contenidos. 3) El 99,7% de los datos están contenidos. Si se cumplen estas condiciones podemos decir que estamos frente a una Distribución Normal. [ ] 0.68261 =±∈X σµP [ ] 0.95442 =±∈X σµP [ ] 0.99743 =±∈X σµP -3 -1-2 20 1 3 0,4 0,3 0,2 0,1 0,0 N ( µ=0, σ=1) [ ] 0,681 =±∈X σµP - - - - - - - - - - - - - - - - - - - - - - [ ] 0.952 =±∈X σµP - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Si se cumple que n es suficientemente grande y p está ubi- cada en un valor no muy próximo a los extremos de 0 y 1, a partir de la Ley Bino- mial podemos apro- ximar a la Normal. µ−3σ µ−2σ µ=σ µ µ+σ µ+2σ µ+3σ Si se cumple: Es posible la aproximación. Otro indicador viene dado por: > ≅⇒> > → 4 ),(4 30 donde),( nq npqnpNXnp n pnBX 2 1 ≅≅ qp DISTRIBUCIONES PROBABILÍSTICAS CONTINUAS 40 Estadística Aplicada Di Paolo, Claudio Javier Probabilidad DISTRIBUCIONES CARACTERÍSTICAS FUNCIONES DE DENSIDAD Y DISTRIBUCIÓN MEDIDAS DE SUS MOMENTOS Distribución Chi-Cuadrado ( χ2) Distribución t de Student Si Zi , la suma de sus cuadrados res- pectivos es la distribución que se llama Ley de Distribución con n grados de libertad ( ): Propiedades de la distribución 1) Es de media cero y simétrica con respecto a la misma. 2) La varianza decrece hasta uno cuando el número de grados de libertad aumenta. 3) Para un número alto de grados de libertad se puede aproximar esta distribución a la Normal. Es el cociente entre la distribuciónnormal y la raíz cuadrada de la distribución Chi- Cuadrado. Cálculo de T Distribución t de Student con n grados de libertad ( ): Dada la v.a. T [ ] nXE = { } 2 1 2 2 1 2 1 )1,0( n n i i ii n n i i n ii XZNZ → −⇒→⇒→ )1,0(N→ ∑∑ == = 2 n χ χχ 2χ µ σ [ ] nXVar 2= Si consideramos a la v.a. Zi , la v.a. X=Z 2 se distribu- ye según una Ley de Probabilidad distri- bución χ2 con un gra- do de libertad (0,1)N→ 2→X( ).χ - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - N(0,1) N(0,2) N(0,4) 0,4 -4 0,3 0,2 0,1 0 -3 -2 -1 0 1 2 3 4 nt , con n + 1 v.a. indep.n n t n ZT →= 21 � n n i i ii t X n X T → − − = ∑ =1 2 1 µ µ σ σ DISTRIBUCIONES PROBABILÍSTICAS CONTINUAS 41 Estadística Aplicada Di Paolo, Claudio Javier Probabilidad DISTRIBUCIONES CARACTERÍSTICAS FUNCIONES DE DENSIDAD Y DISTRIBUCIÓN MEDIDAS DE SUS MOMENTOS Distribución t de Student Distribución F de Snedecor Esta distribución se define como co- cientes entre distri- buciones χ independientes. 2 n χ 0 2 4 6 8 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - 0,0 0,1 0,2 0,3 0,4 0,5 - - - - - - - - - - - - - - - - - - - - - - - - - ------------- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 2 2 χ2 4 χ2 6 Función de densidad de para valores pequeños de n2 n χ Cuando aumentan los grados de libertad, la distribución t de Student se aproxima a la distribución normal tipificada. Distribución de Probabilidad de Snedecor, con (n,m) grados de libertad, de manera que: -4 -2 0 2 4 t3 t1 t30 t =N(0,1)∞ - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 0,0 0,1 0,2 0,3 0,4 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - mnF Y X n m Y m X nF ,1 1 →== nmmn FF ,, ≠ DISTRIBUCIONES PROBABILÍSTICAS CONTINUAS 42 Estadística Aplicada Di Paolo, Claudio Javier Probabilidad DISTRIBUCIONES CARACTERÍSTICAS FUNCIONES DE DENSIDAD Y DISTRIBUCIÓN MEDIDAS DE SUS MOMENTOS Distribución F de Snedecor Cuando tenemos n + m v.a. independientes nos encontramos con el caso de una Distribución F de Snedecor: 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0,0 0,2 0,4 0,6 0,8 - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . F10, 10 F10, 20 F10, 5 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - mn m j j jj n i i ii F X m X n F , 1 2 1 2 1 1 → − − = ∑ ∑ = = Propiedades de la distribución Es una distribución asimétrica con densidad de probabilidad distinta de cero. nmmn F F FF ,, 1 →⇔→ µ σ µ σ INTRODUCCIÓN Como el propósito de la Estadística es obtener conclusiones a partir de la naturaleza de una población, y dado a que hay poblaciones muy grandes (difíciles de analizar en su plenitud), es necesario partir de técnicas de muestreo, determinar un sub conjunto de la población (muestra), lo más representativo posible, y a partir de él generalizar. Los métodos de la inferencia estadística emplean razonamientos inductivos, de lo general a lo particular y de lo observado a lo no observado. Es costumbre simbolizar las estadísticas con letras romanas y los parámetros con letras griegas. Para ello, definimos dos categorías dentro de la Inferencia Estadística: La estimación: El estimador es la herramienta fundamental que permite caracterizar, mediante propiedades, al "mejor estimador" para un determinado parámetro de la población. El Contraste de Hipótesis: A partir de plantear dos hipótesis, una nula y la otra alternativa, su comparación determinará el acierto o el error de la suposición inicial. LOS ESTIMADORES Se denomina estimador a la regla o método de estimar un valor a la variable poblacional. La estimación estadística es el proceso que conduce a la obtención y análisis de los estimadores. La estimación estadística se divide en: 1 Estimación puntual o de parámetros. 2 Estimación por intervalos. ESTIMACIÓN PUNTUAL Se expresa en función de la muestra aleatoria y tiene por objetivo aproximar el valor Θi. El estimador no es un valor concreto, sino una variable aleatoria, que aplicada a la muestra elegida, permite obtener un valor numérico (estimación). 43 Estadística Aplicada Di Paolo, Claudio Javier Inferencia Estadística µ S² σ2 S σ R ρ Media aritmética Variancia Desvío estándar Coeficiente de correlación Estadística poblacional (Muestra) Parámetro poblacional (Población) Las características deseables para el estimador son: Consistencia: a medida que la muestra crezca la estimación se aproxime al parámetro desconocido. Carencia de sesgo: El valor medio obtenido de la estimación de diferentes muestras debe ser el valor del parámetro. Eficiencia: El valor estimado sea lo más acercado al valor parámetro, en términos de varianza, que su dispersión sea próxima a cero. Suficiencia: El estimador debería aprovechar toda lainformación existente en la muestra. Estimador de máxima verosimilitud La función de verosimilitud se obtiene a partir de la función de densidad, intercambiando los papeles entre parámetro y estimador. En una función de verosimilitud consideramos que las observaciones x1, . . . , xn, están fijadas, y se representa la gráfica con el valor de los valores que tomaría la función de densidad para todos los posibles valores del parámetro. El estimador máximo verosímil del parámetro buscado, , es aquel que maximiza su función de verosimilitud, V( ). Propiedades de los estimadores de máxima verosimilitud: 1 Son consistentes. 2 Invariantes ante transformaciones. 3 Suficiente 4 Asintóticamente normal y eficiente. ESTIMACIÓN POR INTERVALOS En esta estimación buscamos un intervalo que contenga, con cierto grado de confiabilidad, al parámetro ; a este intervalo se lo llama intervalo de confianza. 44 Estadística Aplicada Di Paolo, Claudio Javier Inferencia Estadística θmv θ θ [ ] −=<< 1ˆˆ 21P θ θ θ α −1 α Estadística de una muestra aleatoria y conforman los límites inferior y superior Grado de confianza θ1̂θ 2̂y [ ] −=<< 1ˆˆ 21P θ θ θ α[ ] −=<< 1ˆˆ 21P θ θ θ α De manera que tomando a α cercana a cero, el grado de confianza es cercano a uno. En forma práctica, tomaremos a α = 0,05; de modo que el grado de confianza es del 95%. Si una población sigue una distribución normal de parámetros y ; y las muestras son de tamaño , la media muestral sigue una distribución: Se trata de encontrar un valor k como muestra la figura: Buscaremos al valor k que deje en el intervalo al . 100 % de la población. Partiremos de la Normal tabulada si queremos que el intervalo buscado contenga a la media muestral , con de con- fianza; entonces el área fuera de la zona gris de la gráfica equivale a , y como la curva es simétrica, cada región (izquierda y derecha de la zona gris) mide . Surge la siguiente gráfica: Buscamos ahora, al valor que deje en el intervalo al de la población en la . Como en la Normal estándar se cumple que: o bien que: Debemos tipificar a la variable para trabajarla como Normal tipificada de modo que; , despejando k, obtenemos el valor deseado: 45 Estadística Aplicada Di Paolo, Claudio Javier Inferencia Estadística µ−k µ µ+k µ σ 30≥n µ σ → n NX , µ µ( )kk +− ; α α 1− α( ) 1− α( ) 1− α( ) NN (0,1) N (0,1) Z → X 2 -z z 1 − αα 2 α 2 α 2 α 2 z α 2 -zα 2 ; zα 2 α α 22 = ≥ zZP α α 22 = zZP 1−≤ µ σ n N , α µ σ 2 z n k =− αµ σ 2 znk ⋅+= Entonces, dado el nivel de significación α ó el de confianza 1- α , deter- minamos el intervalo de probabilidad para la media muestral que será: Ejemplo: Determinar en una población , el valor que concentra el 75% de la población en un intervalo simétrico respecto a la media. Entonces: 1- α = 0,75; α = 0,25; por lo tanto: = 0,125. Ahora buscamos el valor z0,125 para poder dejar dentro del intervalo al 75% de la población. De modo que: y ; entonces z0,125=1,15 Valor obtenido de la tabla. Casos de una población normal A) Intervalo para la media de una población normal con varianza conocida Sea X1, X2, X3, . . .,Xn , una muestra aleatoria de una población normal con µ desconocida y σ2 conocida; y si la muestra tiene un tamaño n ≥ 30, o bien la distribución es normal, el intervalo de confianza con nivel de confianza de 1- α (100%) queda constituido por: Si σ es desconocida, se utiliza S en su lugar. A se lo denomina Error típico o estándar. B) Intervalo aproximado para la media de una población normal con varianza desconocida y tamaño de muestra grande N (0,1) 46 Estadística Aplicada Di Paolo, Claudio Javier Inferencia Estadística µ µσ σ ⋅+⋅− 22 ;� z n z n αα α 2 0,75 0,125 0,125 -z0,125 z0,125 P( ) 0,1250,125 =≥ zZ P( ) 0,8750,125 =≥zZ σ α σ α ⋅+⋅− 22 ; z n Xz n X n σ Sea X1, X2, X3, . . .,Xn ,una muestra aleatoria de una población normal con µ y σ2 desconocidas y n ≥ 30 (tomando como mayor o igual a 30 las ob- servaciones de la muestra),entonces, la v.a. Z tiene una distribución apro- ximada normal estándar: , a consecuencia del Teorema Central del Límite. Luego, ,determinan un intervalo de confianza aproximado al 100% para . C) Intervalo exacto para la media de una población normal con varianza desconocida Sea X1, X2, X3, . . .,Xn ,una muestra aleatoria de una población normal con µ y σ2 desconocidas, tenemos que la variable aleatoria , en donde tiene una distribución t-student con n −1 grados de libertad, de manera que podemos construir el intervalo de confianza para µ: , con grados de confianza del 100%. Error Máximo Admisible Definimos así, a la diferencia en valor absoluto entre la media poblacional y la muestral. ; en donde Cálculo del Error Máximo Admisible Las propiedades que cumple el error máximo admisible son: 1 E es menor cuanto más grande sea n(el tamaño de la muestra), porque dividimos por n. 2 E es mayor al aumentar el nivel de confianza porque cuando crece 1-α , aumenta . 3 A partir del valor del Error Máximo Admisible podemos calcular el tamaño de la muestra despejando en la fórmula y quedará así: Ejercicio: Al medir un tiempo de reacción, un psicólogo sabe que la desviación típica del mismo es 0,5 segundos. ¿Cuál es el número de medidas que debería realizar para que con una confianza del 99%, el error de estimación no exceda de 0,1 segundos?. 47 Estadística Aplicada Di Paolo, Claudio Javier Inferencia Estadística nS XZ / −= µ nS XT / −= µ µ 1− αµα 2 α 2 = +<<− SZX n n SZXP 1− αµα 2 α 2 = +<<− StX n n StXP ,n-1 ,n-1 µ X− µ σ2 n zX ⋅=− α 2 zα 2 σ n ⋅α 2 zE = σ α 2 z 2 ⋅= E n D) Estimación de una proporción Si estamos ante el caso de desconocer, en una población, la proporción p de individuos que posean cierta característica para estudiar y deseamos establecer el intervalo de confianza para p, con un nivel de confianza de 1-α ,en un tamaño de muestra n ≥ 30, este intervalo resultaría: Diferencia entre intervalos de probabilidad y de confianza En un intervalo de probabilidad lo que conocemos es la media y la desviación típica poblacional, y damos el intervalo donde se encontrará (para un cierto nivel de confianza) la media muestral o la proporción muestral. Sin embargo, en un intervalo de confianza entramos ya en el terreno de la estimación, es decir NO conocemos la media poblacional (y en ocasio- nes tampoco la desviación típica poblacional) ni la proporción poblacio- nal, sino que sólo conocemos, o podemos calcular, la media muestral o la proporción muestral, y de lo que se trata es de dar un intervalo en el que se encuentre la media poblacional (o la proporción poblacional). El Contraste de Hipótesis o PRUEBA DE HIPÓTESIS Una hipótesis estadística es una afirmación o conjetura con respecto a la distribución de una o más variables aleatorias. Tipos de Hipótesis Hipótesis simple: Se refiere a un valor exacto que afirmamos o conjeturamos sobre el parámetro de una distribución. Ejemplo: Si tenemos una distribución binomial (n,p), la afirmación p=0,25 es una hipótesis simple, pues asigna un único valor a la variable p. Hipótesis compuesta: Se refiere a un conjunto de valores aproxi- mado que afirmamos o conjeturamos sobre
Compartir