Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
1 Unidad N°1 Introducción a la Estadística ESTADÍSTICA: Es una parte de la matemática que estudia cómo vamos a recolectar, organizar, resumir y presentar información para analizar datos desde los cuales vamos a poder sacar conclusiones válidas y tomar decisiones basadas en el análisis. Su importancia es que nos permite tener un panorama completo de la situación u objeto de estudio. También nos permite Recolectar, Organizar, Procesar, Analizar e Interpretar datos. El uso o la aplicación de conceptos de probabilidad permite interpretar la vida cotidiana a partir de los resultados de la inferencia estadística. Podríamos por tanto clasificar o dividir la estadística en: • Estadística descriptiva: Describe, analiza y representa un grupo de datos, utilizando métodos numéricos y gráficos que resumen y presentan la información contenida en ellos. • Estadística inferencial: Apoyándose en el cálculo de probabilidades y a partir de datos muestrales, efectúa estimaciones, decisiones, predicciones u otras generalizaciones sobre un conjunto mayor de datos. Para obtener una estadística analizamos lo siguiente: • ELEMENTOS: personas u objetos que contienen cierta información que se desea estudiar. • POBLACIÓN: es el conjunto total de individuos, objetos o eventos que tiene las mismas características y sobre el que estamos interesados en obtener conclusiones. Puede ser finita o infinita. • MUESTRA: subconjunto representativo de una población que se quiere analizar (debe ser REPRESENTATIVA→ misma posibilidad de haber sido seleccionados). Cada unidad de análisis de la muestra es parte de la información o variable estadística. Hace que la variable sea susceptible a ser medida. • PARÁMETRO: función definida sobre los valores numéricos de características medibles de una población. • ESTADÍSTICO: función definida sobre los valores numéricos de una muestra. La población es un conjunto de datos. Para analizarla se toma una muestra o subconjunto de esa población, en donde se sacan conclusiones que correspondan a todo el conjunto. Dentro de ese subconjunto o muestra, está la unidad de análisis, que son los individuos portadores de información, y lo que contesten es la variable estadística. VARIABLES: característica observable y susceptible de ser medida. Conjunto de datos que vamos a estudiar. Son los elementos de base que surgen de la muestra y la unidad de observación. Son una unidad de medición. Es un símbolo que puede tomar cualquier valor de un conjunto determinado, que llamaremos dominio de la variable o rango. Se pueden clasificar en: 1. Tipo de Variable: • Cualitativa: Si sus valores (modalidades) no se pueden asociar naturalmente a un número (no se pueden hacer operaciones algebraicas con ellos), se expresa con palabras (cualidades, categorías o atributos). Las variables categóricas o cualitativas son las que describen características conceptuales de una población o muestra. ▪ Dicotómica → dos posibilidades (si o no) ▪ Policotómica → más de dos posibilidades o NOMINAL: la información es un nombre o categoría y no se puede ordenar, sólo clasificar e identificar elementos (estado civil) o ORDINAL: es posible establecer un orden entre ellas, indican jerarquía. Permiten establecer una secuencia lógica que mide la intensidad del atributo. Escalas o etapas, de menor a mayor. (grado de escolaridad) • Cuantitativa: son las que tienen por modalidades medibles o cantidades numéricas con las que podemos hacer operaciones aritméticas (cantidad de personas que…) o DISCRETAS: unidades completas. Poca cantidad de variables. Números enteros. 2 o CONTINUAS: cualquier valor en un rango, entre dos valores, son posibles infinitos valores intermedios (números reales). Provienen de la medición. Mucha cantidad de variables. 2. Nivel de medición: posibilidad de cuantificación o cualificación • Nominal: es una categoría aislada, solo permite clasificar o identificar elementos. • Ordinal: permite clasificar y ordenar, es decir, establecer una secuencia lógica que mide la intensidad del atributo. Orden. • Intervalar: cuando el cero sea convencional o arbitrario (relativo), no es absoluto. Permite clasificar y ordenar. Establece distancia. (Temperatura, medición cronológica) • De Razón: cuando el cero sea real, absoluto o verdadero; que haya una ausencia de las características que se están analizando y determina una distancia exacta entre intervalos. Permite clasificar y ordenar. 3. Naturaleza de la variable: • Discreta o Discontinua • Continua La información obtenida debe ser trasladada a una base de datos o tabla de datos, estas son la materia prima del análisis estadístico. Estas tablas deben ser tabuladas para obtener parámetros que posteriormente debemos trasladar a números o gráficos. INFORMACIÓN NUMÉRICA: • Tendencia central: se toma desde la población, son el promedio o media, la mediana y la moda • Dispersión: rango, desviación estándar y coeficiente de variación. • Forma: simetría. • Posición: valores extremos, cuarntiles. INFORMACIÓN GRÁFICA: • Gráfico de sectores: informa de distribución. Representa variables cualitativas y frecuencias. • Gráfico de barras: informa distribución. Representa variables cualitativas o cuantitativas discretas. • Histogramas: informa de forma y tendencia central. Representa variables cuantitativas continuas y gran cantidad de observaciones. • Box-Plot (diagrama de caja): informa de forma y posición. Representa variables cuantitativas continuas. • Líneas: informa de tendencia. Representa variables cuantitativas RECURSOS INFORMÁTICOS • Alternativas comerciales: Calculadoras con modo estadístico, Ms Excel, Programa SPSS. • Alternativas libres o gratuitas: Planilla OpenOffice, Programa R, Programa PAST. DISTRIBUCIÓN DE FRECUENCIA: conjunto de clases junto a las frecuencias correspondientes a cada una de ellas. Una tabla estadística sirve para presentar de forma ordenada las distribuciones de frecuencias. Su forma general es la siguiente: xi fi Fi fr Fr A 1 2 3 4 Frecuencia: cantidad de veces que se repite un dato Para analizar los datos utilizamos: • FRECUENCIA ABSOLUTA: recuento de la variable que se estudia, el número de veces que aparece. Si sumo la columna de las frecuencias absolutas siempre me da el tamaño de la muestra. (fi) • FRECUENCIA ABSOLUTA ACUMULADA: suma consecutiva de las frecuencias absolutas. (Fi) 3 • FRECUENCIA RELATIVA: es un dato proporción (número) que me indica cual es el peso relativo o la importancia de una frecuencia absoluta respecto del tamaño de la muestra. Es el cociente de una frecuencia absoluta dada respecto del total de datos de la muestra. (fr) • FRECUENCIA RELATIVA ACUMULADA: es la división entre la frecuencia absoluta acumulada y la frecuencia absoluta total. (Fr) • FRECUENCIA PORCENTUAL: frecuencia relativa multiplicada por 100%. La sumatoria de las frecuencias porcentual debe ser igual a 100. (f%) • ARCO DEL CÍRCULO DEL DIAGRAMA DE SECTORES O TARTAS: se utiliza para saber que arco del círculo le corresponde a cada modalidad. Fórmula: α =̂fr*360° Representaciones gráficas Se utilizan para ver de una forma más clara, las características de una población (conjunto de datos). Gráficos para variables cualitativas • Diagrama de barras verticales o columnas: alturas proporcionales a las frecuencias (abs. o rel.). Se pueden aplicar también a variables discretas. • Diagrama circular: Se divide un círculo en tantas porciones como clases existan, de modo que a cada clase le corresponde un arco de círculo proporcional a su frecuencia absoluta o relativa. El área de cada sector es proporcional a su frecuencia (abs. o rel.) Gráficos para variables cuantitativas Para las variables cuantitativas, consideraremos dos tipos de gráficos, en función de que para realizarlos se usen las frecuencias (absolutas o relativas) o las frecuencias acumuladas:• Diagramas diferenciales: Son aquellos en los que se representan frecuencias absolutas o relativas. En ellos se representa el número o porcentaje de elementos que presenta una modalidad dada. • Diagramas integrales: Son aquellos en los que se representan el número de elementos que presentan una modalidad inferior o igual a una dada. Se realizan a partir de las frecuencias acumuladas, lo que da lugar a gráficos crecientes, y es obvio que este tipo de gráficos no tiene sentido para variables cualitativas. 4 Gráficos para variables cuantitativas discretas Para representarlas, usamos el diagrama de barras cuando pretendemos hacer una gráfica diferencial. Las barras deben ser estrechas para representar que los valores que toma la variable son discretos. El diagrama integral o acumulado tiene, por la naturaleza de la variable, forma de escalera. Gráficos para variables cuantitativas continuas Cuando las variables son continuas, utilizamos: • Como diagramas diferenciales los histogramas y los polígonos de frecuencias. o Un histograma se construye a partir de la tabla estadística, representando sobre cada intervalo, un rectángulo que tiene a este segmento como base. El criterio para calcular la altura de cada rectángulo es el de mantener la proporcionalidad entre las frecuencias absolutas (o relativas) de cada intervalo y el área de los mismos. o El polígono de frecuencias se construye fácilmente si tenemos representado previamente el histograma, ya que consiste en unir mediante líneas rectas los puntos del histograma que corresponden a las marcas de clase. Para representar el polígono de frecuencias en el primer y último intervalo, suponemos que adyacentes a ellos existen otros intervalos de la misma amplitud (le sumamos el ancho tanto a la izquierda como a la derecha del histograma) y frecuencia nula, y se unen por una línea recta los puntos del histograma que corresponden a sus marcas de clase. • El diagrama integral para una variable continua se denomina también polígono de frecuencias acumulado, y se obtiene como la poligonal definida en abscisas a partir de los extremos de los intervalos en los que hemos organizado la tabla de la variable, y en ordenadas por alturas que son proporcionales a las frecuencias acumuladas. Dicho de otro modo, el polígono de frecuencias absolutas es una primitiva del histograma. AGRUPACIÓN EN INTERVALOS DE CLASES MONOMODULARES MONOMODULARES: tienen un mismo módulo • Intervalos son grupos de valores que describen una característica, son exhaustivos (representa cualquier nº dentro de él) y excluyentes (deja afuera datos innecesarios). • Frontera o Inferior o Superior • Límites: son los valores (modalidades) en un intervalo, que se están analizando. Toma valores verdaderos. o Superior o Inferior • Marcas de clase: son los valores de variables representantes de cada intervalo. Es el valor medio del intervalo en cuestión. Promedio entre las fronteras o los límites. • Módulo o Amplitud: distancia entre fronteras. Es la longitud del intervalo analizado. o Fórmula: h = R / NºS • Rango: e s una medida absoluta que mide la distancia entre el máximo valor y el mínimo valor. o Formula: R = Valor máximo – Valor mínimo • Número de Sturges: es el número de clases o intervalos que son necesarios para representar gráficamente un conjunto de datos estadísticos. o Fórmula: N°S 1 + Log 2 (n) AGRUPACIÓN EN INTERVALOS DE CLASES no MONOMODULARES Se utilizan cuando el conjunto de datos tiene más de un módulo. Densidad de clase: Conjunto de datos que se obtiene de dividir la frecuencia relativa por el módulo de cada clase. 5 Unidad N° 3 Introducción a la Combinatoria COMBINATORIA: parte de la matemática abocada a estudiar la cantidad de formas de elegir un subconjunto a partir de un conjunto dado de elementos. Para lograr determinar un subconjunto se utiliza el principio fundamental de conteo: Principio fundamental de conteo o principio multiplicativo: si una acción puede realizarse de n1 maneras diferentes y una segunda acción puede realizarse de n2 maneras diferentes, hasta la acción “nk” maneras diferentes, entonces las acciones pueden realizarse secuencialmente de n1*n2*…*nk maneras diferentes. SUJETO DE LA COMBINATORIA: distintas formas de seleccionar subconjuntos a partir de un conjunto dado. El orden importa en ambos. Esencialmente son lo mismo, solo varía el tamaño. • VARIACIONES: El tamaño de la muestra es menor que en una permutación. o Sin repetición: Operador matemático que calcula la cantidad de formas en que se puede elegir “r” elementos de un grupo “n” cuando importa el orden de los mismos. ▪ FÓRMULA PARA CALCULAR UNA VARIACIÓN → V(n, r)=n*(n-1)*(n-2)*(n-…)*(n-r+1) o Con Repetición: Operador matemático que calcula la cantidad de formas en que se puede elegir “r” elementos de un grupo de “n” cuando se puede repetir los elementos en el subgrupo. ▪ FÓRMULA PARA CALCULAR LA VARIACIÓN → V*(n,r)=n.n.n.n….n= nr • PERMUTACIONES: el tamaño de la muestra es igual al tamaño del conjunto dado. Es mayor que en las variaciones. o Sin repetición: operador matemático que permite calcular de cuántas maneras pueden seleccionarse “n” elementos de un grupo de “n” elementos sin repetirlos. Solo se puede permutar el orden de los elementos. ▪ FÓRMULA PARA CALCULAR LA PERMUTACIÓN → Pn = n*(n-1)*(n-2)…4*3*2*1 FACTORIAL DE UN NÚMERO ENTERO: se llama factorial de un número “n” entero y positivo al producto de los números enteros consecutivos desde 1 hasta “n”. La diferencia entre este concepto y la permutación es que no se puede calcular la permutación de 0 elementos pero si el factorial de 0 elementos. FÓRMULA PARA CALCULAR UN FACTORIAL → n!= 1x2x3x4x…x(n-1)xn=nx(n-1)x…x2x1. • PROPIEDAD 1: n!= nx (n-1)! • PROPIEDAD 2: a!=b! → a=b • PROPIEDAD 3: 1!= 1 y 0!= 1 ▪ NUEVA FORMA DE CALCULAR LA PERMUTACIÓN → 𝑽𝒏 𝒓 = 𝒏! (𝒏−𝒓)! o Con repetición: es un operador matemático que permite calcular de cuántas maneras pueden seleccionarse “n” elementos de un grupo de “n” elementos pudiendo repetir los elementos. El tamaño del subgrupo es igual al del grupo de elementos. ▪ FÓRMULA PARA CALCULAR LA PERMUTACIÓN → P*n= nn ➢ LINEALES: se disponen los elementos en una fila. → Pn=n! ➢ CIRCULAR: se disponen los elementos en un círculo. → Pn= (n-1)! ➢ CON ELEMENTOS REPETIDOS: → 𝑷𝒙,𝒗,𝒓𝒏 = 𝒏! 𝒙! .𝒗! .𝒓! • COMBINACIONES: el orden no importa, no hay jerarquía o categoría en las muestras. o Sin repetición: operador matemático que permite calcular de cuántas maneras diferentes pueden elegirse “r” elementos de un grupo de “n” elementos cuando no importa el orden. ▪ FÓRMULA PARA CALCULAR UNA COMBINACIÓN → 𝐶𝑚 𝑛 = 𝑉𝑚 𝑛 𝑃𝑛 6 ▪ FÓRMULA CON FACTORIALES → 𝐶𝑚 𝑛 = ( 𝑚 𝑛 ) = 𝑚! 𝑛!(𝑚−𝑛)! NUMERO COMBINATORIO: objetos matemáticos. Se lee n sobre p. FÓRMULA PARA CALCULAR UN COMBINATORIO → ( 𝑛 𝑝 ) = 𝑛! 𝑝!(𝑛−𝑝)! PROPIEDADES: • El número combinatorio de n en 0 es siempre igual a 1 ( 𝑛 0 ) = 1 • El número combinatorio de n en n es siempre igual a 1 ( 𝑛 𝑛 ) = 1 • El número combinatorio de n en 1 es siempre igual a n ( 𝑛 1 ) = 𝑛 • Los números combinatorios complementarios son iguales ( 𝑛 𝑟 ) = 𝑛 𝑛−𝑟 o Con repetición: operador matemático que permite calcular de cuántas maneras diferentes pueden elegirse “r” elementos de un grupo “n” elementos pudiendo repetir los elementos. ▪ FÓRMULA PARA CALCULAR UNA COMBINACIÓN → 𝐶𝑅𝑛 𝑟 = (𝑛+𝑟−1)! 𝑟!(𝑛−1)! RESUMEN Agrupaciones Sin repetición Con repetición ¿Importa el orden? SI Variaciones Tomamos algunos elementos n de m 𝑉 𝑚 𝑛 = 𝑚! (𝑚 − 𝑛)! 𝑉𝑅𝑚 𝑛 = 𝑚𝑛 Permutaciones Tomamos todos los elementos m 𝑃𝑛 = 𝑛! 𝑷𝒏 𝒙,𝒗,𝒓 = 𝒏! 𝒙! . 𝒗! . 𝒓! NO Combinaciones Tomamos algunos elementos n de m 𝐶𝑚 𝑛 = ( 𝑚 𝑛 ) = 𝑚! 𝑛! (𝑚 − 𝑛)! 𝐶 𝑚 ∗𝑛 =(𝑚 + 𝑛 − 1)! 𝑛! ∗ (𝑚 − 1)! TRIÁNGULO DE TARTAGLIA 7 Vamos a usar el binomio de Newton para el cálculo de la probabilidad. Experimentos aleatorios y deterministas Experimentos deterministas: experimentos en los que conocidas las condiciones iniciales se pueden predecir los resultados finales. EXPERIMENTOS ALEATORIOS: experimentos en los que conozco las posibilidades pero no puedo predecir el resultado, esto es debido a que hay más de un resultado posible. Aquel en el que su resultado depende del azar. El experimento siempre debe ser realizado en las mismas condiciones. ESPACIO MUESTRAL: conjunto formado por los posibles resultados y se representa como “E”. A los subconjuntos del espacio muestral (resultado posible) se le llama suceso o evento. SUCESO: Son subconjuntos del espacio muestral, es decir que representa cualquier resultado posible al realizar un experimento aleatorio. Tipos de sucesos: • Suceso imposible (Ǿ): es aquel que nunca puede ocurrir. • Suceso seguro (E): aquel que ocurre siempre. • Suceso elemental: aquel formado por un solo elemento. • Suceso compuesto: aquel formado por más de un elemento. ÁLGEBRA DE SUCESOS: • Unión de sucesos: es un evento compuesto formado por todos los elementos de unos de los eventos agregándole los elementos del otro evento. Se simboliza como A U B. Sus PROPIEDADES son: o Conmutativa: A U B = B U A o Asociativa: A U (B U C) = (A U B) U C o Idempotente: A U A = A o Simplificación: A U (A ꓵ B)= A o Distributiva: A U (B ꓵ C)= (A U B) ꓵ (A U C) o Elemento Neutro: A U Ǿ =A o Absorción: A U E = E • Intersección de sucesos: elementos comunes que se repiten en dos eventos. Se simboliza como A ꓵ B. Sus PROPIEDADES son: o Conmutativa: A ꓵ B = B ꓵ A o Asociativa: A ꓵ (B ꓵ C) = (A ꓵ B) ꓵ C o Idempotente: A ꓵ A = A o Simplificación: A ꓵ (A ꓵ B) = A o Distributiva: A ꓵ (B ꓵ C) = (A ꓵ B) U (A ꓵ C) o Elemento neutro: A ꓵ E = A 8 o Absorción: A ꓵ Ǿ = Ǿ • Complemento de un suceso: conjunto formado por todos los elementos que no perteneces al evento dado. Se calcula como �̅�= E – A. Sus PROPIEDADES son: o (�̅�) = A o �̅� = Ǿ o Ǿ = E o A U �̅� = E o A ꓵ �̅� = Ǿ ▪ Leyes de Morgan o (𝐴 𝑈 𝐵̅̅ ̅̅ ̅̅ ̅̅ ) = �̅� ꓵ �̅� o (𝐴 ꓵ 𝐵̅̅ ̅̅ ̅̅ ̅) = �̅� U �̅� • Diferencia de sucesos: es el evento compuesto que resulta de considerar todos los elementos que pertenezcan al primer conjunto pero que no sean parte del segundo conjunto. Se calcula como A – B. Su PROPIEDAD es: o A – B= A ꓵ �̅� CARDINAL DE UN SUCESO: cantidad de elementos que tiene un evento. Se simboliza como |A|. Su PROPIEDAD es: o |A U B|= |A| + |B| - |A ꓵ B| Probabilidad La probabilidad mide la mayor o menor posibilidad de que se dé un determinado evento cuando se realiza un experimento aleatorio. Es todo experimento aleatorio donde siempre hay incertidumbre sobre si un suceso específico ocurrirá o no. Es un número que oscila entre 0 y 1. Si es 0 la probabilidad es de un suceso imposible y si es 1 es de un suceso seguro. El resto de sucesos tendrá probabilidades entre cero y uno, que será tanto mayor cuanto más probable sea que dicho suceso tenga lugar. ENFOQUE CLÁSICO: si un suceso puede ocurrir en “h” maneras diferentes de un número total de “n” maneras posibles, todos igualmente factibles, entonces la probabilidad del suceso es h/n. Consideramos que tomos los eventos tienen exactamente la misma probabilidad de ocurrir (es un error). Según la Regla de Laplace: se define a la probabilidad de un suceso como el cociente entre casos favorables y casos posibles. P(A)= Casos favorables / Casos posibles. Para poder aplicar esta regla el experimento aleatorio debe cumplir dos requisitos: a) El número de sucesos tiene que ser finito: si hubiera infinitos resultados el cociente siempre sería 0. b) Todos los sucesos tienen que tener la misma probabilidad. A la Reglas de Laplace también se le denomina “probabilidad a priori”, ya que para aplicarla hay que conocer, antes de realizar el experimento, cuáles son los posibles resultados y saber que todos tienen las mismas probabilidades. ENFOQUE COMO FRECUENCIA RELATIVA: si después de “n” repeticiones de un experimento, donde “n” es muy grande, un suceso ocurre “h” veces, entonces la probabilidad del suceso es h/n. En este modelo no es necesario que el número de soluciones sea finito ni que todos los sucesos tengan la misma probabilidad. A esta definición se le denomina “probabilidad a posteriori”, ya que tan solo repitiendo un experimento un número elevado de veces podremos saber cuál es la probabilidad de cada suceso. Ley del Azar: cuando se realiza un experimento aleatorio o azaroso “muchas” veces, las probabilidades de los diversos posibles, tiende a la probabilidad. PROBABILIDAD DE SUCESOS a) Un suceso puede estar contenido en otro: entonces la probabilidad del primer suceso será menos que la del suceso que lo contiene. b) Dos sucesos pueden ser iguales: en este caso, las probabilidades de ambos sucesos son las mismas. 9 c) Intersección de sucesos: es aquel suceso compuesto por los elementos comunes de los dos o más sucesos que se intersectan. La probabilidad será igual a la probabilidad de los elementos comunes. d) Unión de dos o más sucesos: la probabilidad de la unión de dos sucesos es igual a la suma de las probabilidades individuales de los dos sucesos que se unen, menos la probabilidad del suceso intersección. e) Sucesos incompatibles: la probabilidad de la unión de dos sucesos incompatibles será igual a la suma de las probabilidades de cada uno de los sucesos (ya que su intersección es el conjunto vacío y por lo tanto no hay que restarle nada). f) Sucesos complementarios: la probabilidad de un suceso complementario a un suceso (A) es = a 1- P(A) DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD: según Andrei Kolmogorov Axioma: ley irrefutable, enunciado que no se puede contradecir ni cambiar. En base a estos axiomas se pueden construir estructuras científicas estables. Si hacemos un determinado experimento, que tiene un espacio muestral “n”, definimos la probabilidad como una función que asocia a cada suceso A una determinada probabilidad, P(A), que cumple las siguientes propiedades: 1. La probabilidad de cualquier suceso A es positiva o cero. Es decir, P(A)>= 0. La probabilidad mide, en cierta manera, lo difícil que es que ocurra un suceso A. 2. La probabilidad des suceso seguro es 1. Es decir, P(n) =1. Así pues, la probabilidad siempre es mayor que 0 y menor que 1: probabilidad cero quiere decir que no hay ninguna posibilidad de que pase (suceso imposible) y probabilidad 1, que siempre pasa (suceso seguro). 3. La probabilidad de la unión de un conjunto cualquiera de sucesos incompatibles dos a dos es la suma de las probabilidades de los sucesos. Estos es, si tenemos, por ejemplo, los sucesos A, B, C y son incompatibles dos a dos, entonces P (A U B U C) = P(A) + P(B) + P(C). PROPIEDADES DE LA PROBABILIDAD: o P(A) + P(�̅�) = 1 o Si A c B, entonces P (A)<= P(B). Incluyente. o P (A U B) = P(A) + P(B) – P (A ꓵ B). Propiedad de los cardinales. PROBABILIDAD MARGINAL, CONJUNTA Y CONDICIONAL PROBABILIDAD MARGINAL: relacionada con el margen y un evento específico. Se cumple para un solo evento o una sola característica. PROBABILIDAD CONJUNTA: cuando tengo en cuenta la intersección. PROBABILIDAD CONDICIONAL: se establece una condición. “Sabiendo que/ tal que” Relación entre las tres probabilidades → la probabilidad condicional de A dado B es igual a la probabilidad conjunta de ambos dividido la probabilidad de la condición (marginal). 10 P(A/B) = P (A ꓵ B)/ P(B) o también P (A ꓵ B) = P(A/B) * P(B) Donde P(A/B) es la probabilidad condicional, P(A ꓵ B) es la probabilidad conjunta, y P(B) es la probabilidad marginal. EVENTOS DEPENDIENTES Dos eventos son dependientes si el resultado del primer evento afecta el resultadodel segundo evento así que la probabilidad es cambiada. EJEMPLO: De una urna se extraen sucesivamente y SIN reposición 3 bolillas .La misma contiene 5 bolillas verdes, 3 rojas y 2 amarillas ¿cuál es la probabilidad que salgan? • P(R∩R∩V)= P(R)*P(R/R)*P(V/R∩R)=3/10*2/9*5/8=30/720 • P(A∩V∩V)= P(A)*P(V/A)*P(V/A∩V)=2/10*5/9*4/8=40/720 El hecho de que sean sin reposición, nos indica que los elementos no pueden volver a ser elegidos, perteneciendo a un evento no independiente. EVENTOS INDEPENDIENTES Dos eventos son independientes si el resultado del segundo evento no es afectado por el resultado del primer evento. Si A y B son eventos independientes, la probabilidad de que ambos eventos ocurran es el producto de las probabilidades de los eventos individuales. Dos eventos A y B son estadísticamente independientes si: o P(A/B) = P(A) o P(B/A) = P(B) o P (A ꓵ B) = P(A) * P(B) EJEMPLO: De una urna se extraen sucesivamente y CON reposición 3 bolillas .La misma contiene 5 bolillas verdes, 3 rojas y 2 amarillas; ¿cuál es la probabilidad que salgan: • P(R∩R∩V)= P(R)*P(R)*P(V)= 3/10*3/10*5/10=45/1000 • P(A∩V∩V)= P(A)*P(V)*P(V)=2/10*5/10*5/10=50/1000 El hecho de que sean con reposición, nos indica que los elementos pueden volver a ser elegidos, perteneciendo a un evento independiente. Aplicación a circuitos eléctricos Circuito en serie: la probabilidad resultante debe ser menor que la de los eventos. • Probabilidad de que el sistema funcione → P(A ꓵ B) = P(A) * P(B) Circuito en paralelo: la probabilidad resultante debe ser mayor que la de los eventos. 11 • Probabilidad de que el sistema funcione → P(A U B)= 1 – P(𝐴 ꓵ 𝐵̅̅ ̅̅ ̅̅ ̅) Teorema de Bayes Hay un espacio muestral constituido por los eventos B1, B2, B3 y B4, la unión de todos los eventos da 1. En este contexto aparece un nuevo evento D comparte ciertas áreas con los eventos anteriores, es decir que hay intersección entre eventos. ➔ D es lo común entre D y B1 agregandole lo común entre D y B2....agregandole lo común entre D y B4. (D es la unión de 4 eventos. Tercer axioma de la probabilidad: La probabilidad de la unión de eventos disjuntos es igual a la suma de las probabilidades de dichos eventos. Probabilidad Total Donde (Bj ꓵ D) es la Probabilidad Conjunta,∑ 𝑃(𝐵𝑖) ∗ 𝑃(𝐷/𝐵𝑖)𝑖=0 es la Probabilidad Marginal Diagrama de Árbol: herramienta que se utiliza para determinar si en realidad en el cálculo de muchas opciones se requiere conocer el número de objetos que forman parte del espacio muestral, estos se pueden determinar con la construcción de un diagrama de árbol. Diagrama de Venn: esquemas usados en la teoría de conjuntos. Estos diagramas muestran colecciones de cosas por medio de líneas cerradas. A la hora de crearlos es conveniente comenzar desde la intersección entre los tres. 12 13 Unidad N° 2 Estadísticos y Parámetros Cuando tratamos con muestras se llama estadísticos, cuando trabajamos con una población hablamos de parámetros. MEDIDAS DE TENDENCIA CENTRAL: son valores representativos de un conjunto de datos que muestran los valores centrales o más importantes. • MEDIA ARITMÉTICA O PROMEDIO: es un estadístico cuyo valor es una especie de centro de gravedad de los datos. Es la sumatoria del valor de variable, dividido el total de datos. Cuando los datos se repiten, cada valor va a estar multiplicado por su frecuencia absoluta, y todo esto dividido por el número total de datos (sumatoria de las frecuencias absolutas). En series simples sin repeticiones En series de frecuencias con repeticiones En series agrupadas en intervalos �̅� = ∑ 𝑥𝑖𝑛𝑖=1 𝑛 �̅� = ∑ 𝑥𝑖 ∗ 𝑓𝑖𝑛𝑖=1 𝑛 �̅� = ∑ 𝑥𝑐𝑖̅̅̅̅ 𝑛 𝑖=1 ∗ 𝑓𝑖 𝑛 o PROPIEDADES: ▪ La suma de las desviaciones de los valores de la variable con respecto a la media aritmética es 0. ▪ La media aritmética de los cuadrados de las desviaciones de los valores de la variable con respecto a una constante cualquiera se hace mínima cuando dicha constante coincide con la media aritmética. ▪ Si a todos los valores de la variable se le suma una misma cantidad, la media aritmética queda aumentada dicha cantidad. ▪ Si todos los valores de la variable se multiplican por una misma constante la media aritmética queda multiplicada por dicha constante. o INCONVENIENTES: ▪ Para datos agrupados en intervalos (variables continuas) su valor oscila en función de la cantidad y amplitud de los intervalos que se consideren. ▪ Cuando el conjunto de datos es muy heterogéneo entonces la media no será representativa, en cambio, cuando el conjunto de datos es más o menos homogéneo la media sí será representativa. ▪ En el cálculo de la media no todos los valores contribuyen de la misma manera. Los valores altos tienen más peso que los valores cercanos a cero por lo cual el máximo y el mínimo se suelen descartar. ▪ No se puede determinar si en una distribución de frecuencias hay intervalos de clase abiertos. • LA MEDIANA: es un estadístico de posición central que parte la distribución en dos, es decir, deja la misma cantidad de valores a un lado que a otro. Para calcularla es importante que los datos estén ordenados de mayor a menor o viceversa, es decir, que tengan un orden. Datos discretos Datos continuos °me= 𝑛+1 2 → posición °me= 𝑛 2 → posición me= 𝑓𝑟𝑜𝑛𝑡. 𝑖𝑛𝑓. + ( 𝑛 2 −𝐹𝑖−11𝑎 ) 𝑓𝑖 *h 1 I-1 significa intervalo anterior 14 o PROPIEDADES: ▪ ▪ Es única, solo existe una mediana para un conjunto de datos. ▪ No se ve afectada por valores muy grandes o muy pequeños. ▪ Puede calcularse para una distribución de frecuencias con una clase de extremo abierto, si la mediana no se encuentra … ▪ Puede obtenerse para datos de nivel de razón, de intervalo y ordinal (excepto para el nominal) • MODA O MODO: es el valor que más se repite Datos discretos Datos continuos Se obtiene de la observación de datos Moda= 𝑓𝑟𝑜𝑛𝑡 inf + ∆1 ∆1+∆2 ∗ ℎ o PROPIEDADES: ▪ El valor de la observación que aparece con más frecuencia. ▪ Puede determinarse para todos los niveles de datos. ▪ No se ve afectada por valores muy altos o muy bajos. ▪ Puede utilizarse como medida de tendencia central para distribuciones con clases de extremo abierto o DESVENTAJAS: ▪ Para muchos conjuntos de datos no hay valor modal porque ningún valor aparece más de una vez ▪ Para algunos conjuntos de datos hay más de una moda. Si hay dos se denomina bimodal, y si hay más de dos multimodal. • MEDIDAS DE POSICIÓN: en general se llaman cuantiles. o Quartiles: son tres valores que dividen al conjunto de datos en cuatro partes, cada una de las partes con 25% de la información total. ▪ Q1: es el valor que es mayor del 25%, menor de los datos pero inferior al 75% restante de los datos. ▪ Q2: es el valor central de los datos que es mayor que el 50% de los datos pero inferior al otro 50% de los datos restantes. Representa el mismo valor que la mediana. ▪ Q3: es el valor que divide al conjunto de datos de modo que es superior al 75% de los datos pero inferior al 25% mayor de los mismos. FÓRMULA: ▪ Datos discretos °𝑞𝑛 = 𝑞(1,2,3) ∗ (𝑛+1) 4 → posición 𝑞1 = (𝑣𝑎𝑙𝑜𝑟 𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟 𝑎 °𝑞1) + (𝑐𝑒𝑛𝑡é𝑠𝑖𝑚𝑎𝑠 𝑑𝑒 °𝑞1) ∗ (𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎 𝑒𝑛𝑡𝑟𝑒 𝑣𝑎𝑙𝑜𝑟 𝑎𝑛𝑡𝑒𝑠 𝑑𝑒 °𝑞1 𝑦 𝑒𝑙 𝑞𝑢𝑒 𝑒𝑠𝑡𝑎 𝑑𝑒𝑠𝑝𝑢é𝑠) ▪ Datos continuos °𝑞𝑛 = 𝑞(1,2,3) ∗ 𝑛 4 → posición 𝑞𝑛 = 𝑓𝑟𝑜𝑛𝑡 inf + (𝑞(1,2,3) ∗ 𝑛 4 − 𝐹𝑖−1𝑎) 𝑓𝑖 ∗ ℎ 15 o DECILES: son 9 valores que dividen al conjunto de datos en 10 partes cada una conteniendo el 10% de la información total. Se calculan como los cuartíles solo cambiando el orden, el resto del procedimiento es análogo a lo planteado. o PERCENTILES: son 99 valores que dividen al conjunto de datos en 100 partes que contienen al 1% de información cada una. o CUANTILES: es la generalizaciónde todos los estadísticos de posición vistos MEDIA ARMÓNICA: se define como el recíproco de la media aritmética de los recíprocos. Se utiliza para trabajar con variaciones respecto al tiempo. MEDIA GEOMÉTRICA: Se define como la raíz índice n del producto de n términos. Se utiliza para mostrar los cambios porcentuales en una serie de números positivos. 16 Medidas de dispersión y forma: Cuando los datos de dos conjuntos son bastante diferentes (en algunos casos se repiten y en otros hay valores extremos) pero tienen el mismo promedio y realmente queremos que sea representativo, debemos evaluar la variabilidad o dispersión de los datos. • RANGO o VARIACIÓN ABSOLUTA: es el primer estadístico con el que nos encontramos. Es la diferencia entre el máximo y el mínimo, nos dice la dispersión o distancia que hay entre el mínimo y el máximo. A mayor rango, mayor dispersión. Si bien es una medida de dispersión sencilla, no siempre nos es útil, en algunas ocasiones no es óptimo y no nos aporta información; por ejemplo, cuando tenemos rangos iguales no nos da mucha información sobre lo que está pasando en el interior del conjunto, entre esa distancia de mínimos y máximos. Como mencionamos, el rango no es la única medida de variabilidad, podemos utilizar otras como la desviación estándar, desviación media, desviación mediana, desviación media absoluta, desviación media cuadrática, etc. • DESVIACIÓN ESTÁNDAR o DESVIACIÓN TÍPICA: se calcula de la siguiente manera: 1. Determinar el promedio o media del conjunto de datos. 2. Restar a cada dato el valor de la media. 3. Sacamos el promedio de total de datos obtenidos (los sumamos y los dividimos por el total de la muestra) y calculamos la varianza. 4. Sacamos la raíz cuadrada de la varianza, y obtenemos la desviación estándar. DESVÍOS: se obtienen al restar a cada dato el valor de la media; están por encima o por debajo del valor medio (promedio), dando como resultado valores nulos, positivos o negativos. Hay una propiedad de la media aritmética que nos dice que la suma de los desvíos es igual a 0. Elevar al cuadrado los desvíos para poder realizar la sumatoria de los mismos. VARIANZA: se identifica con 𝜎2 o 𝑠2, dependiendo de si se refiera una muestra o una población. Siempre que la muestra sea menor que 30, dividimos la sumatoria en vez de n, por (n-1); este es un ajuste que se hace para muestras pequeñas. Si bien la varianza es una medida de dispersión, no nos es útil por sí sola, porque nos está dando el cuadrado de los desvíos, generando que tengamos unidades cuadradas (por ejemplo, si estamos hablando de distancias, de 𝑚 a 𝑚2, lo cual no sería una unidad de longitud sino de área y superficie). DESVIACIÓN ESTÁNDAR: este dato si es útil y quiere decir que “el promedio de los datos se desvían de la media en (…) unidades, indicando que no hay/hay mucha dispersión en los datos, como efectivamente podemos observar de manera directa”. • Indicando que hay una desviación en promedio de los datos respecto de la media, quiere decir que hay datos por encima y por debajo del promedio que se desvían; pero en promedio la desviación es esa que calculamos. En Excel encontramos el comando desviación estándar muestral y desviación estándar poblacional. μ es la media del conjunto de datos de una población, y σ es la desviación estándar de dicha población. • USOS DE LA DESVIACIÓN ESTÁNDAR: se utiliza para comparar poblaciones, ver cómo es la dispersión entre ellas, para el análisis de la calidad y control de procesos, depende cuanto se desvíen respecto de los valores centrales va a definir la calidad de los productos que se produzcan o fabriquen (por ejemplo, si hay una media 17 de 1/2 L para los envases de gaseosa, dependiendo de cómo sea la desviación respecto a ese valor será la calidad y nos va a permitir hacer un control de los procesos). Si hay mucha desviación de la media, también se utiliza para la medición del riesgo, mientras más desviación haya respecto a los valores centrales mayor va a ser el riego de cometer un error, a su vez se pueden estimar tendencias y concentración de datos, (por ejemplo, en el gráfico de abajo los datos tiene mayor concentración, por lo tanto, estamos indicando que están más concentrados respecto a los valores centrales que en el caso de la figura que está en la parte superior. A través de estos valores que denominaremos normales, vamos a tener que entre el valor medio (media) más una desviación estándar vamos a tener el 70% de los datos, en la media más dos desviaciones estándar vamos a tener el 95% de los datos, y en la media más tres desviaciones estándar a la derecha o a la izquierda va a ser el 99%; esto nos va a permitir estimar la tendencia). • VALORES O DISTRIBUCIONES NORMALES: valores más concentrados respecto a los valores centrales. Entre el valor medio (media) más (o menos) una desviación estándar vamos a tener el (70%) de los datos, en la media más dos desviaciones estándar vamos a tener el (95%) de los datos, y en la media más tres desviaciones estándar a la derecha o a la izquierda va a ser el (99%), permitiendo estimar la tendencia de los datos. ¿Por qué se divide la varianza muestral por (n-1) y la varianza poblacional por n? Si dividiéramos por n la muestra, nos daría que el valor real de la varianza estaría subestimado, entonces el valor real debemos dividirlo por (n-1) sencillamente por hacer un ajuste. ¿Por qué se usa el cuadrado de la desviación y no el valor absoluto de la desviación para el cálculo de la varianza? El cuadrado de la desviación nos permite establecer un valor medio, si lo hacemos con valor absoluto no podríamos aplicar la propiedad de la media aritmética, además algebraicamente es mucho más sencillo trabajar con las potencias cuadráticas que con valores absolutos. El uso de la suma del cuadrado de las diferencias es similar al Teorema de Pitágoras, al cálculo de las distancias. Como la Varianza nos da las unidades de los datos al cuadrado, no tiene el mismo significado que la desviación estándar. El Rango se relaciona con la Desviación estándar a través de: 𝑅 ≈ 4𝑠 𝑠 ≈ 𝑅 4 Una desviación es aproximadamente igual a la cuarta parte del rango. Como la desviación estándar s(σ) depende de la media y de la variabilidad de los datos, es un estadístico que nos permite ubicar los datos dentro de la distribución. A partir de ellos podemos saber a cuántas desviaciones estándar se encuentran los datos. • TEOREMA DE CHEBYSHEY Y LA REGLA EMPÍRICA: los datos de las distribuciones respecto a la media se encuentran según lo indicado en la siguiente tabla. Esta regla no aplica para todos los datos o todo tipo de función. Es aplicable para aquellos datos donde encontramos una distribución con forma de comportamiento denominada campana, generalmente se asocian a una distribución normal. Es decir, para aplicar la regla, la distribución debe ser simétrica. Si sabemos cuál es la media y cuál es la desviación estándar, inmediatamente podemos inferir entre qué valores está el máximo y el mínimo, es decir, determinar el rango del conjunto, lo cual es muy importante dado que, por ejemplo si la media es 3 y la desviación estándar es 2, 2*3 = 6 18 que va a ser el extremo superior y el extremo inferior va a ser -6 (2*-3), a tres desviaciones estándar por derecha o por encima vamos a tener casi la totalidad de la muestra, puede ser que alguno esté fuera de ese rango por eso decimos que hay un 99.7% de la información entre la media +/- tres desviaciones estándar. • COEFICIENTE DE VARIACIÓN (CV) o VARIACIÓN RELATIVA: este coeficiente de variación es una medida de dispersión relativa, lo que se debe a que no tiene unidades. Esta relacionado con el tipo de variable que estamos analizando; si la muestra es pequeña, el coeficiente varía en mayor o menor grado por el promedio. Es la proporción de las desviaciones estándar y la media: 𝐶𝑉 = 𝑑𝑒𝑠𝑣𝑖𝑎𝑐𝑖ó𝑛𝑒𝑠𝑡á𝑛𝑑𝑎𝑟 𝑚𝑒𝑑𝑖𝑎 → cantidad de desviaciones estándar tengo por unidad de media (se expresan generalmente en porcentajes) Este coeficiente es utilizado para comparar la variabilidad o dispersión en conjuntos de datos con diferentes unidades de medida. También es útil para comparar la variabilidad o dispersión de conjuntos de datos con diferentes medios. 𝜇1 ≠ 𝜇2 Se puede utilizar para comparar resistencias a la tensión entre materiales. En estos casos si no fuera por este coeficiente no habría otra forma de poder realizar la comparación. Vamos a trabajar con la sgte. escala para determinar si la muestra es homogénea o no: 𝐶𝑉 ≤ 25% Homogéneo 𝐶𝑉 ≤ 50% Casi Homogéneo (poco dispersa, no tiene valores extremos) 𝐶𝑉 ≤ 75% Casi Heterogéneo 𝐶𝑉 ≤ 100% Heterogéneo Cuando no es homogéneo, es correcto usar la mediana. En otras escalas, hasta el 7% es preciso (homogéneo), entre el 7% y 18% casi preciso (casi homogéneo), y así. • COEFICIENTE DE ASIMETRÍA O SESGO DE PEARSON: hay una relación entre la media, la mediana y el modo, la distancia entre la media y el modo es aproximadamente 3 veces la distancia que hay entre la media y la mediana (siempre que la asimetría sea leve). Esto nos permite definir el coeficiente de asimetría. La importancia de esta medida radica en que nos dice, sin tener que dibujar la gráfica, si una distribución es simétrica o asimétrica, indicándonos en qué dirección existe mayor concentración o dispersión de los datos, según el desplazamiento del sesgo. El sesgo es la concentración de datos respecto de la media. o Si la diferencia entre la media y el modo da cero, significa que la distribución es simétrica debido a que el coeficiente de asimetría será igual a cero. (Media=Modo). Este coeficiente por desviación estándar es un factor de escala, que se utiliza para no emplear valor absoluto de la diferencia sino un valor relativo de la desviación. Gráfico con forma de campana o Campana de Gauss. o Si la media es mayor al modo, entonces el coeficiente es positivo, por lo que se dice que hay una asimetría positiva. (Acumulación de datos a la izquierda, Media más a la derecha que el Modo). Gráfico con forma de L. NO ES IMPORTANTE LA MEDIDA EN LOS COEFICIENTES, SINO SU SIGNO Población Muestra 𝐶𝑉 = 𝜎 𝜇 𝐶𝑉 = 𝑠 �̅� Población Muestra 𝐴𝑠 = 𝜇 − 𝑀𝑜 𝜎 𝐴𝑠 = 𝑥 − 𝑀𝑜 𝑆 19 o Si la media es menor que el modo, la asimetría será negativa. Significa que la media está “más a la izquierda” que el modo, por lo que hay acumulación de datos a la derecha. Gráfico con forma de J. • COEFICIENTE DE ASIMETRÍA O SESGO DE BOWLEY: define la simetría a partir de los cuartiles. Si la distancia entre q3-q2 = q2-q1 entonces el coeficiente resultará nulo, indicando que hay simetría. Si el coeficiente resulta negativo (asimetría negativa) hay una acumulación de datos a la derecha, y si resulta positivo la acumulación de datos se encontrará a la izquierda. • COEFICIENTE DE ASIMETRÍA O SESGO DE FISHER: este coeficiente de asimetría utiliza el cubo de los desvíos. El cubo de los desvíos es un promedio de la sumatoria del cubo de los desvíos por la frecuencia absoluta, escalado con el cubo de la desviación estándar. Es decir, el coeficiente de Fisher es el promedio de la sumatoria del cubo de los desvíos por sus frecuencias, dividido la potencia cúbica de sus desviaciones estándar. 𝛼3 = 1 𝑛 ∗ ∑ (𝑥𝑖 − �̅�) 3𝑛 𝑖=1 ∗ 𝑓𝑖 𝑠3 Si las desviaciones son equivalentes y están por encima o por debajo de la media, el coeficiente de simetría vale cero y la forma será de campana, es decir que será simétrica. Si el coeficiente de simetría da mayor a 0, al igual que antes la acumulación se encontrará a la izquierda. Caso contrario se encontrará a la derecha. 20 • COEFICIENTE DE EXCEL: es muy parecido al coeficiente de Fisher. La única diferencia entre ambos es que Excel utiliza un factor de corrección 𝑛 (𝑛−1)(𝑛−2) 𝑐𝑜𝑒𝑓 𝑒𝑥𝑐𝑒𝑙 = 𝑛 (𝑛 − 1)(𝑛 − 2) ∑ ( 𝑥𝑖 − �̅� 𝑠 ) 3 ∗ 𝑓𝑖 𝑛 𝑖=1 • COEFICIENTE DE CURTOSIS: indica la agudeza del apuntamiento o achatamiento de la distribución de datos, respecto a la curva normal que tiene coeficiente igual a 3. 𝛼4 = 1 𝑛 ∗ ∑ (𝑥𝑖 − �̅�)4 ∗ 𝑓𝑖 𝑛 𝑖=1 𝑠4 = ∑ (𝑥𝑖 − �̅�)4 ∗ 𝑓𝑟 𝑛 𝑖=1 𝑠4 • COEFICIENTE DE CURTOSIS en EXCEL (exceso de curtosis): es el mismo coeficiente restándole 3, establece la misma relación que en los coeficientes anteriores, donde en cero es “normal”. 𝛼4 = { 𝑛(𝑛+1) (𝑛−1)(𝑛−2)(𝑛−3) ∗ ∑ (𝑥𝑖−�̅�) 4 ∗𝑓𝑖 𝑛 𝑖=1 𝑠4 } − 3 (𝑛−1)2 (𝑛−2)(𝑛−3) La fórmula ahora está referida a cero y no a tres Un análisis completo de los datos implica realizar los cálculos de medidas de tendencia central, de dispersión y de forma para así poder obtener conclusiones certeras a partir del conjunto de datos. 21 Unidad N° 4 Variable Aleatoria Variable aleatoria X: es una función real medible que asocia un valor numérico a cada resultado del espacio muestral (evento) asociado a un experimento aleatorio. A cada evento se le asigna un número real, permitiéndonos trabajar con variables de tipo cualitativas. Las variables aleatorias deben ser definidas para poder ser trabajadas con mayor facilidad; definir una variable aleatoria significa pasar los eventos cualitativos a expresiones matemáticas, por lo general se expresan como funciones. Si tomamos el ejemplo de una moneda que es lanzada 2 veces, entonces los resultados posibles son {cc,ck,kc,kk}. Es decir que hay 4 posibles resultados cualitativos. Para poder analizar esto matemáticamente definimos una variable aleatoria, que en este caso puede ser el número de caras. Pueden salir 2 caras, 1 sola cara o ninguna. Esto representa los valores de variable aleatoria que son 0, 1 y 2. El experimento deja de trabajar con datos cualitativos y pasa a trabajar con datos cuantitativos. • FUNCIÓN: número de caras al lanzar dos monedas al aire Donde X es la variable aleatoria y x el valor de variable. Tipos de Variables aleatorias: • DISCRETAS: número finito de valores o infinito numerable (intervalo de los enteros positivos donde no se conoce el máximo) Ejemplos: o Número de caras en el lanzamiento de dos monedas (Discreto finito, 4 posibilidades) o Número de piezas defectuosas que aparecen en un proceso de fabricación (discreto infinito numerable, el tiempo no está determinado) o Número de llamadas telefónicas que se reciben en una central durante un determinado periodo de tiempo (discreto finito, está acotado el tiempo) o Número de depósitos efectuados al día en una entidad bancaria (discreta finita, el tiempo está determinado en días) • CONTINUAS: número infinito no numerable de valores (intervalo de los reales, “números con decimales”). Se dice que son “superdensos”. Ejemplos: o Estatura de los miembros de una población o Ingresos de los asalariados en una determinada región o Cantidad de agua caída en una determinada región o Longitud de los tornillos fabricados en una planta metalúrgica Funciones de probabilidad 2 : una función de probabilidad de una variable aleatoria discreta es una función que asigna probabilidades a los valores de la variable aleatoria (con números enteros). A cada probabilidad de que suceda un suceso le corresponde la cantidad de casos favorables. Su fórmula es la siguiente: 𝑓(𝑥) = 𝑃(𝑋 = 𝑥) → indica probabilidad de que la variable aleatoria tome un valor definido 2 3 Funciones de probabilidad y distribución (uv.es) https://www.uv.es/webgid/Descriptiva/3_funciones_de_probabilidad_y_distribucin.html 22 Además, la función debe cumplir con 2 propiedades: 1. La probabilidad de cada valor de variable aleatoria debe estar entre 0 y 1. → 0 ≤ 𝑓(𝑥) ≤ 1 2. La suma de las probabilidades asignadas a todos los valores de la variable aleatoria debe ser 1. ∑ 𝑓(𝑥) =𝑇𝑜𝑑𝑎 𝑥 1 En el caso de lanzar un dado: la variable aleatoria es elresultado de lanzar un dado y los valores de variable aleatoria son x = {1,2,3,4,5,6} Para obtener la probabilidad de cada número tengo que preguntarme: “¿Cuántos unos tengo en un dado?” (Casos favorables) y además conozco el total de casos posibles que son 6. 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑜𝑐𝑢𝑟𝑟𝑎 𝐴 = 𝑛° 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑑𝑒 𝐴 𝑛° 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠 Gráfico de barras Distribución acumulativa de probabilidad: Una función de distribución o función acumulativa de probabilidad es la probabilidad que la variable aleatoria sea menor o igual a un valor dado de dicha variable. 𝑓(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∑ 𝑓(𝑥𝑖)x≤xi → Probabilidad de que la variable aleatoria sea menor o igual a un valor determinado. Para el ejemplo de los dados: (Suma consecutiva de las frecuencias relativas) FÓRMULAS ÚNICAMENTE APLICABLES PARA VARIABLES DISCRETAS: Función de densidad de probabilidad 3 : Sea X una variable aleatoria continua. Entonces, una función de densidad de probabilidad de X es una función f(x) tal que para 2 números cualquier a y b con 𝑎 ≤ 𝑏. 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = ∫ 𝑓(𝑥)𝑑𝑥 𝑏 𝑎 → probabilidad de que la variable aleatoria esté entre a y b 3 Función de probabilidad de una variable aleatoria continua | Matemóvil (matemovil.com) https://matemovil.com/funcion-de-densidad-de-probabilidad/ 23 La probabilidad de que X asuma un valor en el intervalo [a, b] es el área sobre este intervalo y bajo la gráfica de la función densidad. Se puede apreciar mejor en la siguiente gráfica: Área bajo la curva de densidad como valores de probabilidad Siempre es una función positiva debido a que la función de probabilidad siempre está entre valores de 0 y 1. La función de probabilidad de una variable aleatoria continua siempre cumplirá con estas condiciones: 1. 𝑓(𝑥) ≥ 0 → para todas las x 2. ∫ 𝑓(𝑥)𝑑𝑥 = 1 ∞ −∞ = área bajo toda la gráfica de f(x) → significa en todo el rango de definición PROPIEDAD IMPORTANTE: En la función de probabilidad de una variable aleatoria continua sucede algo bien interesante si queremos calcular la probabilidad de que la variable aleatoria sea igual a un valor puntual en c. → 𝑃(𝑋 = 𝑐) La probabilidad se calcula mediante el área bajo la curva, pero el área bajo una curva de densidad situada sobre cualquier valor único es 0: 𝑃(𝑋 = 𝑐) = ∫ 𝑓(𝑥)𝑑𝑥 = 0 𝑐 𝑐 Esto nos permite afirmar que la probabilidad de que X que en algún intervalo entre a y b no depende de si el límite inferior a, o el límite superior b, está incluido en el cálculo de la probabilidad: 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃(𝑎 < 𝑋 < 𝑏) = 𝑃(𝑎 < 𝑋 ≤ 𝑏) = 𝑃(𝑎 ≤ 𝑋 < 𝑏) APLICABLE ÚNICAMENTE PARA VARIABLES CONTINUAS. La función de distribución acumulativa es la función que para un valor x, nos da la probabilidad de que la variable aleatoria sea menor o igual que dicho valor x. Recuerda que a la función de distribución acumulativa la denominamos F(x). → 𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) Si por ejemplo tenemos que calcular F(8) haríamos lo siguiente: 𝐹(8) = 𝑃(𝑋 ≤ 8) Sea X una variable aleatoria continua con función de densidad de probabilidad f(x). La función de distribución acumulativa de X es la función: 𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∫ 𝑓(𝑡)𝑑𝑡 𝑥 −∞ f(t) es la función de densidad y F(X) es la función de distribución, por lo tanto, la derivada de la función de distribución es la función de densidad. 𝑓(𝑥) = 𝑑𝐹(𝑥) 𝑑𝑥 De forma gráfica, F(x) es el área bajo la curva de densidad a la izquierda de x. Recordemos que cuando trabajamos con la función de densidad, el área representa la probabilidad. 𝑃(𝑋 > 𝑎) = 1 − 𝐹(𝑎) → Probabilidad de que X sea mayor a un número 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝐹(𝑏) − 𝐹(𝑎) ; 𝑎 < 𝑏 → Probabilidad de que X esté en un rango definido (Regla de Barrow) Ejemplo de ejercicio resuelto en math: 24 A tener en cuenta: Cuando en una oración nos encontramos con las siguientes preposiciones estas quieren indicar: • A lo sumo = como Máximo = esto o menos • Al menos = como Mínimo = esto o más = cuando menos Por ej.: Al menos 2 de los autos están manchados ⟶ 1 - Ac(1) (uno menos la acumulada en 1). Momentos de una variable aleatoria Valor Esperado; Si conocemos los momentos de una variable aleatoria (todos los momentos), entonces podemos saber de qué tipo de función se trata. Supongamos que tenemos una variable aleatoria x y una función g: de reales sobre reales. Se define el valor esperado de la variable aleatoria 𝑔(𝑥) como la sumatoria de los productos de los valores 𝑔(𝑥𝑖) por los valores respectivos de probabilidad. Es decir que para variables: • DISCRETAS: calculamos la esperanza de una variable aleatoria como la sumatoria de los productos de los valores de esa función, por su respectiva probabilidad o frecuencia. • CONTINUAS: entendemos como la esperanza de una función de variable aleatoria a la integral en el campo de definición de los productos de los valores de g(x) (función de variable aleatoria) por f(x)dx, dando resultados convergentes (n° menores que infinito y que no necesariamente tendrán que ser iguales). f(x) es la función densidad de probabilidad. Esperanza Matemática: 𝐸[𝑋] = ∑ 𝑋 ∗ 𝑃(𝑋 = 𝑥𝑖) 𝑥𝑖∈𝑆 La esperanza matemática también es llamada promedio o valor más esperado. Se calcula como la sumatoria de los valores de X por sus respectivas probabilidades. 1. Esperanza de una constante 2. Esperanza de una constante y una variable Momentos en el origen: los momentos de orden k respecto al parámetro c, se obtienen calculando la esperanza de las potencias de los desvíos de la variable aleatoria respecto de c; los momentos respecto al origen son aquellos casos en los que c=0 y el subíndice k indica el orden de los mismos. • Momento de orden k respecto al parámetro c: 𝑀𝑘 𝑐 = 𝐸[(𝑋 − 𝑐)𝑘] • Si c = 0, Momentos respecto al origen: 𝛼𝑘 = 𝐸[𝑋 𝑘] Momentos centrales o centrados: Cuando c es la media de la variable aleatoria entonces tenemos los momentos centrados o centrales que son la esperanza de la potencia de los desvíos de los valores de variable aleatoria respecto a la media. • Si c = 𝝁𝒙 , Momentos centrales: 𝝁𝒌 = 𝐸[(𝑋 − 𝜇𝑥) 𝑘] Media de una variable aleatoria: La media de una variable aleatoria es la esperanza de X. Es análoga a la fr. Se haya según si sea discreta o continua de la siguiente forma: • DISCRETAS: La sumatoria de los productos de v.a. X por su respectiva probabilidad. • CONTINUAS: Es la integral en el campo de definición de los productos de x por f(x)dx, de −∞ a +∞. 25 Varianza de una v.a.: El momento centrado de orden 2 es la Esperanza de la potencia cuadrática de los desvíos. Se obtiene como: Donde α12 es la media. Momentos expresados en forma genérica: Esto se realiza sólo hasta el momento 4, debido a que después de esto comienzan a repetirse. Por ej. 𝜇′5 = 𝜇′1 𝑦 𝜇′6 = 𝜇′2 Relación entre ambos Momentos: Podemos relacionar ambos momentos a través del binomio de Newton. 𝜇𝑟 = 𝐸(𝑥 − 𝜇) 𝑟 = 𝐸| ( 𝑟 𝑖 ) (−1)𝑖 𝑥𝑟−𝑖𝜇𝑖| = ( 𝑟 𝑖 ) (−1)𝑖 𝐸(𝑥𝑟−𝑖)𝜇𝑖 → ∑ ( 𝑟 𝑖 )𝑛𝑖 (−1) 𝑖 𝜇𝑟−1 ′ 𝜇𝑖 Donde ( 𝑟 𝑖 )es una combinatoria r en i Desigualdad de Tchebycheff (no hay que estudiarlo): La probabilidad de que la variable aleatoria esté entre una desviación estándar a la izquierda o una desviación estándar a la derecha es siempre es mayor que 1 − 1 𝑘2 : 26 Distribuciones Discretas Teóricas de Probabilidad Distribución Binomial: Esta distribución, que puede considerarse como la generalización del modelo de Bernoulli (experimento aleatorio), se aplica cuando los sucesos sean: • Dicotómicos • Independientes, con reposición. • El experimento se realiza n veces en las mismas condiciones. • De probabilidad de ocurrencia constante “éxito” (p) o constante “fracaso” (1-p =q) • La variable aleatoria es la cantidad de éxitos (o fracasos) que se obtienen en n ensayos. • Para construir una distribución binomial es necesario conocer el número de pruebas que se repiten o variable aleatoria y la probabilidad de que suceda un éxito en cada una de ellas. Distribución de Poisson: • La variable aleatoria es el número de ocurrencias que sucede un evento en un espacio o tiempo determinado. • La probabilidad de ocurrencia es constante en dicho espacio o tiempo determinado (con poca frecuencia), probabilidad de ocurrencia de los denominados sucesos raros. • Su contexto es el mismo que el de la distribución binomial, de tal modo que también se genera la Distribución de Poisson cuando el número de ensayos es grande y la probabilidad del suceso tiende a cero. • No se sabe el total de posibles resultados. • La Distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media λ (lambda), la probabilidad que ocurra un determinado número de eventos durante un intervalo de tiempo dado o una región específica. 27 • Si n es grande y p pequeña podemos utilizar la Distribución de Poisson. • Siempre es una distribución asimétrica positiva. • Siempre será leptocúrtica. Distribución Hipergeométrica: Esta distribución, es referida a un modelo de muestra donde hay elementos de 2 tipos posibles. Indica la probabilidad de obtener un número de objetos x de uno de los tipos, al sacar una muestra de tamaño n, de un total de N objetos, de los cuales k es el tipo requerido. Utilizamos esta distribución cuando tenemos muestras obtenidas de poblaciones relativamente chicas, sin reemplazo. Además, es utilizada en la prueba exacta de Fisher, para probar la diferencia entre dos proporciones, y en muestreos de aceptación por atributos, cuando se toman muestras de un lote aislado de tamaño finito. Es parecida a la distribución binomial con la diferencia de que los sucesos no son independientes. Las probabilidades no son constantes para todos los elementos. La muestra de tamaño es generalmente pequeña. Su fórmula es: Distribución Binomial Negativa: Este tipo de distribución tiene el contexto de aplicación de la distribución binomial. Se aplica cuando los sucesos sean: • Dicotómicos • Independientes • Probabilidad de éxito o fracaso constante La diferencia reside en que la variable aleatoria es el número de ensayos necesarios para obtener cierta cantidad de éxitos; es el número de fracasos que ocurren hasta conseguir un número determinado de éxitos. 28 El número combinatorio nos determina de cuántas formas se puede organizar o dar la situación. Si sumamos la cantidad de éxitos y la cantidad de fracasos nos tiene que dar la cantidad de ensayos o tamaño de la muestra. Distribución Geométrica: Esta distribución es un caso particular de distribución binomial negativa cuando el número de éxitos es 1. Supongamos que tenemos: • Una serie de ensayos Bernoulli independientes. • Con probabilidad de éxito constante. • Si X: es el número de ensayos necesarios hasta obtener el primer éxito, entonces X tiene una distribución geométrica con parámetro p. Comparación entre las distribuciones DISCRETAS Distribución Binomial Distribución Hipergeométrica Distribución de Poisson Distribución Binomial Negativa Distribución Geométrica (caso D.B.N.) Población Relativamente Grande Relativamente Chica Grande Sucesos Dicotómicos ✔️ ✔️ ✔️ ✔️ ✔️ Sucesos Independientes ✔️ ❌ ✔️ ✔️ ✔️ Cte. Éxito y Cte. Fracaso ✔️ ❌ ✔️ ✔️ ✔️ n° de éxitos = 1 Variable Aleatoria cantidad de éxitos (o fracasos) que se obtienen en n ensayos cantidad de éxitos (o fracasos) que se obtienen en n ensayos n° de ocurrencias que sucede un evento en un espacio o tiempo determinado n° de ensayos necesarios para obtener cierta cantidad de éxitos n° de ensayos necesarios hasta obtener el primer éxito Asimetría Simétrica, Asimétrica Negativa o Positiva ??? Asimétrica positiva Asimétrica positiva Asimétrica positiva Apuntamiento Platicúrtica ??? Leptocúrtica Leptocúrtica Leptocúrtica 29 Distribución Multinomial: Es una distribución de probabilidad conjunta para múltiples variables aleatorias (𝑋1, 𝑋2, (. . . ), 𝑋𝑘 ) discretas donde cada 𝑋𝑖~𝑏(𝑛, 𝑝𝑖), dándose cuando en cada prueba o ensayo independiente (con reposición) del E.A. interesa contar el número de exitos en cada una de la k maneras como se puede dar un atributo. Se utiliza en variables aleatorias policotómicas. Hay más de dos resultados posibles. Los parámetros de esta distribución son el tamaño de la muestra y las probabilidades constantes de cada uno de los eventos. Ejemplo: El atributo calidad de un producto se puede dar como: Excelente, bueno, regular y malo. PROPIEDADES: 1. Son n pruebas o ensayos repetidos e idénticos (con reposición). 2. En cada prueba o ensayo se pueden producir k resultados. 3. Las probabilidades de cada uno de los k resultados (𝑝1, 𝑝2, (… ), 𝑝𝑘) permanecen constantes en todas las pruebas o ensayos. 4. Son pruebas o ensayos independientes. 5. El interés se centra en contar los 𝑋1, 𝑋2, (. . . ), 𝑋𝑘 éxitos que se producen en los n ensayos de cada una de las k categorías posibles de observar cada vez. 6. La suma de la cantidad de veces que ocurran los eventos da el tamaño de la muestra. 7. La suma de las probabilidades de todas las clases tiene que dar igual a 1. Si una prueba ó intento puede dar cualquiera de los k resultados posibles 𝐸1, 𝐸2, (… ), 𝐸𝑘 con probabilidades 𝑝1, 𝑝2, (… ), 𝑝𝑘, entonces la distribución multinomial dara la probabilidad de que: 30 Unidad N° 5 Distribuciones Continuas Teóricas de Probabilidad Como dato inicial: cuando una variable es continua, da lo mismo si el intervalo es abierto o cerrado, porque en los extremos no hay valor de probabilidad en el punto. El valor de probabilidad en el punto es cero. Distribución Uniforme: Es la más simple de todas las distribuciones modelo y en ella la variable aleatoria asume cada uno de los valores con una probabilidad idéntica. • Siempre es simétrica • Siempre es platicúrtica • Su función es la de densidad de probabilidad • Es muy útil con la generación de n° aleatorios • La media = mediana. 𝑎+𝑏 2 Se utiliza mucho como base de soporte del cálculo de números aleatorios, porque cuando se quiere generar aleatoriamente los números en un rango determinado, es útil que todos los valores tengan la misma probabilidad. Esta distribución es la única que tiene este atributo. La distribución uniforme tiene la característica de que es constante en un intervalo dado, ya sea este abierto o cerrado; se puede definir de la siguiente manera: Sea la variable aleatoria X que puede asumir valores 𝑥1, 𝑥2, (. . . ), 𝑥𝑘 con idéntica probabilidad. Entonces la distribución uniforme discreta viene dada por: O sea que el parámetro clave en esta distribución es k = número de valores que asume la variable aleatoria X y que sería un parámetro de conteo. Así por ejemplo cuando se lanza un dado correcto, cada una de las seis caras posibles conforman el espacio muestral: La v.a X: número de puntos en la cara superior del dado tiene una distribución de probabilidad Uniforme discreta, puesto que: = para x = 1, 2, 3, 4, 5,6 en otro caso. Un ejercicio importante: ¿A cuántas desviaciones estándar se puede alejar la variable aleatoria uniforme respecto de la media? 𝒂 + 𝒃 𝟐 𝑴𝒆𝒅𝒊𝒂𝒏𝒂 + 𝒌 ∗ 𝒔 𝑫𝒆𝒔𝒗𝒊𝒂𝒄𝒊𝒐𝒏𝒆𝒔 𝑬𝒔𝒕á𝒏𝒅𝒂𝒓 = 𝒂 𝑜 𝒃 𝑬𝒙𝒕𝒓𝒆𝒎𝒐𝒔 𝑺𝒖𝒑. 𝒐 𝑰𝒏𝒇. Para hallar a cuántas desviaciones estándar se puede alejar la variable respecto de la media tan solo debemos despejar k de la fórmula. Nos quedará que: 𝑘 = (𝑏 − 𝑎 + 𝑏 2 ) ( 𝑏 − 𝑎√12 ) → 𝑘 = (𝑏 − 𝑎 + 𝑏 2 ) 𝑏 − 𝑎 ∗ √12 → 𝑘 = 2𝑏 − 𝑎 − 𝑏 2 𝑏 − 𝑎 ∗ 2√3 → 31 𝑘 = 2𝑏 − 𝑎 − 𝑏 2(𝑏 − 𝑎) ∗ 2√3 → 𝑘 = (𝑏 − 𝑎) 2(𝑏 − 𝑎) ∗ 2√3 → 𝑘 = 1 2 ∗ 2√3 = √3 En conclusión, se puede alejar 3 desviaciones estándar de la media. Distribución Normal: es de suma importancia en estadística por tres razones principales: 1. Numerosas variables continuas de fenómenos aleatorios tienden a comportarse probabilísticamente mediante ésta. 2. Es el límite al que convergen tanto variables aleatorias continuas como discretas. 3. Proporciona la base de la inferencia estadística clásica debido a su relación con el teorema del límite central. PROPIEDADES: • Su gráfica tiene forma acampanada. (Campana de Gauss, gran aplicación en la física) • El valor esperado, la mediana y la moda tienen el mismo valor cuando la variable aleatoria se distribuye normalmente. • Su dispersión media es igual a 1.33 desviaciones estándar. Es decir, el alcance intercuartil está contenido dentro de un intervalo de dos tercios de una desviación estándar por debajo de la media a dos tercios de una desviación estándar por encima de la media. • Su asimetría es igual a 0, lo que significa que es simétrica. • Es mesocúrtica. • El área total bajo la curva de densidad siempre tiene que ser igual a 1. FUNCIÓN DE DENSIDAD: FUNCIÓN DE DISTRIBUCIÓN: Tipificación o Estandarización: Para no trabajar con distintas distribuciones normales, para cada media y cada desviación estándar lo que se procede a hacer es estandarizar la variable natural X. Para poder tipificar se realiza un centrado de la variable, 32 haciendo la diferencia de la media y los desvíos. Luego se hace un escalamiento respecto de la desviación estándar, es decir, que Z va a estar midiendo o referenciando las distancias de la variable aleatoria en términos de la desviación estándar. Es la misma distribución normal, sin embargo, se dice que está estandarizada. En las variables z y t se puede utilizar solo z, el Math ya no necesita una variable auxiliar. Aproximación de la Binomial con la Normal (Teorema de Moivre - Laplace): La distribución Binomial, cuando el tamaño de la muestra es grande, es medio complicada trabajarla. Cuando n es grande y p y q no están próximos a cero, sino que a 0,5 (si están próximos a 0,5, la distribución es simétrica y hay una buena aproximación de la Binomial con la Normal) la distribución Binomial B(n,p) se puede aproximar mediante una distribución normal. Hay que tener en cuenta que el tamaño de la muestra sea adecuado y para eso usamos la siguiente regla: El producto del tamaño de la muestra (n) por la probabilidad de éxito (p) sea mayor o igual que 5 sobre el tamaño de la muestra (La del fracaso es lo mismo ya que dan iguales, podemos considerar cualquiera de las dos). Si se cumple esa condición, podemos decir que la media es np y la desviación estándar es √𝒏𝒑𝒒; esto se puede transformar en una distribución normal. Esto lo hacemos considerando una variable “Z” centrada respecto de media binomial (x-np) y estandarizada con respecto a la desviación estándar binomial (√𝒏𝒑𝒒). Si es así, entonces vamos a trabajar a la variable como una normal estándar: 33 La diferencia esencial entre una variable binomial y una variable normal es que la variable binomial es discreta y la variable normal es continua. Acá sí es importante tener en cuenta si la variable aleatoria es menor, menor-igual o igual a un número, ya que la variable aleatoria natural es binomial y no continua(debemos tratarla como una variable discreta). Será discreta pero la trabajaremos como continua. Si quiero hallar la probabilidad: 𝑃(𝑥 < 𝑎)(es decir el acumulado hasta el número anterior a “a”), debo tomar la 𝑃(𝑥 ≤ 𝑎 − 0.5). Al restarle 0.5, estoy teniendo en cuenta el valor anterior a “a”. Si quiero sacar la probabilidad: 𝑃(𝑥 ≤ 𝑎) estoy tomando el punto “a” directamente, entonces cómo debemos hacer la corrección de continuidad o corrección de Yates le debemos sumar 0.5 → 𝑃(𝑥 ≤ 𝑎 + 0.5). Si quiero hallar la probabilidad en un intervalo: 𝑃(𝑎 ≤ 𝑥 ≤ 𝑏)voy a tener que tomar la variable desde “a” hacia la izquierda 0,5 y desde “b” hacia la derecha 0,5 → 𝑃(𝑎 − 0,5 ≤ 𝑥 ≤ 𝑏 + 0,5). La 𝑃(𝑎 < 𝑥 < 𝑏) será 𝑃(𝑎 + 0,5 ≤ 𝑥 ≤ 𝑏 − 0,5). Si la variable aleatoria es binomial con tamaño n y probabilidad de éxito p, lo que hago es tomar una distribución normal con media n*t y desviación estándar √𝑛𝑝𝑞. Para transformarlo en normal hago la estandarización de la variable, el centrado o la diferencia respecto a la media y el escalamiento respecto a la desviación estándar. De esta manera, lo puedo trabajar como una distribución normal común. Distribución Gamma: Esta distribución es de suma importancia debido a que es base de otras distribuciones. La distribución gamma modela en general tiempos. Tiene 2 parámetros un alpha (α) y un theta (θ), el primero es un factor de forma y el segundo es un factor de escala. 34 • Tiene Asimetría Positiva • Es Leptocúrtica • En caso de no conocer su parámetro lo podemos averiguar con estadística Típico ejemplo para este tipo de distribuciones: Supóngase que una pieza está sometida a una cierta fuerza de manera que se romperá después de aplicar un número específico de ciclos de fuerza. si los ciclos ocurren de manera independiente y a una frecuencia promedio dada, entonces el tiempo que debe transcurrir antes de que el material se rompa es una variable aleatoria que sigue una distribución gamma, su función densidad viene expresada por: Esta distribución se emplea de manera extensa en gran diversidad de áreas: • Para representar el tiempo de falla de un sistema, que falla solo si, de manera exacta los componentes fallan y la falla de cada componente ocurre a una frecuencia constante 𝜆 = 1/𝜃 por unidad de tiempo. • En líneas de espera para completar una reparación que se lleva a cabo en subestaciones; en cada una de las cuales es un evento independiente que ocurre a una frecuencia constante igual a 𝜆 = 1/𝜃. • Intervalos de tiempos entre dos fallos de un motor • Intervalos de tiempos entre dos llegadas de automóviles a una gasolinera • Tiempos de vida de sistemas electrónicos, etc FORMA DE LA GRÁFICA SEGÚN LOS VALORES DE ALPHA: Ejemplo de esperanza importante: Distribución Exponencial Negativa: modela los tiempos para que haya una falla en el sistema. Resulta que la exponencial es un caso especial de la Distribución Gamma, ambas tienen un gran número de aplicaciones. Las distribuciones exponenciales y gamma juegan un papel importante tanto en la teoría de colas como en problemas de confiabilidad. El tiempo entre las llegadas en las instalaciones de servicio, y el tiempo de falla de los componentes y sistemas eléctricos, frecuentemente involucran la distribución exponencial. La relación entre la gamma y la exponencial permite que la distribución gamma se utilice en tipos similares de problemas (más generales). La variable aleatoria x tiene una distribución exponencial, con parámetro 𝛽, y su función de densidad es: La media de una distribución exponencial es el parámetro 𝛽 y la desviación estándar es √𝛽. 35 Ejemplo de combinación de 2 distribuciones: Distribución Ji-Cuadrada (Χ2): en realidad la distribución ji-cuadrada es la distribución muestral de 𝑠2. O sea que, si se extraen todas las muestras posibles de una población normal y a cada muestra se le calcula su varianza, se obtendrá la distribución muestral de varianzas. Para estimar la varianza poblacional o la desviación estándar, se necesita conocer el estadístico 𝑋2. Si se elige una muestra de tamaño n de una población normal con varianza 𝜎2, el estadístico: (𝑛−1)𝑠2 2 → Variable ji-cuadrada tiene una distribución muestral que es una distribución ji-cuadrada con 𝑔𝑙 = 𝑛 − 1 (grados de libertad) y se denota Χ2(X es la minúsculade la letra griega ji). Para determinar este tipo de variable necesitamos conocer el tamaño de la muestra n, la desviación estándar s y la varianza poblacional 𝝈. Por lo tanto el estadístico ji-cuadrada está dado por: 𝑋2 = (𝑛−1)𝑠2 𝜎2 donde n es el tamaño muestral, s2la varianza muestral y 2la varianza de la población de donde se extrajo la muestra. El estadístico ji-cuadrada también se puede dar con la siguiente expresión: 𝑋2 = ∑(𝑥−ẋ)2 𝜎2 → sumatoria del cuadrado de los desvíos respecto a sigma cuadrado PROPIEDADES DE LAS DISTRIBUCIONES JI-CUADRADA 1. Los valores X2 de son mayores o iguales a 0 → 𝑋2 ≥ 0 2. La forma de la distribución 𝑋2 depende de 𝑔𝑙 = 𝑛 − 1. En consecuencia, hay un número infinito de distribuciones 𝑋2. 3. El área bajo la curva de ji-cuadrada y sobre el eje horizontal es 1. 4. La distribución 𝑋2 no son simétricas. Tienen colas estrechas que se extienden a la derecha; esto significa que están sesgadas a la derecha. (Acumulación a la izquierda) 5. Cuando n>2, la media de una distribución 𝑋2 es n-1 y la varianza es 2(n-1). 6. El valor modal de una distribución 𝑋2 se da en el valor (n-3). Un método estadístico, llamado técnica ji-cuadrada, tiene cuatro aplicaciones principales: 1. Probar la supuesta independencia de dos variables cualitativas de una población. 2. Hacer inferencias sobre más de dos proporciones de una población. 36 3. Hacer inferencias sobre la varianza de la población. 4. Realizar pruebas de bondad de ajuste para evaluar la credibilidad de que los datos muestrales, vienen de una población cuyos elementos se ajustan a un tipo específico de distribución de probabilidad. La distribución de ji-cuadrada, o chi-cuadrada, como también se le conoce, tiende a la normalidad, tal y como se muestra en la siguiente figura a medida que aumentan los grados de libertad. Para poder aplicar Ji-cuadrado la variable debe estar distribuida normalmente. Ejemplo Suponga que los tiempos requeridos por un cierto autobús para alcanzar un de sus destinos en una ciudad grande forman una distribución normal con una desviación estándar 𝜎 =1 minuto. Si se elige al azar una muestra de 17 tiempos, encuentre la probabilidad de que la varianza muestral sea mayor que 2. Solución: Distribución Beta: modela proporciones de cantidades, su variable serán todos los valores entre 0 y 1. La proporción va a tener un mínimo 0 y un máximo 1, que representan el 100%. Tiene 2 parámetros, un parámetro Alpha y un parámetro beta, ninguno de los 2 es un parámetro de escala, son parámetros de forma. Quiere decir que los parámetros definen la forma de la distribución. 37 ANÁLISIS DE FORMA SEGÚN VARÍEN LOS PARÁMETROS: La distribución beta es posible para una variable aleatoria continua que toma valores en el intervalo [0,1], lo que la hace muy apropiada para modelar proporciones. En la inferencia bayesiana, por ejemplo, es muy utilizada como distribución a priori cuando las observaciones tienen una distribución binomial. Uno de los principales recursos de esta distribución es el ajuste a una gran variedad de distribuciones empíricas, pues adopta formas muy diversas dependiendo de cuáles sean los valores de los parámetros de forma 𝛼 y 𝛽, mediante los que viene definida la distribución. Ejemplo de distribución beta: Un distribuidor mayorista de gasolina tiene tanques de almacenamiento de gran cantidad con un abastecimiento fijo, los cuales se llenan cada lunes. Él, desea saber el porcentaje de gasolina vendido durante la semana. Después de varias semanas de observación, el mayorista descubre que este porcentaje podría describirse mediante una distribución beta con 𝛼 = 4 y 𝛽 = 2. 38 Unidad N° 6 Población y muestra Para que cualquier estudio de investigación sea efectivo, es necesario seleccionar la población de estudio que sea verdaderamente representativa en toda la población. Antes de comenzar su estudio, la población objetivo debe ser identificada y acordada. Seleccionando y conociendo su muestra con suficiente antelación, se eliminará en gran medida cualquier retroalimentación que se considere útil para el estudio. Si el objetivo de tu encuesta es comprender la efectividad de un producto o servicio, entonces la población de estudio debe ser los clientes que lo han usado o que mejor se adapten a sus necesidades y que usarán el producto/servicio. Sería muy costoso y lento recolectar datos de toda la población de tu mercado objetivo. Mediante un muestreo preciso de su población de estudio, es posible construir una imagen real del mercado objetivo utilizando las tendencias de los resultados. La representatividad de la muestra depende del tamaño de la misma y el tipo de muestreo que se produce. La importancia de que la muestra sea representativa en un conjunto de datos es que permite inferir sobre muchas características de la población objetivo, de manera tal de que mis conclusiones tengan mayor grado de validez de lo que pueden tener cuando la muestra es no representativa. Hay 2 tipos de muestreo: 1. No Probabilístico: el muestreo no probabilístico es una técnica utilizada en la muestra estadística que, a diferencia de la muestra probabilística, no permite que todos los individuos de una población a investigar, posean las mismas oportunidades de selección. En este tipo de muestreo predominan aquellos individuos que, al cumplir con cierta cualidad o característica, benefician la investigación. Existen distintos tipos de muestreo no probabilístico: • CONVENIENCIA: Es aquel donde el investigador realiza la muestra, seleccionando individuos que considera accesibles y de rápida investigación. Esto generalmente lo hace por proximidad a él mismo. Ocurre generalmente cuando uno desea obtener información respecto a algún conjunto de datos y tiene a mano una fuente de datos que es de fácil acceso al investigador. Las principales características de este tipo de muestreos son la accesibilidad y la rapidéz. Lógicamente las conclusiones que se extraerán de este estudio no necesariamente serán extensibles a toda la población Ejemplo: Un investigador decide realizar un estudio sobre la opinión de un profesor en un aula determinada. Al utilizar el muestreo por conveniencia, conforma su muestra con los primeros 5 alumnos de la lista del aula. • POR CUOTAS: A través del muestreo por cuotas, el investigador se asegura de que la muestra sea equitativa y proporcional, de acuerdo con las características, cualidades o rasgos de la población a estudiar. Se completa por partes el tamaño de la muestra. Ejemplo: un investigador debe realizar una muestra sobre los empleados de una empresa, en la que el 60% son mujeres y el 40% son hombres. Para hacerlo, selecciona individuos que sean proporcionales a la población, a través de un muestreo por conveniencia o a la elección del investigador. • BOLA DE NIEVE: También conocido como muestreo en cadena, este método consiste en que el investigador exija, al primer sujeto de la muestra, identificar o señalar a otra persona que cumpla con los requisitos de la investigación. Se utiliza cuando no es fácil la accesibilidad a los datos y se requieren recomendaciones (se basa en esto). Ejemplo: un investigador decide realizar una investigación cuya muestra la conforman individuos con una rara enfermedad. De esta manera, al encontrar un individuo con dichas características, el investigador le pide ayuda para encontrar otras personas con estas condiciones para conformar la muestra. Otro ejemplo puede ser una investigación referida a las drogas. 39 • DISCRECIONAL: También conocido como muestreo por juicio o intencional, mediante esta técnica los sujetos se eligen para conformar un grupo específico, de personas que resultan más adecuadas para el análisis que otras (se elige a criterio propio la muestra). Ejemplo: Se desea realizar una investigación sobre el comportamiento de los padres con sus hijos.
Compartir