Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
pág. 1 30-4-2019 Curso: Estadística y probabilidad Grupo: 1 Integrantes: “Año de la lucha contra la corrupción y la impunidad” Trabajo Monográfico “Estadística y probabilidad: Definiciones, Tipos de variables, teoremas, etc.” Facultad: Ing. De Sistemas e informáticas Profesor: Ing. Rafael Gaviria García Institución: Universidad Nacional de la Amazonia Peruana Iquitos-Perú - Ruiz Villaverde Cristian Jair - Jhunior Isaías Obregon Ríos - Yaicate Vela Alexis - Arteaga Pérez Luis Fernando - Nick Roy Tuisima Oroche - Poclin Ulloa Gianfranco - Mejía Sánchez Diego Andrés - Gómez García Manuel pág. 2 Contenido 1. LA ESTADÍSTICA ............................................................ 6 1.1 ¿Cuáles son los tipos de estadística? .......................... 6 1.2 Población...................................................................... 7 1.3 Muestra ........................................................................ 7 2. TIPOS DE VARABLES Y ESCALAS DE MEDICIÓN...8 2.1 TIPOS DE VARIABLES ............................................ 8 2.2 Escalas de medición .................................................... 8 3. ANÁLISIS DE VARIABLES CUALITATIVAS............... 9 3.1 Características de las variables cualitativas.............. 9 3.2 Tipos de variables cualitativas ................................... 9 4. ANÁLISIS DE VARIABLES CUANTITATIVAS.......... 10 4.1 Variable discreta ....................................................... 10 4.2 Variable continua ...................................................... 10 4.3 Coeficiente de pearson .............................................. 10 5. GRAFICAS DE VARIABLES CUALITATIVAS Y CUANTITATIVAS .............................................................. 11 5.1 GRÁfiCOS PARA VARIABLES CUALITATIVAS11 5.2 Gráficos para variables cuantitativas ...................... 12 6. MEDIDAS DE TENDENCIA CENTRAL ....................... 13 6.1 Mediana ..................................................................... 13 6.2 LA MODA ................................................................. 13 6.3 LA MEDIA ................................................................ 13 6.4 MEDIA PONDERADA ............................................ 13 6.5 LA MEDIA ARITMÉTICA ..................................... 14 6.6 EL RANGO MEDIO ................................................ 14 pág. 3 7. MEDIDAS DE DISPERSIÓN, DE POSICIÓN Y FORMA15 7.1 Medidas de Dispersión .............................................. 15 7.2 MEDIDAS DE POSICION....................................... 15 7.3 Medidas de Dispersión .............................................. 17 7.4 Medidas de Forma .................................................... 18 9. EXPERIMENTO ALEATORIO, ESPACIO, MUESTRA, EVENTOS............................................................................ 20 9.1 Experimento .............................................................. 20 9.2 Espacio muestral (s) .................................................. 20 9.3 Eventos....................................................................... 21 10. LEYES DE LA PROBABLIDAD. ................................. 22 10.1 Ley de la unión. ....................................................... 22 10.2 Ley de la probabilidad contraria o del complemento 22 10.3 Ley de la dependencia de los eventos ..................... 22 10.4 Ley de la independencia de eventos ....................... 22 11. PROBABILIDAD TOTAL Y PROBABILIDAD CONDICIONAL................................................................... 23 11.1 Teorema de la probabilidad total .......................... 23 12. TEOREMA DE BAYES................................................. 24 13. DISTRIBUCIONES DISCRETAS ................................. 25 13.1 Distribución Binomial Bi (n, p) .............................. 25 13.2 Distribución Geométrica Ge(p) .............................. 25 13.3 Distribución Binomial Negativa (o de Pascal) BN (r, p) .......................................................................................... 25 13.4 Distribución Poisson P (λ) ...................................... 25 13.5 Distribución Hipergeométrica H (N, r, m) ............ 25 14. DISTRIBUCIÓN BINOMIAL........................................ 26 pág. 4 14.1 Las distribución binomial....................................... 26 14.2 distribución de Bernouiili ....................................... 26 14.3 La distribución binomial ........................................ 26 14.4 La distribución de probabilidad ............................ 26 15. LA DISTRIBUCIÓN DE POISSON .............................. 27 15.1 Propiedades del modelo de Poisson ....................... 27 BIBLIOGRAFÍA: ................................................................. 28 pág. 5 INTRODUCCIÓN La Estadística actúa como disciplina puente entre los modelos matemáticos y los fenómenos reales. Un modelo matemático es una abstracción simplificada de una realidad más compleja y siempre existirá una cierta discrepancia entre lo que se observa y lo previsto por el modelo. La Estadística proporciona una metodología para evaluar y juzgar estas discrepancias entre la realidad y la teoría. RESUMEN En esta monografía trataremos temas importantes e la estadística y la probabilidad, los cuales son: Estadística, Población y muestra, Tipos de variabl4sy escalas de medición, Análisis de variables, Medidas de tendencia central, leyes de probabilidad, teorema de Bayes, distribuciones discretas, distribución Binomial y de Poisson, entre otros. Donde explicaremos paso a paso su funcionamiento, importancia, implementación y aplicación en la vida real con ejemplos. pág. 6 1. LA ESTADÍSTICA La Estadística actúa como disciplina puente entre los modelos matemáticos y los fenómenos reales. Un modelo matemático es una abstracción simplificada de una realidad más compleja y siempre existirá una cierta discrepancia entre lo que se observa y lo previsto por el modelo. La Estadística proporciona una metodología para evaluar y juzgar estas discrepancias entre la realidad y la teoría. 1.1 ¿Cuáles son los tipos de estadística? Básicamente se tienen dos tipos de estadística, a saber: 1.1.1 Estadística descriptiva Se puede definir como un método para describir numéricamente conjuntos numerosos. Por tratarse de un método de descripción numérica, utiliza el número como medio para describir un conjunto, que debe ser numeroso, ya que las permanencias estadísticas no se dan en los casos raros. No es posible sacar conclusiones concretas y precisas de los datos estadísticos. 1.1.1.1 Objetivo de la estadística descriptiva La finalidad última de la estadística descriptiva es resumir la información de conjuntos más o menos numerosos de datos. Para ello se asienta en un concepto inmediato a la tarea de recuento: la frecuencia, medida empírica de la ocurrencia de los distintos estados que puede presentar una variable. 1.1.2 Estadística inferencial, analítica o deductiva Estudia la probabilidad de éxito de las diferentes soluciones posibles a un problema en las diferentes ciencias en las que se aplica y para ello utiliza los datos observados en una o varias muestras de la población. Mediante la creación de un modelo matemático infiere el comportamiento de la población total partiendo de los resultados obtenidos en las observaciones de las muestras. 1.1.2.1 Objetivo de la estadística inferencial La inferencia estadística intenta tomar decisiones basadas en la aceptación o el rechazo de ciertas relaciones que se toman como hipótesis. Esta toma de decisiones va acompañada de un margen de error, cuya probabilidad está determinada. La estadística inferencial tiene dos objetivos básicos; a) obtener conclusiones válidas acerca de una población sobre la base de una muestra, es decir, que las conclusiones que obtengamos de una muestra se puedan extrapolar a la población que dio origen a esa muestra y b) poder medir el grado de incertidumbre presente endichas inferencias en términos de probabilidad. pág. 7 A continuación se definen algunos de los términos más usados en estadística: 1.2 Población. Es el conjunto de todos los posibles elementos que intervienen en un experimento o en un estudio. La hay de dos tipos 1.2.1 Población finita. Es aquella que indica que es posible alcanzarse o sobrepasarse al contar. Es aquella que posee o incluye un número limitado de medidas y observaciones. 1.2.2 Población infinita. Es infinita si se incluye un gran conjunto de medidas y observaciones que no pueden alcanzarse en el conteo. Son poblaciones infinitas porque hipotéticamente no existe límite en cuanto al número de observaciones que cada uno de ellos puede generar. 1.3 Muestra: Subconjunto finito de una población. El número de individuos que forman la muestra se denomina tamaño maestral. 1.3.1 ¿Por qué seleccionamos una muestra? En la práctica no va a ser posible estudiar todos los elementos de la población, por varias razones: El estudio puede implicar la destrucción del elemento (estudio de la vida media de una partida de bombillas, estudio de la tensión de rotura de unos cables…) Los elementos pueden existir conceptualmente, pero no en realidad (población de piezas defectuosas que producirá una máquina en su vida útil). Puede ser inviable económicamente estudiar a toda la población. El estudio llevaría tanto tiempo que sería impracticable e incluso las propiedades de la población podrían variar con el tiempo. Muestreo aleatorio simple. 1.3.2 Tipos de muestreo Muestreo estratificado. Muestreo por conglomerados. pág. 8 2. TIPOS DE VARABLES Y ESCALAS DE MEDICIÓN 2.1 TIPOS DE VARIABLES : Es muy probable que un especialista en Estadística que realiza una encuesta desee desarrollar un instrumento que le permita hacer varias preguntas y manejar diversos fenómenos o características. A estos fenómenos o características se les denomina variables aleatorias. Según la forma en que se expresen las variables, se dividen en: 2.1.1 Variables Cualitativas: Son aquellas que pueden expresarse sólo en forma de atributo. Ejemplo: Estado civil: soltero, casado, viudo, separado. 2.1.2 Variables Cuantitativas: Son aquellas variables que pueden expresarse en forma numérica. Se dividen en discretas y continuas. 2.1.3 Variables Cuantitativas: Son respuestas numéricas que surgen de un proceso de conteo, siendo siempre un número entero. Ejemplo: Número de asignaturas inscritas en el primer semestre. 2.1.4 Variables Cuantitativas Continuas: Son respuestas numéricas que surgen de un proceso de medición, las cuales pueden tomar valores entre dos números enteros. Ejemplo: Estatura, Temperatura, Peso. 2.2 Escalas de medición Uno de los elementos fundamentales de la definición de una variable es el tipo de escala que utilizaremos para medirla. En función de la escala elegida decidiremos su codificación, tratamiento informático y estadístico. Hay cuatro tipos de escalas de medición, que ordenadas en orden creciente de potencia, según la proporción de información que contienen, son: 2.2.1 Nominal: Consta de dos o más categorías mutuamente excluyentes. Si solo hay dos, se llama escala nominal dicotómica. Ejemplo: Sexo: masculino; femenino 2.2.2 Ordinal: sus categorías están ordenadas por rango; cada clase posee una misma relación posicional con la siguiente. Ejemplo: Clase social: baja, media, alta. 2.2.3 De intervalos: Los intervalos entre sus clases son iguales. Diferencias iguales entre cualquier par de números de la escala indican diferencias también iguales en el atributo sometido a medición. Ejemplo: la diferencia de temperatura entre una habitación a 22 grados centígrados y otra a 26 es la misma que la existente entre dos a 33 y 37 grados centígrados, respectivamente. 2.2.4 De razones o ratios: El cero sí indica ausencia de atributo. En consecuencia, la razón entre dos números de la escala es igual a la existente entre las cantidades del atributo medido. Ejemplo: Peso: medido en kilogramos. pág. 9 3. ANÁLISIS DE VARIABLES CUALITATIVAS. 3.1 Características de las variables cualitativas: Algunas características notables de la variable Cualitativa son las que se encuentran a continuación: Su principal característica es que una variable cualitativa no se puede medir numéricamente. No da datos específicos y a veces tampoco en orden, pero especifica una condición, cualidad o característica de cualquier artificio matemático. Cuando el valor que toma dichas variables son solamente dos valores, se llama dictómica. En el caso de que se distinguen tres valores o más se le distingue como una politómica. 3.2 Tipos de variables cualitativas: Entre las variables cualitativas encontramos tres tipos: la nominal, ordinaria y binaria. 3.2.1 Nominal En este caso la variable no es representada por números ni tampoco tiene algún tipo de orden, así que es menos precisa en lo que matemáticamente se refiere. Por ejemplo, los colores: Negro, Azul, Rojo, Amarillo, Naranja, etc. 3.2.2 Ordinaria La variable cualitativa ordinaria también conocida como variable cuasicuantitativa también es representada por una modalidad que no requiere números, pero si existe un orden o un puesto. Por ejemplo, nivel socioeconómico: Alto, medio bajo. 3.2.3 Binaria En este caso la variable intenta tomar algún valor específico ya sea de 0 ó 1. Por ejemplo, sexo de una persona: Masculino o Femenino. Ejemplos de variables cualitativas Algunos ejemplos que nos pueden ayudar a identificar una variable cualitativa son los que se encuentran en las siguientes líneas. Estado civil: Soltero, Casado, Viudo, etc. La sed de una persona: Mucha, poca o nada. Calificación no numérica de un examen: Aprobado, sobresaliente, aceptado, reprobado. Color de ojos: Marrones, azules, verde, etc. Profesión: Arquitecto, Médico, Ingeniero, Abogado, etc. pág. 10 4. ANÁLISIS DE VARIABLES CUANTITATIVAS Son las variables que toman como argumento cantidades numéricas, son variables matemáticas. Las variables cuantitativas además pueden ser: 4.1 Variable discreta: Es la variable que presenta separaciones o interrupciones en la escala de valores que puede tomar. Estas separaciones o interrupciones indican la ausencia de valores entre los distintos valores específicos que la variable pueda asumir. Ejemplo: El número de hijos (1, 2, 3, 4, 5). 4.2 Variable continua: Es la variable que puede adquirir cualquier valor dentro de un intervalo especificado de valores. Por ejemplo la masa (2,3 kg, 2,4 kg, 2,5 kg,...) o la altura (1,64 m, 1,65 m, 1,66 m,...), o el salario. Solamente se está limitado por la precisión del aparato medidor, en teoría permiten que exista indefinidos valores entre dos variables. 4.3 Coeficiente de pearson Es el índice numérico más común usado para medir una correlación, también se le conoce como coeficiente de relación producto-momento, se representa con el símbolo 'r' y proporciona una medida numérica de la correlación entre las dos variables. El coeficiente de Pearson se define así: También nos indica: 1. Si dos variables parecen estar correlacionadas o no 2. La fuerza de la aparente relación 3. Si la aparente relación es positiva o negativa Valores del coeficiente de Pearson de correlación: r=0: ninguna correlación r=1: correlación positiva perfecta 0 < r < 1: correlación positiva r= -1: correlación negativa perfecta 1 < r < o: correlación negativa Los signos positivos y negativos indican si el valor de una variable aumenta o disminuye, respectivamente, con el aumento en el valor de la otra variable: Cuando los aumentos/disminuciones de una variable producen aumentos/disminuciones en la otra, la relación es positiva. Es negativa cuando los aumentos/disminuciones de una variable producen disminuciones/ aumentos en la otra. pág. 11 Curso 1 33% Curso 2 33% Curso 3 24% Curso 4 10% GRAFICOS DE SECTORES Curso 1 Curso 2 Curso 3 Curso 4 5. GRAFICAS DE VARIABLES CUALITATIVAS Y CUANTITATIVAS 5.1 GRÁfiCOS PARA VARIABLES CUALITATIVAS.Los gráficos más usuales para representar variables de tipo nominal son los siguientes: 5.1.1 Diagramas de barras: Se representa en el eje de ordenadas las modalidades y en abscisas las frecuencias absolutas o las frecuencias relativas. Si se intentan comparar varias poblaciones entre sí, usando el diagrama, existen otras modalidades. Cuando los tamaños de las dos poblaciones son diferentes, es conveniente utilizar las frecuencias relativas, ya que en otro caso podrían resultar engañosas. Figura 1. Diagrama de barras para una variable cualitativa. Figura 2. Diagrama de barras para una variable cualitativa. 5.1.2 Diagramas de sectores (tartas). Se divide un círculo en tantas porciones como clases existan, de modo que a cada clase le corresponde un arco de círculo proporcional a su frecuencia absoluta o relativa. El arco de cada porción se calcula usando la siguiente regla de tres:→ ° → = °. 0 20 40 CURSO 1 CURSO 2 CURSO 3 CURSO 4 DIAGRAMA DE BARRAS PORCENTAJE 0 10 20 Curso 1 Curso 2 Curso 3 Curso 4 GRÁFICOS DE BARRAS Turno 1 Turno 2 pág. 12 5.2 Gráficos para variables cuantitativas. Para las variables cuantitativas, consideraremos dos tipos de gráficos, en función de que para realizarlos se usen las frecuencias (absolutas o relativas) o las frecuencias acumuladas. Diagramas diferenciales: Son aquellos en los que se representan frecuencias absolutas o relativas. En ellos se representa el número o porcentaje de elementos que presenta una modalidad dada. Diagramas integrales: Son aquellos en los que se representan el número de elementos que presentan una modalidad inferior o igual a una dada. Se realizan a partir de las frecuencias acumuladas, lo que da lugar a gráficos crecientes. Obviamente, este tipo de gráficos no tiene sentido para variables cualitativas. Ejemplo: Se lanzan tres monedas al aire en 8 ocasiones y se contabiliza el número de caras, X, obteniéndose los siguientes resultados: X →2, 1, 0, 1, 3, 2, 1, 2. Representar gráficamente el resultado. Solución: En primer lugar, observamos que la variable X es cuantitativa discreta, presentando las modalidades: X ∈ 0, 1, 2, 3. Diagrama diferencial (barras) e integral para una variable discreta. Obsérvese que el diagrama integral (creciente) contabiliza el número de observaciones de las variables inferiores o iguales a cada punto del eje de abscisas. Xi ni fi Ni Fi 0 1 1 / 8 1 1 / 8 1 3 3 / 8 4 4 / 8 2 3 3 / 8 7 7 / 8 3 1 1 / 8 8 8 / 8 n = 8 1 pág. 13 6. MEDIDAS DE TENDENCIA CENTRAL 6.1 Mediana La mediana es un valor de la variable que deja por debajo de sí a la mitad de los datos, una vez que éstos están ordenados de menor a mayor. Por ejemplo, la mediana del número de hijos de un conjunto de trece familias, cuyos respectivos hijos son: 3, 4, 2, 3, 2, 1, 1, 2, 1, 1, 2, 1 y 1, es 2, puesto que, una vez ordenados los datos: 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4, el que ocupa la posición central es 2: 6.2 LA MODA La moda es el dato más repetido de la encuesta, el valor de la variable con mayor frecuencia absoluta. En cierto sentido la definición matemática corresponde con la locución "estar de moda", esto es, ser lo que más se lleva. Su cálculo es extremadamente sencillo, pues solo necesita un recuento. En variables continuas, expresadas en intervalos, existe el denominado intervalo modal o, en su defecto, si es necesario obtener un valor concreto de la variable, se recurre a la interpolación. Por ejemplo, el número de personas en distintos vehículos en una carretera: 5-7-4-6-9-5-6-1- 5-3-7. El número que más se repite es 5, entonces la moda es 5. 6.3 LA MEDIA Formaliza el concepto intuitivo de punto de equilibrio de las observaciones. Es decir, es el punto medio del recorrido de la variable según la cantidad de valores obtenidos. Ese valor tiene varias propiedades importantes. 1) Si se suma la distancia de todos los valores respecto de la media, esa suma da cero. 2) Si se toman una cantidad de cualquiera de los conjuntos de valores, cada uno con su respectiva media, la media del conjunto general es igual a la suma de cada una de las un conjunto de valores de una variable a partir de tomar la distancia de las observaciones a un valor cualquiera (pertenezca o no al recorrido de la variable) 3) Si a un conjunto de observaciones de una variable se le realiza una operación matemática usando un valor constante, entonces la media del nuevo grupo de valores así obtenidos es igual a la aplicación de la misma operación matemática usando ese valor constante sobre la media original. 6.4 MEDIA PONDERADA En algunas series estadísticas, no todos los valores tienen la misma importancia. Entonces, para calcular la media se ponderan dichos valores según su peso, con lo que se obtiene una media ponderada. Si se tiene una variable con valores x1, x2,..., xn, a los que se asigna un peso mediante valores numéricos p1, p2,..., pn, la media ponderada se calculará como sigue: pág. 14 6.5 LA MEDIA ARITMÉTICA La media aritmética es el valor obtenido por la suma de todos sus valores dividida entre el número de sumadores. Por ejemplo, las notas de 5 alumnos en una prueba: Niño Nota 1 6.0 2 5.4 3 3.1 4 7.0 5 6.1 Primero, se suman las notas: 6.0 + 5.4 + 3.1 + 7.0 + 6.1 = 27.6 {\displaystyle 6.0+5.4+3.1+7.0+6.1=27.6} Luego el total se divide entre la cantidad de alumnos: 27.6 5 = 5.52 {\displaystyle {\frac {27.6} {5}}=5.52} La media aritmética en este ejemplo es 5.52. 6.6 EL RANGO MEDIO El rango medio es el promedio de las observaciones menores y mayores de una serie de datos. El rango medio a menudo es usado como una medición de resumen tanto por analistas financieros como por reporteros meteorológicos, puesto que puede proporcionar una medición adecuada, rápida y simple para caracterizar toda una serie de datos, como por ejemplo todo una serie de lecturas registradas de temperatura por horas durante todo un día. pág. 15 7. MEDIDAS DE DISPERSIÓN, DE POSICIÓN Y FORMA 7.1 Medidas de Dispersión Las Medidas de Dispersión tienen como objetivo cuantificar la variabilidad de los datos. Recorrido, Recorrido Intercuartılico, Recorrido Semi intercuartilico, Varianza, Desviación Típica, Cuasivarianza, Coeficiente de Variación. Recorrido: Es la diferencia entre el máximo y el mínimo de los valores de la variable aleatoria. R = máx (X) – min (X). Recorrido Intercuartılico: Longitud de un intervalo central que contiene el 50% de las observaciones. Anchura de la caja en un diagrama Box Plot: RI = Q3 −Q1. Recorrido Semiintercuartılico: Corresponde con la mitad del anterior. RSI = RI/2. 7.2 MEDIDAS DE POSICION Las Medidas de Posición tienen por objetivo proporcionar valores en torno a los cuales se encuentran las observaciones. Algunas de ellas se denominan “Medidas de Tendencia Central”, porque suelen situarse en torno al centro de los datos. Media: Aritmética, Ponderada, Geométrica, Armónica. Mediana. Moda. Cuartiles y Percentiles. Media Aritmética 7.2.1 Media Aritmética: Se define como la suma de los datos dividida por el número de ellos. 7.2.2 Media Ponderada: La media ponderada se utiliza en los casos en los que no todas las observaciones tienen la misma importancia. Para tener en cuenta la importancia se asigna a cada observación un peso, wi. pág. 16 7.2.3 Media Geométrica Cuando trabajamos con valores observados positivos: 7.2.4 Media Armónica: Se toman los inversos de los datos, se promedian y por último se toma el inverso de ese promedio. 7.2.5 Mediana Es el valor de la variable estadística que deja igual número de observaciones a su derecha que a su izquierda. Ordenando los datos de menor a mayor, la mediana será el dato central o el promedio de los centrales (tamaño par). 1, 1, 1, 2, 2, 2, 3, 3, 4, 5, 5, 6, 6, 6, 8 1, 1, 2, 2, 2, 3, 3, 4, 5, 5, 6, 6, 6, 8 En el caso de datos agrupados, lo más adecuado es hablar del intervalo mediano. Gráficamente la mediana se obtendría: Mediante semejanza de triángulos: pág. 17 7.2.6 Moda Es el valor de la variable estadística que se presenta con mayor frecuencia.No tiene por qué ser única y puede no poderse calcular. Ejemplo: 1, 1, 2, 2, 2, 2, 3, 3, 4, 5, 5, 6, 6, 6, 8 Moda = 2 7.2.7 Cuartiles Qk para k = 1, 2, 3, se define Cuartil k−ésimo como el valor de la variable que deja inferiores o iguales a ´el las k/4 partes de las observaciones. Q2 = Me Ejemplo: 1, 1, 2, 2, 2, 3, 3, 4,4, 5, 5, 5, 6, 6, 6, 8 n = 16 Q1 deja inferiores o iguales a ´el, 1/4 de las observaciones, 4. Q2 deja inferiores o iguales a ´el, 1/2 de las observaciones, 8. Q3 deja inferiores o iguales a ´el, 3/4 de las observaciones,12. 7.2.8 Percentiles El k−ésimo Percentil Pk, se define como el valor de la variable estadística que deja inferiores o iguales a él las k/100 observaciones. P25 = Q1, P50 = Q2 = Me, P75 = Q3. Para datos agrupados el cálculo es análogo al de la mediana: Siendo (bi, bi+1) el intervalo de clase que contiene Pk. 7.3 Medidas de Dispersión Las Medidas de Dispersión tienen como objetivo cuantificar la variabilidad de los datos. - Recorrido, Recorrido Intercuartílico, Recorrido Semi intercuartilico. - Varianza, Desviación Típica, Cuasivarianza. - Coeficiente de Variación. pág. 18 7.3.1 Recorrido - Recorrido: es la diferencia entre el máximo y el mínimo de los valores de la variable aleatoria. R = máx(X) − mín(X). - Recorrido Intercuartílico: Longitud de un intervalo central que contiene el 50% de las observaciones. Anchura de la caja en un diagrama Box Plot. RI = Q3 − Q1. - Recorrido Semi intercuartílico: Corresponde con la mitad del anterior. RSI = RI/2. 7.4 Medidas de Forma 7.4.1 Asimetría Definiremos Asimetría Positiva cuando Md_Me_ x. Esto queda reflejado en el diagrama de barras o en un histograma presentando la distribuci´on de los datos una cola a la derecha. Definiremos Asimetría Negativa cuando x _Me_Md. Esto queda reflejado en el diagrama de barras o en un histograma presentando la distribución de los datos una cola a la izquierda. El coeficiente de Asimetría (de Fisher) se define: Asimetría Negativa g1 = - 1.66 g1 =1.85 Asimetría Positiva g1 = 1.85 g1 =1.85 pág. 19 7.4.2 Simétrica g1 = 0.028 pág. 20 9. EXPERIMENTO ALEATORIO, ESPACIO, MUESTRA, EVENTOS 9.1 Experimento Al hablar de experimentos se hace de la manera más amplia posible, es decir, no sólo incluyen hechos asociados a situaciones experimentales en un laboratorio, sino también se contemplan cualesquiera otras situaciones que den origen a sucesos de interés. 9.1.2 Experimentos determinísticos: También llamados exactos, los cuales se caracterizan porque cada vez que se realizan bajo condiciones similares, producen el mismo resultado. Estos fenómenos no son de interés para la Estadística. En general a la ciencia Estadística, y en particular a la teoría de la probabilidad, les interesa y fundamentan su desarrollo y aplicación en los denominados experimentos aleatorios. 9.1.3 Experimento aleatorio: Es cualquier acción o proceso que no se tiene certeza de su resultado final, hasta tanto no se ejecute. Este tipo de experimento debe satisfacer con los siguientes requerimientos: Puede repetirse un número ilimitado de veces bajo las mismas condiciones. Es posible conocer por adelantado todos los posibles resultados a que puede dar origen. No puede predecirse con exactitud un resultado en una realización particular del experimento. Ejemplo Si se desea formar un equipo de voleibol con 5 jugadores, el nombre de los seleccionados no se sabrá con certeza hasta que no se realicen las correspondientes y se elijan a los 5 deportistas. Se puede conocer la lista de todas las pruebas deportistas inscritos, pero no la lista de los seleccionados. 9.2 Espacio muestral (s) De un experimento aleatorio, es el conjunto de todos los posibles resultados al realizar el experimento. pág. 21 9.3 Eventos Es un subconjunto del espacio muestral. Ejemplo: A la lanza un dado una vez E = en la cara superior aparece un numero par. E = {2, 4, 6} Ejercicios. Hallar el especio muestral de cada uno de los siguientes experimentos: a. El papá de un bebé próximo a nacer quiere que su hijo se llame Juan, Camilo o Felipe. La mamá por su parte, pretende que se llame Andrés o Pablo. Para que ambos queden felices deciden combinar los nombres propuestos, considerando que primero irá el del papá y, luego, el de la mamá ¿De cuántas formas diferentes se pueden proponer un nombre para el bebé? b. Los candidatos para formar la nueva junta del consejo comunal son Carlos, Josefa, Elías y Marina. Se requiere que la junta esté compuesta por un presidente y un secretario ¿De cuántas formas se puede formar esta junta? Solución a ¡El espacio muestra! serán todas- las combinaciones que se puedan armar con los 3 nombres que propone el papá y los 2 que propone/la mamá; se debe tener en cuenta que primero ira el del papá y luego el de la madre. Por lo tanto, tenemos: S= {Juan Andrés, Juan Pablo, Camilo Andrés, Camilo Pablo, Felipe Andrés, Felipe Pablo} Solución b Sean: C=Carlos, J=Josefa, E=Elías, M=Marina ¡En el espacio muestra! se debe considerar el orden en que se seleccione la junta. S={(C,J), (J,C ), (C,E), (E,C), (C,M), (M,C), (J,E), (E,J), (J,M), (M,J), (E.M), (M,E)} pág. 22 10. LEYES DE LA PROBABLIDAD. La probabilidad es un método mediante el cual se obtiene la frecuencia de un suceso determinado mediante la realización de un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. Existen dos leyes: 10.1 Ley de la unión. La probabilidad de una unión de eventos, la cual la podremos calcular de la siguiente manera: Propiedad 1. Si A y B son dos eventos, la probabilidad de que ocurra A o B es igual a la suma de las probabilidades de ocurrencia de A y de B, menos la probabilidad de que ocurran A y B simultáneamente. Es decir: ( ∪ ) = ( ) + ( ) − ( ∩ ) Propiedad 2. Ahora, si el caso es que los eventos sean mutuamente excluyentes se tiene: Si dos eventos, A y B, son mutuamente excluyentes entonces la probabilidad de que ocurra A o B es igual a la suma de las probabilidades de ocurrencia de A y de B. Es decir( ∪ ) = ( ) + ( ) 10.2 Ley de la probabilidad contraria o del complemento. Otra propiedad que se deriva de las anteriores es cuando se busca la probabilidad del complemento de un evento E, que denotaremos como ~E: Si E es un evento y ~E su complemento, entonces(~ ) = − ( ) 10.3 Ley de la dependencia de los eventos. La probabilidad de que ocurra un evento A dado que ocurrió el evento B (el evento A depende del evento B), denotado P(A|B), es:( | ) = ( ∩ )/ ( ) Esta propiedad no es conmutativa, situación que sí ocurre con la probabilidad de unión o la intersección de eventos, por lo que no hay que confundir P(A|B) y P(B|A). 10.4 Ley de la independencia de eventos. Dos eventos A y B son independientes si y sólo si( | ) = ( ) ( | ) = ( ) o, que es lo mismo: ( ) = ( ) · ( ) pág. 23 11. PROBABILIDAD TOTAL Y PROBABILIDAD CONDICIONAL 11.1 Teorema de la probabilidad total: Nos permite calcular la probabilidad de un suceso a partir de probabilidades condicionadas: Ejemplo: supongamos que si llueve la probabilidad de que ocurra un accidentes es x% y si hace buen tiempo dicha probabilidad es y%. Este teorema nos permite deducir cuál es la probabilidad de que ocurra un accidente si conocemos la probabilidad de que llueva y la probabilidad de que haga buen tiempo. La fórmula para calcular esta probabilidad es: La probabilidad de que ocurra el suceso B (en nuestro ejemplo, que ocurra un accidente) es igual a la suma de multiplicar cada una de las probabilidades condicionadas de este suceso con los diferentes sucesos A (probabilidad de un accidente cuando llueve y cuando hace buen tiempo) por la probabilidad de cada suceso A. Para que este teorema se pueda aplicar hace falta cumplir un requisito: Los sucesos A tienen que formar un sistema completo, es decir, que contemplen todas las posibilidades (la suma de sus probabilidades debe ser el 100%). 11.2 Probabilidad condicionada: Se calculan una vez que se ha incorporado información adicionala la situación de partida: Ejemplo: se tira un dado y sabemos que la probabilidad de que salga un 2 es 1/6 (probabilidad a priori). Si incorporamos nueva información (por ejemplo, alguien nos dice que el resultado ha sido un número par) entonces la probabilidad de que el resultado sea el 2 ya no es 1/6. Las probabilidades condicionadas se calculan aplicando la siguiente fórmula: Donde: P (B/A) es la probabilidad de que se dé el suceso B condicionada a que se haya dado el suceso A. P (B L A) es la probabilidad del suceso simultáneo de A y de B P (A) es la probabilidad a priori del suceso A … En el ejemplo que hemos visto: P (B/A) es la probabilidad de que salga el número 2 (suceso B) condicionada a que haya salido un número par (suceso A). P (B L A) es la probabilidad de que salga el dos y número par. P (A) es la probabilidad a priori de que salga un número par. Por lo tanto: P (B L A) = 1/6 P (A) = 1/2 P (B/A) = (1/6) / (1/2) = 1/3 Luego, la probabilidad de que salga el número 2, si ya sabemos que ha salido un número par, es de 1/3 (mayor que su probabilidad a priori de 1/6) pág. 24 12. TEOREMA DE BAYES El teorema de Bayes, en la teoría de la probabilidad, es una proposición planteada por el matemático inglés Thomas Bayes (1702-1761) y publicada póstumamente en 1763, que expresa la probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A. En términos más generales y menos matemáticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir, por ejemplo, que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza. Muestra este sencillo ejemplo la alta relevancia del teorema en cuestión para la ciencia en todas sus ramas, puesto que tiene vinculación íntima con la comprensión de la probabilidad de aspectos causales dados los efectos observados. Formula Con base en la definición de Probabilidad condicionada se obtiene la Fórmula de Bayes, también conocida como la Regla de Bayes: Si conocemos la probabilidad de B en cada uno de los componentes de un sistema exhaustivo y excluyente de sucesos, entonces… …si ocurre B, podemos calcular la probabilidad (a posteriori) de ocurrencia de cada A donde P(B) se puede calcular usando el teorema de la probabilidad total: P(B)=P(B∩A1) + P(B∩A2 ) + P( B∩A3 ) + ( B∩A4 ) =P(B|A1) P(A1) + P(B|A2) P(A2) + … Aplicaciones 1. El diagnóstico de cáncer. 2. Evaluación de probabilidades durante el desarrollo de un juego de bridge por Dan F. Waugh y Frederick V. Waugh. 3. Probabilidades a priori y a posteriori. 4. Un uso controvertido en la Ley de sucesión de Laplace.3 5. En el testeo de hipótesis en Ciencia Política cuando se usa metodología process tracing. pág. 25 13. DISTRIBUCIONES DISCRETAS 13.1 Distribución Binomial Bi (n, p)( ) = (1 − ) =0, 1…n y 0 < p <1( ) =( ) = (1 − )( ) = (1 + − 1 ) Un caso particular de la distribución binomial e s cuando n = 1. Esta d i s t r i b u c i ó n suele denominarse Bernoulli de parámetro p, Be (p) = Bi (1, p) 13.2 Distribución Geométrica Ge(p)( ) = (1 − ) = 1, 2, … 0 < < 1( ) = 1 ( ) = 1 − 13.3 Distribución Binomial Negativa (o de Pascal) BN (r, p) ( ) = − 1− 1 (1 − ) = , + 1, … 0 < < 1( ) =( ) = (1 − ) La distribución geométrica es un caso particular de la distribución binomial negativa: Ge(p) = BN (1, p). 13.4 Distribución Poisson P (λ)( ) = ! = 0,1,2, … > 0( ) =( ) =( ) = ( ( ) ) 13.5 Distribución Hipergeométrica H (N, r, m) N: total población R: cantidad de “buenos” en la población M: cantidad de elementos extraídos (tamaño de la muestra)( ) = max( + − ,0) ≤ ≤ min( , )( ) =( ) = ( − ) − )( − 1) pág. 26 14. DISTRIBUCIÓN BINOMIAL 14.1 Las distribución binomial parte de la distribución de Bernouilli: 14.2 distribución de Bernouiili se aplica cuando se realiza una sola vez un experimento que tiene únicamente dos posibles resultados (éxito o fracaso), por lo que la variable sólo puede tomar dos valores: el 1 y el 0. 14.3 La distribución binomial se aplica cuando se realizan un número"n" de veces el experimento de Bernouiili, siendo cada ensayo independiente del anterior. La variable puede tomar valores entre: 0: si todos los experimentos han sido fracaso n: si todos los experimentos han sido éxitos Ejemplo: se tira una moneda 10 veces: ¿cuantas caras salen? Si no ha salido ninguna la variable toma el valor 0; si han salido dos caras la variable toma el valor 2; si todas han sido cara la variable toma el valor 10 14.4 La distribución de probabilidad de este tipo de distribución sigue el siguiente modelo: ¿Alguien entiende esta fórmula? Vamos a tratar de explicarla con un ejemplo: Ejemplo 1: ¿Cuál es la probabilidad de obtener 6 caras al lanzar una moneda 10 veces? " k " es el número de aciertos. En este ejemplo " k " igual a 6 (en cada acierto decíamos que la variable toma el valor 1: como son 6 aciertos, entonces k = 6) " n" es el número de ensayos. En nuestro ejemplo son 10 " p " es la probabilidad de éxito, es decir, que salga "cara" al lanzar la moneda. Por lo tanto p = 0,5 La fórmula quedaría: Luego, P (x = 6) = 0,205 Es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10 veces una moneda. pág. 27 15. LA DISTRIBUCIÓN DE POISSON Se trata de un modelo discreto, pero en el que el conjunto de valores con probabilidad no nula no es finito, sino numerable. Se dice que una variable aleatoria X sigue la distribución de Poisson si su función de densidad viene dada por: Como vemos, este modelo se caracteriza por un sólo parámetro λ, que debe ser positivo. Esta distribución suele utilizarse para contajes del tipo número de individuos por unidad de tiempo, de espacio, etc. 15.1 Propiedades del modelo de Poisson 1) Esperanza: E(X) = λ. 2) Varianza: V(X) = λ. En esta distribución la esperanza y la varianza coinciden. 3) La suma de dos variables aleatorias independientes con distribución de Poisson resulta en una nueva variable aleatoria, también con distribución de Poisson, de parámetro igual a la suma de parámetros: X1 ~ P(λ = λ1) y X2 ~ P(λ = λ2) y definimos Z = X1 + X2, entonces, Z ~ P(λ = λ1 + λ2) Este resultado se extiende inmediatamente al caso de n variables aleatorias independientes con distribución de Poisson. En este caso, la variable suma de todas ellas sigue una distribución de Poisson de parámetro igual a la suma de los parámetros. pág. 28 BIBLIOGRAFÍA: https://es.slideshare.net/CynthiaOt_Blog/teorema-de-bayes- probabilidad-total-probabilidad. https://es.wikipedia.org/wiki/Teorema_de_la_probabilidad_total https://www.gestiopolis.com/que-es-estadistica-tipos-y-objetivos/ https://www.aulafacil.com/cursos/estadisticas/gratis/distribucion-de- probabilidades-distribuciones-discretas-bernouilli-l11239 Probabilidad y Estadistica para ingenieria y ciencias Walpole Myers pág. 29
Compartir