Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 1 FORMULARIO DE PROBABILIDAD AXIOMAS DE LA PROBABILIDAD Los axiomas son verdades tan evidentes que se admiten sin demostración. La probabilidad está basada en los axiomas de Probabilidad desarrollados en 1933 por el matemático ruso Kolmogórov. Para un espacio muestral 𝑺, la probabilidad de cada evento 𝑨 ⊂ 𝑺 es un número que se asigna al evento, se denota 𝑷(𝑨), y tiene las siguientes propiedades: 1. 𝑷(𝑨) es un número no negativo; esto es, 𝑷(𝑨) ≥ 𝟎 2. La probabilidad del espacio muestral 𝑺 es la unidad, es decir, 𝑷(𝑺) = 𝟏 3. Si 𝑨 y 𝑩 son eventos que se excluyen mutuamente en 𝑺, entonces la probabilidad de la unión de los eventos es igual a la suma de sus probabilidades, esto es: 𝑷(𝑨 ∪ 𝑩) = 𝑷(𝑨) + 𝑷(𝑩) Si un evento tiene probabilidad cero, en el axioma uno, no significa que sea un evento imposible. Para tener el evento vacío (o imposible) una probabilidad de cero es condición necesaria, pero no suficiente. VALOR ESPERADO DE UNA VARIABLE ALEATORIA Sea 𝑿 una variable aleatoria con distribución de probabilidad 𝒇𝑿(𝑿). El valor esperado de 𝑿, 𝑬[𝑿] es: 𝑬[𝑿] = ⎩ ⎪ ⎨ ⎪ ⎧ 𝒙𝒇𝑿(𝑿) ∀𝒙 ; 𝑿 𝒅𝒊𝒔𝒄𝒓𝒆𝒕𝒂 𝒙𝒇𝑿(𝑿)𝒅𝒙 ; 𝑿 𝒄𝒐𝒏𝒕𝒊𝒏𝒖𝒂 PROPIEDADES DEL VALOR ESPERADO 1. El valor esperado de una constante 𝒌, es la propia constante 𝑬[𝒌] = 𝒌 2. El valor esperado de una variable aleatoria por una constante, es la constante por el valor esperado de la variable aleatoria 𝑬[𝒂𝑿] = 𝒂𝑬[𝑿] 3. El valor esperado de la cantidad 𝒂𝑿 + 𝒃 donde 𝒂 y 𝒃 son constantes, es el producto de 𝒂 por el valor esperado de 𝑿 más 𝒃. 𝑬[𝒂𝑿 + 𝒃] = 𝒂𝑬[𝑿] + 𝒃 Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 2 4. Si 𝒈(𝒙) es una función de 𝑿, entonces: 𝑬[𝒈(𝒙)] = ⎩ ⎪ ⎨ ⎪ ⎧ 𝒈(𝒙)𝒇𝑿(𝒙) ; 𝑿 𝒅𝒊𝒔𝒄𝒓𝒆𝒕𝒂 ∀𝒙 𝒈(𝒙) 𝒇𝑿(𝒙)𝒅𝒙 ; 𝑿 𝒄𝒐𝒏𝒕𝒊𝒏𝒖𝒂 5. El valor esperado de una suma de funciones es igual a la suma de los valores esperados. Si 𝒈𝟏(𝑿) y 𝒈𝟐(𝑿) son funciones de 𝑿, entonces 𝑬[𝒈𝟏(𝑿) + 𝒈𝟐(𝑿)] = 𝑬[𝒈𝟏(𝑿)] + 𝑬[𝒈𝟐(𝑿)] 6. Si 𝒈(𝒙) es una función de 𝑿, entonces: LOS MOMENTOS RESPECTO AL ORIGEN Y RESPECTO A LA MEDIA El r-ésimo momento con respecto al origen se define mediante: 𝒎𝒓 = 𝟏 𝒏 𝒙𝒊 𝒓 𝒏 𝒊 𝟏 El r-ésimo momento con respecto a la media se define mediante: 𝒎𝒓 = 𝟏 𝒏 (𝒙𝒊 − 𝒙) 𝒓 𝒏 𝒊 𝟏 El primer momento con respecto al origen 𝒎𝟏 es l a media 𝒙, mientras que el segundo momento con respecto a la media 𝒎𝟐 es la varianza 𝒔𝒏𝟐. CARACTERÍSTICAS DE LA VARIANZA 𝑽𝒂𝒓[𝑿] = 𝑬 𝑿𝟐 − (𝑬[𝑿])𝟐 = 𝑬 𝑿𝟐 − 𝝁𝟐 1. La varianza de una constante es cero: 𝑽𝒂𝒓[𝒌] = 𝟎 2. La varianza de una constante por la variable aleatoria es el cuadrado de la constante por la varianza de la variable aleatoria 𝑽𝒂𝒓[𝒂𝑿] = 𝒂𝟐𝑽𝒂𝒓[𝑿] PROPIEDADES DE LA COVARIANZA 𝑪𝒐𝒗[𝑿, 𝒀] = 𝑬[𝑿𝒀] − 𝑬[𝑿]𝑬[𝒀] = 𝑬[𝑿𝒀] − 𝝁𝑿𝝁𝒀 1. Si 𝑿 y 𝒀 son variables aleatorias conjuntas independientes, su covarianza es cero. Pero si la covarianza es cero no quiere decir que sean independientes. 𝑪𝒐𝒗[𝑿, 𝒀] = 𝟎 Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 3 2. Si 𝑿 y 𝒀 son variables aleatorias con esperanzas 𝑬[𝑿] y 𝑬[𝒀] y se definen las funciones 𝑼 = 𝒂𝟏𝑿 + 𝒃𝟏 y 𝑽 = 𝒂𝟐𝒀 + 𝒃𝟐 entonces 𝑪𝒐𝒗(𝑼, 𝑽) = 𝒂𝟏𝒂𝟐𝑪𝒐𝒗(𝑿, 𝒀) 3. Si 𝑿 y 𝒀 son variables aleatorias con varianzas 𝑽𝒂𝒓(𝑿) y 𝑽𝒂𝒓(𝒀) entonces: 𝑽𝒂𝒓(𝑿 ± 𝒀) = 𝑽𝒂𝒓(𝑿) + 𝑽𝒂𝒓(𝒀) ± 𝟐𝑪𝒐𝒗(𝑿, 𝒀) Corolario: Si 𝑿 y 𝒀 son variables aleatorias independientes, entonces: 𝑽𝒂𝒓(𝑿 + 𝒀) = 𝑽𝒂𝒓(𝑿 − 𝒀) = 𝑽𝒂𝒓(𝑿) + 𝑽𝒂𝒓(𝒀) DISTRIBUCIONES DE PROBABILIDAD DISCRETAS: DISTRIBUCIÓN DISCRETA UNIFORME Definición: Sea 𝑿 una variable aleatoria, que toma los valores 𝒙𝟏, 𝒙𝟐, … , 𝒙𝒌, con igual probabilidad 𝒇𝑿(𝒙; 𝒌) = 𝟏 𝒌 , 𝒙 = 𝒙𝟏, 𝒙𝟐, … , 𝒙𝒌 entonces la distribución es directa uniforme con parámetro 𝒌. Se denota 𝑿~𝒖𝒏𝒊𝒇𝒐𝒓𝒎𝒆(𝒌). Teorema: Si 𝑋 es una variable aleatoria con distribución discreta uniforme, entonces: 𝝁𝑿 = 𝑬[𝑿] = 𝟏 𝒌 𝒙𝒊 𝒌 𝒊 𝟏 𝝈𝑿 𝟐 = 𝑽𝒂𝒓[𝑿] = 𝟏 𝒌 (𝒙𝒊 − 𝝁𝑿) 𝟐 𝒌 𝒊 𝟏 DISTRIBUCIÓN DE BERNOULLI Definición: Sea 𝑿 la variable aleatoria que representa el número de éxitos que se obtienen al realizar un ensayo de Bernoulli, entonces 𝑿 tiene una distribución de Bernoulli con parámetro 𝒑. 𝒇𝑿(𝒙; 𝒑) = 𝟏 − 𝒑 ; 𝒙 = 𝟎 𝒑 ; 𝒙 = 𝟏 𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐 Se denota: 𝑿~𝑩𝒆𝒓𝒏𝒐𝒖𝒍𝒍𝒊(𝒑) También puede escribirse como. 𝒇𝑿(𝒙) = 𝒑𝒙(𝟏 − 𝒑)𝟏 𝒙 ; 𝒙 = 𝟎, 𝟏 𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐 Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 4 Teorema: Si X es una variable aleatoria con distribución de Bernoulli, entonces: 𝝁𝑿 = 𝑬[𝑿] = 𝒑 𝝈𝑿 𝟐 = 𝑽𝒂𝒓[𝑿] = 𝒑𝒒 DISTRIBUCIÓN BINOMIAL Definición: Sea X la variable aleatoria que representa el número de éxitos que se observan al realizar un proceso de Bernoulli, entonces X recibe el nombre de variable aleatoria binomial, con distribución 𝒇𝑿(𝒙; 𝒏, 𝒑) = 𝒏 𝒙 𝒑𝒙(𝟏 − 𝒑)𝒏 𝒙 ; 𝒙 = 𝟎, 𝟏, … , 𝒏 𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐 Se denota 𝑿~𝑩𝒊𝒏𝒐𝒎𝒊𝒂𝒍(𝒏, 𝒑) Teorema: Sea X una variable aleatoria con distribución binomial y parámetros n y p, entonces. 𝝁𝑿 = 𝑬[𝑿] = 𝒏𝒑 𝝈𝑿 𝟐 = 𝑽𝒂𝒓[𝑿] = 𝒏𝒑𝒒 DISTRIBUCIÓN GEOMÉTRICA Definición: Sea X la variable aleatoria que representa el número de ensayos Bernoulli que se requieren para observar por primera vez un éxito, entonces X tiene una distribución geométrica con parámetro 𝒑. 𝒇𝑿(𝒙) = 𝒑(𝟏 − 𝒑)𝒙 𝟏 ; 𝒙 = 𝟏, 𝟐, … , 𝒏 𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐 Se denota: 𝑿~𝑮𝒆𝒐𝒎é𝒕𝒓𝒊𝒄𝒂(𝒑) Teorema: Sea 𝑿 la variable aleatoria con distribución geométrica con parámetro 𝒑 entonces 𝝁𝑿 = 𝑬[𝑿] = 𝟏 𝒑 𝝈𝑿 𝟐 = 𝑽𝒂𝒓[𝑿] = 𝟏 − 𝒑 𝒑𝟐 DISTRIBUCIÓN BINOMIAL NEGATIVA (DISTRIBUCIÓN DE PASCAL) Definición: Sea 𝑿 una variable aleatoria que representa el número de ensayos de Bernoulli que se requieren para observar el r-ésimo éxito, si en cada uno de los ensayos se tiene una probabilidad de éxito 𝒑, entonces 𝑿 tiene una distribución de Pascal con parámetros 𝒓 y 𝒑. Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 5 𝒇𝑿(𝒙) = 𝒙 − 𝟏 𝒓 − 𝟏 𝒑𝒓𝒒𝒙 𝒓 ; 𝒙 = 𝒓, 𝒓 + 𝟏, . 𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐 Se denota por 𝑿~𝑷𝒂𝒔𝒄𝒂𝒍(𝒓, 𝒑). Teorema: Sea 𝑿 una variable aleatoria con distribución de Pascal con parámetros 𝒓 y 𝒑, entonces 𝝁𝑿 = 𝑬[𝑿] = 𝒓 𝒑 𝝈𝑿 𝟐 = 𝑽𝒂𝒓[𝑿] = 𝒓(𝟏 − 𝒑) 𝒑𝟐 DISTRIBUCIÓN DE POISSON Definición: Sea 𝑿 una variable aleatoria con distribución de Poisson, con parámetro 𝝀, entonces 𝒇𝑿(𝒙) = 𝝀𝒙𝒆 𝝀 𝒙! ; 𝒙 = 𝟎, 𝟏, … 𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐 Se denota 𝑿~𝑷𝒐𝒊𝒔𝒔𝒐𝒏(𝝀). Teorema: Sea 𝑿 una variable aleatoria con distribución de Poisson y parámetro 𝝀, entonces 𝝁𝑿 = 𝑬[𝑿] = 𝝀 𝝈𝑿 𝟐 = 𝑽𝒂𝒓[𝑿] = 𝝀 CONTINUAS: DISTRIBUCIÓN CONTINUA UNIFORME Definición: Sea 𝑿 una variable aleatoria que se distribuye 𝒇𝑿(𝒙) = 𝟏 𝒃 − 𝒂 ; 𝒂 ≤ 𝒙 ≤ 𝒃 𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐 Entonces 𝑿 tiene una distribución continua uniforme con parámetros 𝒂 y 𝒃. Se denota 𝑿~𝑼𝒏𝒊𝒇𝒐𝒓𝒎𝒆(𝒂, 𝒃). Teorema: Si 𝑿 es una variable aleatoria con distribución continua uniforme, entonces 𝝁𝑿 = 𝒂 + 𝒃 𝟐 𝝈𝑿 𝟐 = (𝒃 − 𝒂)𝟐 𝟏𝟐 Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda PinedaNorman 6 DISTRIBUCIÓN EXPONENCIAL Definición: Sea 𝑻 la variable aleatoria que representa el intervalo (generalmente tiempo), que transcurre entre dos ocurrencias sucesivas de un evento, entonces 𝑻 tiene una distribución exponencial con parámetro 𝝀 y función de densidad 𝒇𝑻(𝒕) = 𝝀𝒆 𝝀𝒕 ; 𝒕 > 𝟎 𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐 Se denota por 𝑻~𝒆𝒙𝒑𝒐𝒏𝒆𝒏𝒄𝒊𝒂𝒍(𝝀). Teorema: Sea 𝑻 una variable aleatoria con distribución exponencial y parámetro 𝝀, entonces 𝝁𝑻 = 𝑬[𝑻] = 𝟏 𝝀 𝝈𝑻 𝟐 = 𝑽𝒂𝒓[𝑻] = 𝟏 𝝀𝟐 DISTRIBUCIÓN NORMAL Definición: Sea 𝑿 una variable aleatoria continua. Se dice que 𝑿 tiene una distribución normal, con parámetros media 𝝁 y varianza 𝝈𝟐 en todos los reales cuando su función de densidad es: 𝒇(𝒙) = 𝟏 𝝈√𝟐𝝅 𝒆 (𝒙 𝝁)𝟐 𝟐𝝈𝟐 ; −∞ < 𝒙 < ∞ Se denota 𝐗~𝑵𝒐𝒓𝒎𝒂𝒍(𝝁,𝝈𝟐) o 𝐗~𝑵(𝝁,𝝈𝟐). Teorema: Si 𝑿 es una variable aleatoria continua distribuida de manera normal en (−∞, ∞) y 𝒇(𝒙) es una función de densidad de probabilidad, entonces: 𝑬(𝑿) = 𝝁 𝑽(𝑿) = 𝝈𝟐 Teorema: Aditividad de la Distribución Normal. Si 𝑿𝟏, 𝑿𝟐, … , 𝑿𝒏 son variables aleatorias independientes, y todos con distribución normal con media 𝝁𝒊 y varianza 𝝈𝒊 𝟐, entonces la variable aleatoria 𝒀 definida como 𝒀 = 𝑿𝟏 + 𝑿𝟐 + ⋯ + 𝑿𝒏 = 𝑿𝒊 𝒏 𝒊 𝟏 Tiene distribución normal con media ∑ 𝝁𝒊𝒏𝒊 𝟏 y varianza ∑ 𝝈𝒊 𝟐𝒏 𝒊 𝟏 . Distribución Normal Estándar: De los cursos de cálculo sabemos que la integral de la función 𝒇(𝒙) = 𝟏 𝝈√𝟐𝝅 𝒆 (𝒙 𝝁)𝟐 𝟐𝝈𝟐 Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 7 no se puede resolver con funciones elementales, sino por métodos numéricos (algoritmos). Para resolver este problema se usa la estandarización de la variable normal, que es cambiar la variable aleatoria 𝒁 = 𝑿 − 𝝁 𝝈 Que se conoce como la estandarización de la variable 𝑿~𝑵 𝝁, 𝝈𝟐 a unidades en 𝒁. Además 𝒁~𝑵(𝟎, 𝟏) DISTRIBUCIÓN JI CUADRADA Definición: Sean 𝒁𝟏, 𝒁𝟐, … , 𝒁𝝂; 𝝂 variables aleatorias independientes con distribución normal estándar, entonces: 𝚾𝟐 = 𝒁𝟏 𝟐 + 𝒁𝟐 𝟐 + ⋯ + 𝒁𝝂 𝟐 La función de densidad de una variable aleatoria continua con distribución 𝒋𝒊 𝒄𝒖𝒂𝒅𝒓𝒂𝒅𝒂 y parámetro 𝝂 es: 𝒇(𝒙; 𝝂) = ⎩ ⎪ ⎨ ⎪ ⎧ 𝟏 𝟐 𝝂 𝟐𝜞 𝝂 𝟐 𝒙 𝝂 𝟐 𝟏𝒆 𝒙 𝟐 𝒙 ≥ 𝟎 𝟎 𝒙 < 𝟎 A 𝝂 se le conoce como los 𝑔𝑟𝑎𝑑𝑜𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑 (𝑔. 𝑙. ) , y está relacionada con el tamaño de la muestra. Se denota por 𝝌𝟐 (ji cuadrada). Teorema: Si 𝚾𝟐es una variable aleatoria que tiene una distribución Ji cuadrada con 𝝂 grados de libertad, 𝚾𝟐~ 𝝌𝝂𝟐 , entonces 𝑬 𝚾𝟐 = 𝝂 𝑽𝒂𝒓 𝚾𝟐 = 𝟐𝝂 Función de densidad de la distribución 𝝌𝟐 con 3,6,9 y 12 grados de libertad (G. 𝑙.) Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 8 DISTRIBUCIÓN T DE STUDENT Definición: Sean 𝒁 y 𝑿𝟐 dos variables aleatorias independientes con distribución normal estándar y Ji cuadrada respectivamente, es decir: 𝒁~𝑵(𝟎, 𝟏) y 𝚾𝟐~𝝌𝝂𝟐, entonces la variable aleatoria 𝑻 definida como 𝑻 = 𝒁 𝚾𝟐 𝝂 Tiene una distribución t de Student con 𝝂 grados de libertad y está definida por 𝒇𝑻(𝒕) = 𝜞 𝝂 + 𝟏 𝟐 𝜞 𝝂 𝟐 √ 𝝅𝝂 𝟏 + 𝒕𝟐 𝝂 𝝂 𝟏 𝟐 ; −∞ < 𝒕 < ∞ ; 𝝂 > 𝟎 donde 𝝂 son los 𝒈. 𝒍. y están relacionados con el tamaño de la muestra. La distribución t-Student, al igual que la distribución normal es simétrica y tiene forma de campana. Teorema: Si 𝑻 es una variable aleatoria que tiene distribución t de Student con 𝝂 grados de libertad, entonces 𝑬[𝑻] = 𝟎 𝑽𝒂𝒓[𝑻] = 𝝂 𝝂 − 𝟐 ; 𝝂 > 𝟐 La función de densidad de los modelos t-Student, para 1, 2, 5 y 30 g. 𝑙. DISTRIBUCIÓN F Definición: Si 𝑿 y 𝒀 son dos variables aleatorias independientes con distribución Ji cuadrada con parámetros 𝝂𝟏 y 𝝂𝟐, es decir 𝑿~𝝌𝝂𝟏 𝟐 ; 𝒀~𝝌𝝂𝟐 𝟐 Entonces la variable aleatoria 𝑭 definida como 𝑭 = 𝑿 𝝂𝟏 𝒀 𝝂𝟐 Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 9 Tiene una distribución 𝑭 de Fisher-Snedecor con 𝝂𝟏 y 𝝂𝟐 grados de libertad del numerador y denominador, respectivamente y función de densidad dada por 𝒇(𝒙) = 𝜞 𝝂𝟏 + 𝝂𝟐 𝟐 𝝂𝟏 𝝂𝟐 𝝂𝟏 𝟐 𝜞 𝝂𝟏 𝟐 𝜞 𝝂𝟐 𝟐 ∙ 𝑿 𝝂𝟏 𝟐 𝟏 𝟏 + 𝝂𝟏 𝝂𝟐 𝑿 𝝂𝟏 𝝂𝟐 𝟐 , 𝑿 > 𝟎 Los parámetros 𝝂𝟏 y 𝝂𝟐 son los 𝒈. 𝒍. de la distribución 𝑭 del numerador y denominador, respectivamente. Se denota 𝑭~𝑭𝝂𝟏,𝝂𝟐 Se emplea en la razón entre varianzas. Teorema: Si 𝑭 es una variable aleatoria con distribución 𝑭 de Fisher-Snedecor con 𝝂𝟏 grados de libertad en el numerador y 𝝂𝟐 grados de libertad en el denominador, entonces 𝑬[𝑭] = 𝝂𝟐 𝝂𝟐 − 𝟐 ; 𝝂𝟐 > 𝟐 𝑽𝒂𝒓[𝑭] = 𝟐𝝂𝟐 𝟐(𝝂𝟏 + 𝝂𝟐 − 𝟐) 𝝂𝟏(𝝂𝟐 − 𝟐) 𝟐(𝝂𝟐 − 𝟒) ; 𝝂𝟐 > 𝟒 La gráfica es:
Compartir