Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
1 Unidad N°04 Distribuciones de Probabilidad 1.-Variable aleatoria En cualquier experimento aleatorio tenemos resultados cualitativos o cuantitativos. Para facilitar el estudio matemático, a cada uno de estos resultados se les hace corresponder un número real. Por ejemplo, el resultado es un número: al tomar una familia al azar y registrar el número de hijos ; al elegir aleatoriamente el empleado de una fábrica y observar ,si un día laborable determinado ha estado ausente o no; al considerar un estudiante cualquiera, al azar, de un cierto establecimiento educativo, y se le controla su peso. Así como los resultados de los experimentos aleatorios no son predecibles, lo mismo ocurre con los resultados de una variable aleatoria, aunque podemos calcular la probabilidad de que ocurra un determinado suceso. Con relación al concepto de variable aleatoria, tenemos que : Por ejemplo, si el experimento consiste en arrojar al aire, dos veces, una moneda no cargada, el espacio muestral es Ω={cc, cx, xc, xx}, mientras que la variable aleatoria X= “número de caras al lanzar la moneda al aire”, es una función cuyo dominio es Ω y su 2 i=1 rango o imagen es el conjunto formado por los valores : 0,1 y 2 (que corresponden a la cantidad de caras que pueden aparecer). Para que una variable pueda ser debidamente identificada, no basta con indicar los valores posibles que puede tomar, sino también sus correspondientes probabilidades Decimos entonces que: Una variable aleatoria X es toda función que puede tomar diversos valores numéricos , que dependen del resultado de un fenómeno aleatorio, con distintas probabilidades En particular se dice que una variable aleatoria es discreta, cuando puede tomar un número finito o infinito numerable de valores. Ejemplo: Si la variable aleatoria X es: ”número de hijas en una familia de dos hijos”, se tiene que los posibles valores de X son :0, 1, 2. Por lo tanto ,es una variable aleatoria discreta con X={0,1,2} y P(X)={ 1 , 4 1 , 1 }. 2 4 Función de probabilidad: Es toda regla que permite asociar a cada valor xi de una variable aleatoria, su probabilidad Pi . Tal función de probabilidad puede venir dada por una tabla o bien por una fórmula matemática .Con respecto al ejemplo anterior, la tabla sería la siguiente: X 0 1 2 P(X) ¼ ½ ¼ Observemos que la suma de todas las probabilidades es 1 : ∑3 𝑃i = 1. También se puede definir la variable aleatoria a través de una función llamada “función de distribución F(X)” donde F(X)=P(X≤ 𝒙). Con respeto al ejemplo anterior, los valores que toma dicha función son : F(0)=P(X≤ 0).=P(X=0) F(1)=P(X≤ 1)=P(X=0)+P(X=1) F(2)=P(X≤ 2)=P(X=0)+P(X=1)+P(X=2) 3 Distribución de probabilidad de una variable aleatoria: Es toda tabla, gráfica o expresión matemática que indica los valores de dicha variable con las respectivas probabilidades que toma. Nota: El concepto de variable aleatoria nos proporciona un modo para relacionar cualquier resultado con una medida cuantitativa. 2.-Esperanza,Varianza y Desviación Estándar: Esperanza de una variable aleatoria discreta X (E(X)) , se define como el número obtenido por la expresión: E(X)=x1.p1+ x2.p2+ ............ + xn.pn donde x1, x2,………., xn son los valores de la variable aleatoria X y p1, p2, ........... , pn son las respectivas probabilidades. La media, esperanza o valor esperado de una variable aleatoria, es un valor típico que sirve para representar una distribución de probabilidad. Esta media es un promedio ponderado en el que los valores posibles se ponderan mediante sus correspondientes probabilidades de ocurrencia. El conocimiento de la media de la distribución no es suficiente para caracterizar la distribución, ya que hay distribuciones con la misma media y distintas unas de otras. Varianza de una variable aleatoria discreta X (V(X)) : este estadístico se define como 𝑉(𝑋) = (𝑥1 − 𝐸(𝑋))2. 𝑝1+= (𝑥2 − 𝐸(𝑋))2. 𝑝2 + ⋯ += (𝑥n − 𝐸(𝑋))2. 𝑝n) Este estadístico sirve para medir la dispersión de los valores de una variable aleatoria X respecto de su media. Puesto que la varianza no podría medirse en las mismas unidades que la variable, utilizamos la raíz cuadrada de la varianza y a este número lo llamamos Desviación Estándar. Ejemplo: Calcular la media y la varianza del número de hijas en una familia de dos hijos. Espacio muestral : E={MM,VV,VM,MV} X={0,1,2,}=”número de hijas en una familia con dos hijos” P(X=0)=1/4 , P(X=1)=1/2 , P(X=2)= ¼ E(X)=0.1/4+1.1/2+2.1/4=1 V(X)=(0-1)2.1/4+(1-1)2.1/2+(2-1)2.1/4=1/2 3.-Distribuciones Discretas Distribución Bernoulli: Consiste en realizar un experimento aleatorio una sola vez y observar si un suceso ocurre o no, siendo p la probabilidad de que ocurra (éxito) y q=1-p la probabilidad de que no ocurra 4 (fracaso). Este experimento puede ser descrito mediante una variable aleatoria discreta X que toma valores X=0 si el suceso no ocurre y X=1 caso contrario. Se denota X~Ber (p). Para una variable aleatoria de Bernoulli, su función de probabilidad es: Y su función de distribución es : 0 𝑠𝑖 𝑥 < 0 𝐹(𝑥) = { 1 − 𝑝 𝑠𝑖 𝑜 ≤ 𝑥 < 1 1 𝑠𝑖 𝑥 ≥ 1 La esperanza y varianza son, respectivamente: E(x)=p y V(x)=p.q pues: E(x)=0.q + 1.p=p y V(x)=q(0-p)2+p(1-p)2=q.p2+p.q2=q.p(p+q)=q.p.1=p.q Ejemplo: Si el experimento consiste en lanzar una moneda (no cargada al aire y si consideramos la variable aleatoria X= números de caras obtenidas, entonces X= 0 con probabilidad q=1/2 y X=1 con probabilidad p=1/2. Distribución Binomial : Una variable aleatoria sigue una distribución binomial de parámetros n y p , X~B(n,p) , si es la suma de n variables aleatorias independientes de Bernoulli con el mismo parámetro p : X~B(n,p) ⇔ 𝑋 = 𝑋1 + 𝑋2 + ⋯ … . 𝑋n donde cada 𝑋i (i=1,……n) es una Bernoulli de parámetro p. Esto significa que si se realizan n pruebas o experimentos (independientes) de Bernoulli ,donde en cada una de ellas la probabilidad de éxito es la misma p , el número de éxitos obtenidos en las n pruebas es una variable aleatoria con distribución Binomial de parámetro n y p. Donde la función de probabilidad es: 5 𝑓(𝑘) = 𝑃 (𝑋 = 𝑘) 𝑛 = (𝑘) 𝑝 𝑞n–k ∀𝑘 = 0,1,2, … … . ,n La función de distribución es: 𝐹(𝑋) = 𝑜 𝑠𝑖 𝑥 < 𝑜 𝑛 𝑘 𝑝 𝑞 𝑠𝑖 0 ≤ 𝑥 ≤ 𝑛 1 𝑠𝑖 𝑥 > 𝑛 La Esperanza y Varianza son, respectivamente: E(X)=n.p y V(X)= n.p.q Ejemplo: En una fábrica, el 5% de los engranajes producidos resultan defectuosos. Si se realiza una selección al azar de 6 engranajes. ¿Cuál es la probabilidad de que resulten : a) ¿exactamente tres defectuosos?, b)¿menos de dos elementos defectuosos?. En primer lugar se puede verificar fácilmente que se cumplen las condiciones binomiales, donde la variable aleatoria es X=número de engranajes defectuosos. Para el caso de a) se tiene: P(X=3)= 6 3 0,05 𝑞 y para el caso de b) se tiene P(X≤ 1) = 6 0 0,05 𝑞 + 6 1 0,05 𝑞 . Nota: Esta distribución es asimétrica a la derecha si p < q y a la izquierda si p > q (como se puede observar mediante el coeficiente de asimetría de Fisher). Mientras que conforme n crece ,la asimetría tiende a disminuir. En el gráfico siguiente: ¿qué relación hay entre p y q?, ¿qué tipo de asimetría presenta la distribución Binomial?. k 6 En síntesis podemos decir que la Distribución de probabilidad binomial tiene las siguientes características: El resultado de cada ensayo de un experimento se clasifica en una de dos categorías mutuamente excluyentes (éxito o fracaso) La variable aleatoria cuenta el número de éxitos en una cantidad fija de ensayos. La probabilidad de un éxito permanece igual en todos los ensayos. Lo mismo sucede con la probabilidad de un fracaso. Los ensayos son independientes,lo cual significa, que el resultado de un ensayo no afecta el resultado de algún otro. Distribución de Poisson: Una variable aleatoria X posee una distribución de Poisson cuando su función de probabilidad es : 𝑓(𝑘) = 𝑃(𝑋 = 𝑘) = . ! con k=0,1,2,3………………… Este tipo de leyes se aplican a sucesos con probabilidad muy baja de ocurrir, de ahí el nombre de Ley de los sucesos raros. Por otra parte, describe la cantidad de veces que ocurre un evento en un determinado intervalo de tiempo o espacio. La distribución se basa en dos supuestos. La probabilidad es proporcional a la extensión del intervalo (a mayor magnitud del intervalo mayor probabilidad). Los intervalos son independientes (el número de ocurrencias en un intervalo no afecta a los otros intervalos). Ejemplo: En cierto lugar de escasa población, en la central telefónica, se reciben un promedio de 12 llamadas por hora. Calcular: a) La probabilidad de que en una hora seleccionada al azar se produzcan 3 llamadas. b) ) La probabilidad de que en un período de 10 minutos se produzcan entre 3 y 5 llamadas. Solución: Aquí X= número de llamadas recibidas en una hora, donde X~Po(λ=12). P(X=3)= e —12.123 =0,0018 3! Aquí 𝑋' = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑙𝑙𝑎𝑚𝑎𝑑𝑎𝑠 𝑟𝑒𝑐𝑖𝑏𝑖𝑑𝑎𝑠 𝑒𝑛 10 𝑚𝑖𝑛𝑢𝑡𝑜𝑠 , tiene un promedio que es 6 veces menor ( 1 hora =6 x 10 minutos, entonces: 𝜆 = = 2 P((3 ≤ 𝑋 ≤ 5)=P(X=3)+P(X=4)+P(X=5)=0,3067. 7 En general, usaremos esta distribución como aproximación de experimentos Binomiales donde el número de pruebas es muy alto, pero la probabilidad de éxito es muy baja , p pequeño y n alto se puede aproximar B(n,p)= Po(λ=n.p).Como criterio de aproximación , se suele utilizar :n> 30 y p ≤ 0,1. También una regla general aceptable es emplear la aproximación: si n≥20 y p≤0.05 y sí n≥100, la aproximación es generalmente excelente siempre y cuando np≤10. La Esperanza y Varianza son, respectivamente: E(X)=V(X)=λ. Observación: La distribución de Poisson siempre tiene sesgo positivo, es asimétrica a la derecha ( no toma valores negativos) y los valores de su variable aleatoria no tienen límite superior específico).Este comportamiento se puede observar en el siguiente gráfico, para distintos valores del parámetro λ. 4.-Distribuciones Continuas Distribución Normal o Gaussiana Una variable aleatoria X sigue una distribución Normal de parámetros µ y σ , lo que representamos del modo X~N(µ,σ) , si su función de densidad es : 𝑓(𝑥) .√ 𝑒 µ ∀𝑥 ∈ R La función de distribución tiene la siguiente expresión: 𝐹(𝑥) = ∫ .√ 𝑒 µ 𝑑𝑦 Los parámetros µ y σ coinciden con la media (esperanza) y la desviación estándar respectivamente de la distribución .Esto es: E(x)= µ y √𝑉(𝑥)= σ La forma de la función de densidad es la llamada Campana de Gauss .Esta alcanza un único máximo en µ , que e simétrica con respecto al mismo. Respecto de esta curva podemos decir lo siguiente en cuanto a sus características: Por lo tanto, P(X≤ µ )= P(X la moda. Los puntos de inflexión puntos de inflexión y la media ramas de la curva se extienden “muy alejado “ de la media es Por otra parte, cuanto menor concentrada alrededor de la media observa en la siguiente gráfica) Para cualquier distribución Normal El 68% de las observaciones El 95% de las observaciones El 99% de las observaciones caen en (µ P(X≥ µ)=1/2 , con lo cual en µ coinciden la media, inflexión coinciden con µ - σ y µ +σ . La distancia media nos dice cuál es la dispersión de la distribución extienden asintóticamente a los ejes, de modo que cualquier es teóricamente posible (aunque poco probable). sea σ , mayor será la cantidad de masa de probabilidad media y , cuanto mayor, más aplastada será la siguiente gráfica) Normal con parámetros µ y σ se tiene que : observaciones caen en (µ - σ, µ + σ). observaciones caen en (µ - 2σ, µ +2 σ) El 99% de las observaciones caen en (µ -3 σ, µ +3 σ). 8 media, la mediana y distancia entre los distribución Normal. Las cualquier valor probable). probabilidad curva( como se 9 La distribución Normal Estandarizada: Cuando µ=0 y σ=1 tenemos la distribución Normal Estandarizada. En general, si tenemos una variable aleatoria X~N(µ,σ), la probabilidad de cualquier valor , se realiza estandarizando: X~N(µ,σ) → 𝑍 = x–μ ~𝑁(0,1) σ Ejemplo: En una fábrica , de cierto tipo de vigas, se sabe que el peso de las mismas se distribuye normalmente, con peso medio 200 kg y desviación estándar de 5 kg. a) Calcular la probabilidad de que las vigas pesen menos de 210 kg. b) Calcular la probabilidad de que las vigas pesen entre 195 y 210 kg. Solución: Aquí X: peso de las vigas es X~𝑁(200,5). Para calcular las probabilidades se debe estandarizar. Entonces : a)P(X≤ 219) = 𝑃 ( X–200 ≤ 210–200 ) = 0,9772 5 5 b) P(195≤X≤ 210) = 𝑃( 195–200 ≤ X–200 ≤ 210–200 ) = 0,8185 5 5 5 Nota: Se puede demostrar , mediante el Teorema Central del Límite, que una variable aleatoria discreta con distribución Binomial, se puede aproximar mediante una distribución Normal si n es suficientemente grande y p no está próximo a cero ni a 1.Como criterio de 𝑛 > 30 aproximación, se suele utilizar: X~B(n,p) donde {𝑛. 𝑝 > 4 𝑛. 𝑞 > 4 → X~N(µ=n.p , σ=√𝑛. 𝑝. 𝑝) 10 1 Distribución Chi Cuadrado (𝝌𝟐) Consideremos una variable aleatoria Z~N(0, 1) . La variable 𝑍2 posee una distribución 𝝌𝟐 con un grado de libertad : 𝑍2 ~ 𝜒2 . Si tenemos n variables aleatorias independientes 𝑍 ~𝑁(0,1) entonces ∑ 𝑍 ~𝜒 La esperanza y varianza son ,respectivamente : E(X)=n y V(X)=2n. Al seleccionar una muestra de n elementos x1,x2,………., xn decimos que tenemos n grados de libertad de elección . Si cuando se elige esa muestra , imponemos la restricción de que cierto estadístico tenga un valor fijo (por ejemplo �̅�), al seleccionar n-1 valores, el último estará determinado. Por ello, decimos que hay n-1 grados de libertad en el proceso de selección .En general, habrá n-k grados de libertad, si se desea que los valores muestrales satisfagan k relaciones lineales independientes. Distribución de Student Esta distribución se construye como un cociente entre una Normal y la raíz cuadrada de una 𝝌𝟐 dividida sus grados de libertad. La llamamos t de Student con n grados de libertad y la expresamos como 𝑡n a la distribución de una variable aleatoria T, cuya expresión es : 𝑇 = . ~𝑡 La distribución t de Student tiene propiedades similares a las de la N(0,1): Tiene media cero y es simétrica con respecto a la misma. Es algo más dispersa que la Normal, pero la varianza decrece hasta 1 cuando el número de grados de libertad aumenta (𝜎2 = n n–2 para n>2). Para un número alto de grados de libertad se puede aproximar a una distribución N(0,1).
Compartir