Logo Studenta

UNIDAD 04-Teoría

¡Estudia con miles de materiales!

Vista previa del material en texto

1 
 
 
 Unidad N°04 
 Distribuciones de Probabilidad 
1.-Variable aleatoria 
En cualquier experimento aleatorio tenemos resultados cualitativos o cuantitativos. Para 
facilitar el estudio matemático, a cada uno de estos resultados se les hace corresponder un 
número real. 
Por ejemplo, el resultado es un número: 
 
 al tomar una familia al azar y registrar el número de hijos ; 
 al elegir aleatoriamente el empleado de una fábrica y observar ,si un día laborable 
determinado ha estado ausente o no; 
 al considerar un estudiante cualquiera, al azar, de un cierto establecimiento 
educativo, y se le controla su peso. 
Así como los resultados de los experimentos aleatorios no son predecibles, lo mismo ocurre 
con los resultados de una variable aleatoria, aunque podemos calcular la probabilidad de 
que ocurra un determinado suceso. 
Con relación al concepto de variable aleatoria, tenemos que : 
 
 
 
Por ejemplo, si el experimento consiste en arrojar al aire, dos veces, una moneda no 
cargada, el espacio muestral es Ω={cc, cx, xc, xx}, mientras que la variable aleatoria 
X= “número de caras al lanzar la moneda al aire”, es una función cuyo dominio es Ω y su
2 
 
i=1 
rango o imagen es el conjunto formado por los valores : 0,1 y 2 (que corresponden a la cantidad 
de caras que pueden aparecer). 
Para que una variable pueda ser debidamente identificada, no basta con indicar los valores 
posibles que puede tomar, sino también sus correspondientes probabilidades 
Decimos entonces que: Una variable aleatoria X es toda función que puede tomar diversos 
valores numéricos , que dependen del resultado de un fenómeno aleatorio, con distintas 
probabilidades 
En particular se dice que una variable aleatoria es discreta, cuando puede tomar un 
número finito o infinito numerable de valores. 
Ejemplo: 
Si la variable aleatoria X es: ”número de hijas en una familia de dos hijos”, se tiene que los 
posibles valores de X son :0, 1, 2. Por lo tanto ,es una variable aleatoria discreta con 
X={0,1,2} y P(X)={
1 
, 
4 
1 , 
1
}. 
2 4 
 
 
 
Función de probabilidad: Es toda regla que permite asociar a cada valor xi de una variable 
aleatoria, su probabilidad Pi . 
Tal función de probabilidad puede venir dada por una tabla o bien por una fórmula 
matemática .Con respecto al ejemplo anterior, la tabla sería la siguiente: 
 
 
X 0 1 2 
P(X) ¼ ½ ¼ 
 
Observemos que la suma de todas las probabilidades es 1 : ∑3 𝑃i = 1. 
 
También se puede definir la variable aleatoria a través de una función llamada “función de 
distribución F(X)” donde F(X)=P(X≤ 𝒙). 
Con respeto al ejemplo anterior, los valores que toma dicha función son : 
F(0)=P(X≤ 0).=P(X=0) 
F(1)=P(X≤ 1)=P(X=0)+P(X=1) 
 
F(2)=P(X≤ 2)=P(X=0)+P(X=1)+P(X=2) 
3 
 
Distribución de probabilidad de una variable aleatoria: Es toda tabla, gráfica o 
expresión matemática que indica los valores de dicha variable con las respectivas 
probabilidades que toma. 
Nota: El concepto de variable aleatoria nos proporciona un modo para relacionar cualquier 
resultado con una medida cuantitativa. 
2.-Esperanza,Varianza y Desviación Estándar: 
 
 Esperanza de una variable aleatoria discreta X (E(X)) , se define como el 
número obtenido por la expresión: E(X)=x1.p1+ x2.p2+ ............ + xn.pn donde 
x1, x2,………., xn son los valores de la variable aleatoria X y p1, p2, ........... , pn son 
las respectivas probabilidades. 
 
La media, esperanza o valor esperado de una variable aleatoria, es un valor típico 
que sirve para representar una distribución de probabilidad. Esta media es un 
promedio ponderado en el que los valores posibles se ponderan mediante sus 
correspondientes probabilidades de ocurrencia. El conocimiento de la media de la 
distribución no es suficiente para caracterizar la distribución, ya que hay 
distribuciones con la misma media y distintas unas de otras. 
 Varianza de una variable aleatoria discreta X (V(X)) : este estadístico se define 
como 𝑉(𝑋) = (𝑥1 − 𝐸(𝑋))2. 𝑝1+= (𝑥2 − 𝐸(𝑋))2. 𝑝2 + ⋯ += (𝑥n − 𝐸(𝑋))2. 𝑝n) 
Este estadístico sirve para medir la dispersión de los valores de una variable 
aleatoria X respecto de su media. Puesto que la varianza no podría medirse en las 
mismas unidades que la variable, utilizamos la raíz cuadrada de la varianza y a este 
número lo llamamos Desviación Estándar. 
Ejemplo: Calcular la media y la varianza del número de hijas en una familia de dos hijos. 
Espacio muestral : E={MM,VV,VM,MV} 
X={0,1,2,}=”número de hijas en una familia con dos hijos” 
P(X=0)=1/4 , P(X=1)=1/2 , P(X=2)= ¼ 
E(X)=0.1/4+1.1/2+2.1/4=1 
V(X)=(0-1)2.1/4+(1-1)2.1/2+(2-1)2.1/4=1/2 
3.-Distribuciones Discretas 
 
 Distribución Bernoulli: 
 
Consiste en realizar un experimento aleatorio una sola vez y observar si un suceso ocurre o 
no, siendo p la probabilidad de que ocurra (éxito) y q=1-p la probabilidad de que no ocurra 
4 
 
 
(fracaso). Este experimento puede ser descrito mediante una variable aleatoria discreta X 
que toma valores X=0 si el suceso no ocurre y X=1 caso contrario. Se denota X~Ber (p). 
Para una variable aleatoria de Bernoulli, su función de probabilidad es: 
 
Y su función de distribución es : 
 
0 𝑠𝑖 𝑥 < 0 
𝐹(𝑥) = { 1 − 𝑝 𝑠𝑖 𝑜 ≤ 𝑥 < 1 
1 𝑠𝑖 𝑥 ≥ 1 
 
La esperanza y varianza son, respectivamente: E(x)=p y V(x)=p.q pues: 
E(x)=0.q + 1.p=p y V(x)=q(0-p)2+p(1-p)2=q.p2+p.q2=q.p(p+q)=q.p.1=p.q 
Ejemplo: Si el experimento consiste en lanzar una moneda (no cargada al aire y si 
consideramos la variable aleatoria X= números de caras obtenidas, entonces X= 0 con 
probabilidad q=1/2 y X=1 con probabilidad p=1/2. 
 
 
 Distribución Binomial : 
 
Una variable aleatoria sigue una distribución binomial de parámetros n y p , X~B(n,p) , si 
es la suma de n variables aleatorias independientes de Bernoulli con el mismo parámetro p : 
X~B(n,p) ⇔ 𝑋 = 𝑋1 + 𝑋2 + ⋯ … . 𝑋n donde cada 𝑋i (i=1,……n) es una Bernoulli de 
parámetro p. Esto significa que si se realizan n pruebas o experimentos (independientes) 
de Bernoulli ,donde en cada una de ellas la probabilidad de éxito es la misma p , el número 
de éxitos obtenidos en las n pruebas es una variable aleatoria con distribución Binomial de 
parámetro n y p. Donde la función de probabilidad es: 
 
5 
 
𝑓(𝑘) 
 
= 𝑃 (𝑋 = 𝑘) 
𝑛 
= (𝑘) 𝑝 
𝑞n–k 
 
∀𝑘 = 0,1,2, … … . ,n
La función de distribución es: 
𝐹(𝑋) =
𝑜 𝑠𝑖 𝑥 < 𝑜
𝑛
𝑘
𝑝 𝑞 𝑠𝑖 0 ≤ 𝑥 ≤ 𝑛
1 𝑠𝑖 𝑥 > 𝑛
  
La Esperanza y Varianza son, respectivamente: E(X)=n.p y V(X)= n.p.q 
 
Ejemplo: En una fábrica, el 5% de los engranajes producidos resultan defectuosos. Si se 
realiza una selección al azar de 6 engranajes. ¿Cuál es la probabilidad de que resulten : 
a) ¿exactamente tres defectuosos?, 
b)¿menos de dos elementos defectuosos?. 
En primer lugar se puede verificar fácilmente que se cumplen las condiciones binomiales, 
donde la variable aleatoria es X=número de engranajes defectuosos. Para el caso de a) se 
tiene: 
 P(X=3)= 6
3
0,05 𝑞 y para el caso de b) se tiene P(X≤ 1) = 6
0
0,05 𝑞 +
 
6
1
0,05 𝑞 . 
 
 
Nota: Esta distribución es asimétrica a la derecha si p < q y a la izquierda si p > q (como se 
puede observar mediante el coeficiente de asimetría de Fisher). Mientras que conforme n 
crece ,la asimetría tiende a disminuir. 
En el gráfico siguiente: 
 
 ¿qué relación hay entre p y q?, 
 ¿qué tipo de asimetría presenta la distribución Binomial?. 
 
k
6 
 
 
En síntesis podemos decir que la Distribución de probabilidad binomial tiene las siguientes 
características: 
 El resultado de cada ensayo de un experimento se clasifica en una de dos categorías 
mutuamente excluyentes (éxito o fracaso) 
 La variable aleatoria cuenta el número de éxitos en una cantidad fija de ensayos. 
 La probabilidad de un éxito permanece igual en todos los ensayos. Lo mismo 
sucede con la probabilidad de un fracaso. 
 Los ensayos son independientes,lo cual significa, que el resultado de un ensayo no 
afecta el resultado de algún otro. 
 
 
 Distribución de Poisson: 
 
Una variable aleatoria X posee una distribución de Poisson cuando su función de 
probabilidad es : 
 
 
 𝑓(𝑘) = 𝑃(𝑋 = 𝑘) =
.
!
 con k=0,1,2,3………………… 
Este tipo de leyes se aplican a sucesos con probabilidad muy baja de ocurrir, de ahí el 
nombre de Ley de los sucesos raros. Por otra parte, describe la cantidad de veces que 
ocurre un evento en un determinado intervalo de tiempo o espacio. La distribución se basa 
en dos supuestos. 
 La probabilidad es proporcional a la extensión del intervalo (a mayor magnitud del 
intervalo mayor probabilidad). 
 Los intervalos son independientes (el número de ocurrencias en un intervalo no 
afecta a los otros intervalos). 
 
Ejemplo: En cierto lugar de escasa población, en la central telefónica, se reciben un promedio 
de 12 llamadas por hora. Calcular: 
a) La probabilidad de que en una hora seleccionada al azar se produzcan 3 llamadas. 
 
b) ) La probabilidad de que en un período de 10 minutos se produzcan entre 3 y 5 
llamadas. 
Solución: Aquí X= número de llamadas recibidas en una hora, donde X~Po(λ=12). 
 P(X=3)= e
—12.123
=0,0018 
3! 
 Aquí 𝑋' = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑙𝑙𝑎𝑚𝑎𝑑𝑎𝑠 𝑟𝑒𝑐𝑖𝑏𝑖𝑑𝑎𝑠 𝑒𝑛 10 𝑚𝑖𝑛𝑢𝑡𝑜𝑠 , tiene un promedio 
que es 6 veces menor ( 1 hora =6 x 10 minutos, 
entonces: 𝜆 = = 2 
 P((3 ≤ 𝑋 ≤ 5)=P(X=3)+P(X=4)+P(X=5)=0,3067. 
 
 
7 
 
En general, usaremos esta distribución como aproximación de experimentos Binomiales donde 
el número de pruebas es muy alto, pero la probabilidad de éxito es muy baja , p pequeño y n 
alto se puede aproximar B(n,p)= Po(λ=n.p).Como criterio de aproximación , se suele utilizar 
:n> 30 y p ≤ 0,1. También una regla general aceptable es emplear la aproximación: si n≥20 y 
p≤0.05 y sí n≥100, la aproximación es generalmente excelente siempre y cuando np≤10. 
La Esperanza y Varianza son, respectivamente: E(X)=V(X)=λ. 
 
Observación: La distribución de Poisson siempre tiene sesgo positivo, es asimétrica a la 
derecha ( no toma valores negativos) y los valores de su variable aleatoria no tienen límite 
superior específico).Este comportamiento se puede observar en el siguiente gráfico, para 
distintos valores del parámetro λ. 
 
 
 
 
4.-Distribuciones Continuas 
 
 Distribución Normal o Gaussiana 
Una variable aleatoria X sigue una distribución Normal de parámetros µ y σ , lo que 
representamos del modo X~N(µ,σ) , si su función de densidad es : 
 
𝑓(𝑥)
.√
𝑒
µ
 
 
∀𝑥 ∈ R 
 
 
La función de distribución tiene la siguiente expresión: 𝐹(𝑥) = ∫
.√
𝑒
µ
 𝑑𝑦 
Los parámetros µ y σ coinciden con la media (esperanza) y la desviación estándar 
respectivamente de la distribución .Esto es: E(x)= µ y √𝑉(𝑥)= σ 
La forma de la función de densidad es la llamada Campana de Gauss .Esta alcanza un 
único máximo en µ , que e simétrica con respecto al mismo. Respecto de esta curva 
podemos decir lo siguiente en cuanto a sus características:
 
 
 
Por lo tanto, P(X≤ µ )= P(X
la moda. Los puntos de inflexión
puntos de inflexión y la media
ramas de la curva se extienden
“muy alejado “ de la media es
Por otra parte, cuanto menor 
concentrada alrededor de la media
observa en la siguiente gráfica)
 
 
 
Para cualquier distribución Normal
 
 El 68% de las observaciones
 El 95% de las observaciones
 
 El 99% de las observaciones caen en (µ 
P(X≥ µ)=1/2 , con lo cual en µ coinciden la media,
inflexión coinciden con µ - σ y µ +σ . La distancia
media nos dice cuál es la dispersión de la distribución
extienden asintóticamente a los ejes, de modo que cualquier
es teóricamente posible (aunque poco probable).
 sea σ , mayor será la cantidad de masa de probabilidad
media y , cuanto mayor, más aplastada será la 
siguiente gráfica) 
Normal con parámetros µ y σ se tiene que : 
observaciones caen en (µ - σ, µ + σ). 
observaciones caen en (µ - 2σ, µ +2 σ) 
El 99% de las observaciones caen en (µ -3 σ, µ +3 σ). 
8 
 
media, la mediana y 
distancia entre los 
distribución Normal. Las 
cualquier valor 
probable). 
probabilidad 
 curva( como se 
9 
 
 
 
 
La distribución Normal Estandarizada: 
 
Cuando µ=0 y σ=1 tenemos la distribución Normal Estandarizada. En general, si tenemos 
una variable aleatoria X~N(µ,σ), la probabilidad de cualquier valor , se realiza 
estandarizando: X~N(µ,σ) → 𝑍 = 
x–μ 
~𝑁(0,1) 
σ 
 
Ejemplo: En una fábrica , de cierto tipo de vigas, se sabe que el peso de las mismas se 
distribuye normalmente, con peso medio 200 kg y desviación estándar de 5 kg. 
a) Calcular la probabilidad de que las vigas pesen menos de 210 kg. 
b) Calcular la probabilidad de que las vigas pesen entre 195 y 210 kg. 
 
Solución: Aquí X: peso de las vigas es X~𝑁(200,5). Para calcular las probabilidades se 
debe estandarizar. Entonces : 
a)P(X≤ 219) = 𝑃 (
X–200 
≤ 
210–200
) = 0,9772 
5 5 
 
b) P(195≤X≤ 210) = 𝑃(
195–200
 
 
≤ 
X–200 
≤ 
210–200
) = 0,8185
 
5 5 5 
 
 
 
Nota: 
 
Se puede demostrar , mediante el Teorema Central del Límite, que una variable aleatoria 
discreta con distribución Binomial, se puede aproximar mediante una distribución Normal 
si n es suficientemente grande y p no está próximo a cero ni a 1.Como criterio de 
𝑛 > 30 
aproximación, se suele utilizar: X~B(n,p) donde {𝑛. 𝑝 > 4 
𝑛. 𝑞 > 4 
→ X~N(µ=n.p , 
 
 
σ=√𝑛. 𝑝. 𝑝)
10 
 
1
 
 Distribución Chi Cuadrado (𝝌𝟐) 
 
Consideremos una variable aleatoria Z~N(0, 1) . La variable 𝑍2 posee una distribución 
𝝌𝟐 con un grado de libertad : 𝑍2 ~ 𝜒2 . 
 
Si tenemos n variables aleatorias independientes 𝑍 ~𝑁(0,1) entonces ∑ 𝑍 ~𝜒 La 
esperanza y varianza son ,respectivamente : E(X)=n y V(X)=2n. 
 
Al seleccionar una muestra de n elementos x1,x2,………., xn decimos que tenemos n 
grados de libertad de elección . Si cuando se elige esa muestra , imponemos la restricción 
de que cierto estadístico tenga un valor fijo (por ejemplo �̅�), al seleccionar n-1 valores, el 
último estará determinado. Por ello, decimos que hay n-1 grados de libertad en el proceso 
de selección .En general, habrá n-k grados de libertad, si se desea que los valores 
muestrales satisfagan k relaciones lineales independientes. 
 
 
 Distribución de Student 
 
Esta distribución se construye como un cociente entre una Normal y la raíz cuadrada de 
una 𝝌𝟐 dividida sus grados de libertad. La llamamos t de Student con n grados de libertad y 
la expresamos como 𝑡n a la distribución de una variable aleatoria T, cuya expresión es : 
 
 𝑇 =
.
~𝑡 
 
 
La distribución t de Student tiene propiedades similares a las de la N(0,1): 
 
 Tiene media cero y es simétrica con respecto a la misma. 
 Es algo más dispersa que la Normal, pero la varianza decrece hasta 1 cuando el 
número de grados de libertad aumenta (𝜎2 = 
n
 
n–2 
para n>2). 
 Para un número alto de grados de libertad se puede aproximar a una distribución 
N(0,1).

Continuar navegando

Materiales relacionados

31 pag.
Estadística (Probabilidad)

User badge image

BPstudios Oficial

12 pag.
Modelos de Probabilidad Discretos

Escola Maria Pastora Bispo

User badge image

Daniel Sebastian Rodriguez Reyes

20 pag.
Resúmen Probabilidad - Parcial 2

SIN SIGLA

User badge image

haydee_sisu_1