Logo Studenta

FINAL - PREGUNTAS TEORICAS

¡Estudia con miles de materiales!

Vista previa del material en texto

UNIDAD 8 - REGRESIÓN LINEAL
1. ¿Cuándo se considera que la regresión es significativa? ¿Cómo se calcula alfa?
H0: B = 0 H1: B 0 Cuando B 0 se considera que la regresión es significativa porque Y va a variar en función de≠ ≠
X.
α = 𝑌.. − β . 𝑥
2. Mencione los tres test para evaluar la regresión.
a. IC para : Si el IC incluye al 0, no hay evidencia para rechazar H0 y no considero que la regresión seaβ
significativa
b. Test de significación de la regresión
𝑇 = β
𝐶𝑀𝑟𝑒𝑠
𝑆𝑥𝑥
∼ 𝑡
𝑛−2;α/2
c. ANOVA
𝐹 = 𝐶𝑀𝑟𝑒𝑔𝐶𝑀𝑟𝑒𝑠 ∼ 𝐹1;𝑛−2;α
3. ¿Qué significa que beta sea igual a 0 y cuánto valdría alfa en ese caso?
Si beta es igual a 0 se considera que la regresión no es significativa ya que Y no variará en función de X. Alfa es la ordenada el
origen, es decir el valor de Y cuando x=0.
α = 𝑌..
4. ¿Qué es el modelo de cuadrados mínimos, que distribución sigue Eij y cómo influyen los Eij en la recta?
El método de mínimos cuadrados estima la recta que hace mínima la suma de los cuadrados de las distancias verticales de
cada punto observado a la recta. O sea, minimiza la diferencia entre el valor observado de Y y el que correspondería sobre la
recta para el correspondiente valor de X.
Los Eij son los errores asociados al ajuste de una recta a la variación de Y en función de X y están distribuidos normalmente. Los
errores o desvío de cada dato de la recta se anulan porque algunos son negativos y otros positivos.
𝐸𝑗𝑖 ∼ 𝑁(0; σ)
𝑌𝑖𝑗 = α + β . 𝑥 + 𝐸𝑖𝑗
5. ¿Qué es ?𝑌..
𝑌.. = 1𝑛 . 
𝑖𝑗
∑ 𝑌𝑖𝑗 = 𝑚𝑒𝑑𝑖𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑙 𝑔𝑒𝑛𝑒𝑟𝑎𝑙
6. El intervalo para es más preciso (menor longitud) que el intervalo para Ykµ𝑘 
UNIDAD 7 - ANOVA
1. Resumir el modelo de ANOVA (hable de la definición, supuestos, cómo se probaba la homvar...) y cuál era el
estimador de la var en ése modelo y qué característica tenía (el CMD, que es un estimador insesgado)
2. Definir CMDENTRO y demostrar por qué es el estimador insesgado de la varianza poblacional.
𝐸 𝐶𝑀
𝐷𝐸𝑁𝑇𝑅𝑂( ) = 𝐸 𝑖
∑ 𝑛
𝑖
 − 1( ) . 𝑆𝑖2
𝑖
∑ 𝑛
𝑖
 − 1( )
⎛
⎝
⎞
⎠
= 1
𝑖
∑ 𝑛
𝑖
 − 1( )
 . 𝐸
𝑖
∑ 𝑛
𝑖
− 1( ) . 𝑆𝑖2( ) = 1
𝑖
∑ 𝑛
𝑖
 − 1( )
 . 
𝑖
∑ 𝐸 𝑛
𝑖
− 1( ) . 𝑆𝑖2( )( ) =
= 1
𝑖
∑ 𝑛
𝑖
 − 1( )
 . 
𝑖
∑ 𝑛
𝑖
− 1( ) . 𝐸 𝑆𝑖2( )( ) = 1
𝑖
∑ 𝑛
𝑖
 − 1( )
 . 
𝑖
∑ 𝑛
𝑖
− 1( ) . σ2( ) = σ2 . 𝑖∑ 𝑛𝑖 − 1( )
𝑖
∑ 𝑛
𝑖
 − 1( )
= σ2
3. ¿Qué es un estimador insesgado?
El estimador insesgado de x, será aquel cuya esperanza sea x.
4. ¿Por qué elegirías Dunnett? ¿Permite hacer un test de una cola o solo de dos colas?
En Dunnett comparas tratamiento con control. Es el único test de comparaciones múltiples que puede plantear una hipótesis
alternativa de una sola cola.
5. ¿De donde salen los grados de libertad de la Fischer?
SCdentro y SCentre refieren a la variación de los datos con respecto a la media dentro de un mismo grupo y entre diferentes
grupos respectivamente. Entonces, los grados de libertad de SCdentro serán n-I y los grados de libertad de SCentre I-1
6. En el test de Shapiro Wilks, ¿qué p-valor utilizas?
En el test de Shapiro Wilks para evaluar Normalidad de las variables, si los p-valor > 0,1 no podemos rechazar H0 y por lo tanto
podemos asumir que las variables siguen una distribución normal.
7. Distribución del estadístico de prueba:
UNIDAD 6 - TEST DE HIPÓTESIS
1. ¿Qué alfa usaba en test de homogeneidad de varianzas para test de Student de muestras independientes y por qué?
Alfa alto para disminuir beta, ya que se quiere aceptar H0.
2. Test de fisher.
Se utiliza para analizar la homogeneidad de varianzas.
y𝑋
1
∼ 𝑁(µ
1
; σ
1
) 𝑋
2
∼ 𝑁(µ
2
; σ
2
)
𝐻
0
: σ
1
2 = σ
2
2 𝐻
1
: σ
1
2 ≠ σ
2
2
Zona de rechazo
- 𝐻
0
: σ
1
2 ≤ σ
2
2 𝐻
1
: σ
1
2 > σ
2
2 𝐹 ≥ 𝐹
𝑛𝑀−1;𝑛𝑚−1;α
- 𝐻
0
: σ
1
2 = σ
2
2 𝐻
1
: σ
1
2 ≠ σ
2
2 𝐹 ≥ 𝐹
𝑛𝑀−1;𝑛𝑚−1;α/2
3. Supuestos del t de student
a. Si es para la media: con desconocida𝑋 ∼ 𝑁(µ; σ) σ
b. Si es para muestras independientes:
X1 y X2 independientes y𝑋1 ∼ 𝑁(µ1; σ1) 𝑋2 ∼ 𝑁(µ2; σ2) σ1 = σ2
c. Si es para muestras pareadas
𝑋
1
∼ 𝑁(µ
1
; σ
1
) 𝑋
2
∼ 𝑁(µ
2
; σ
2
) 𝑋
1
− 𝑋
2
= 𝐷 𝐷 ∼ 𝑁(µ
𝐷
; σ
𝐷
)
4. ¿Qué es Sp2, por qué podes calcularlo?
se estima con un promedio pesado de S1 y S2 que se llama Sp que se corrige por el tamaño de muestra. A mayor tamaño deσ
muestra, mayor Sp.
5. ¿Que elegiría si posee muestras independientes o pareadas y por qué?
- Muestras independientes
- Si tenes conocido → Test de Gauss para muestras independientesσ
- Si tenes desconocido e iguales → Test de student para muestras independientesσ
- Muestras pareadas → Test de student para muestras pareadas
6. ¿Que pasaba si me agregaban una muestra aleatoria?
Las hipótesis se plantean de a pares y con un error de tipo alfa asociado. Si tengo más muestras, tengo que plantear más
hipótesis por lo que aumentaría el error asociado.
7. Muestras apareadas, ¿Como calculo y qué distribución sigue?𝐷
𝐷 = 𝑋
1
− 𝑋
2
𝐷 ∼ 𝑁 µ
𝐷
; σ
𝐷( )
8. Al no rechazar H0 ¿qué tipo de error estoy cometiendo?
Si no rechazo H0 y la misma es falsa, estoy cometiendo un error de tipo II. La probabilidad de cometerlo se llama .β
9. ¿Cuál es el error que nosotros podemos controlar?
es la probabilidad de cometer el error de tipo I, es decir, rechazar H0 y que esta sea verdadera. Se fija previamente a laα
recolección de datos por el instrumentador.
10. Propiedad 6.5 - Demostración
UNIDAD 5 - INTERVALOS DE CONFIANZA
- Diferencia entre parámetro poblacional y estadístico.
son estadísticos porque son funciones de la muestra. Son conocidos y variables.𝑋 𝑦 𝑆 
son parámetros poblacionales. Pueden ser conocidos o desconocidos y fijos.µ 𝑦 σ
1. ¿Cómo se calcula el intervalo de confianza de la varianza, qué distribución se usa y por qué?
𝑃 𝑛−1( ) . 𝑆
2
χ
𝑛−1; α/2
2 < σ
2 < 𝑛−1( ) . 𝑆
2
χ
𝑛−1; 1 − α/2
2( ) = 1 − α
Suposiciones: con desconocido.𝑋 ∼ 𝑁(µ; σ) σ
S2 es un estimador insesgado de . S2 no sigue una distribución conocida pero participa en la distribución de .σ2 χ
𝑛−1
2
Si , S2 es la varianza de muestras de tamaño n, por lo que𝑋 ∼ 𝑁(µ; σ) (𝑛 − 1) . 𝑆
2
σ2
∼ χ
𝑛−1
2
2. ¿Cómo varía el IC con el tamaño de n?
Si se aumenta el tamaño de la muestra, disminuye la longitud del intervalo.
3. Distribuciones para el intervalo de y : Conµ σ 𝑋 ∼ 𝑁(µ; σ)
- IC para con conocido:µ σ 𝑃 𝑋 − 𝑍
α/2
 . σ
𝑛
< µ < 𝑋 + 𝑍
α/2
 . σ
𝑛( ) = 1 − α
- IC para con desconocido:µ σ 𝑃 𝑋 − 𝑇
𝑛−1;α/2
 . 𝑆
𝑛
< µ < 𝑋 + 𝑇
𝑛−1;α/2
 . 𝑆
𝑛( ) = 1 − α
- IC para con desconocido:σ2 σ2 𝑃 𝑛−1( ) . 𝑆
2
χ
𝑛−1; α/2
2 < σ
2 < 𝑛−1( ) . 𝑆
2
χ
𝑛−1; 1 − α/2
2( ) = 1 − α
4. ¿Cuál es el valor medio de un intervalo?
Para estimar el valor medio puedo hacer un promedio entre los límites superior e inferior.
5. Siempre se desea hallar intervalos de alta confianza y corta longitud.
6. Propiedad 5.1 - Demostración
7. Propiedad 5.2 y 5.3 - Demostración
8. Propiedad 5.4 - Demostración
9. Propiedad 5.6 - Demostración
10. Propiedad 5.8
11. Propiedad 5.9 - Demostración
12. Propiedad 5.10 - Demostración
13. Propiedad 5.11 - Demostración
UNIDAD 4 - ESTIMACIÓN PUNTUAL
1. Fórmula de cálculo de la varianza muestral
UNIDAD 3 - DISTRIBUCIONES DE PROBABILIDAD
1. Poisson y binomial.
Binomial: Llamamos variable aleatoria binomial de parámetros m y p al número de éxitos obtenidos en m repeticiones
independientes del experimento de Bernoulli. Rx= {X1,X2.., Xm}
𝑋 ∼ 𝐵𝑖(𝑚; 𝑝)
𝐸(𝑋
𝐵𝑖
) = 𝐸
𝑖=1
𝑚
∑ 𝑥
𝑖( ) = 𝑖=1
𝑚
∑ 𝐸(𝑥
𝑖
) = 𝑚. 𝑝
𝑉𝑎𝑟(𝑋
𝐵𝑖
) = 𝑉𝑎𝑟
𝑖=1
𝑚
∑ 𝑥
𝑖( ) = 𝑖=1
𝑚
∑ 𝑉𝑎𝑟(𝑥
𝑖
) = 𝑚 . 𝑝 . (1 − 𝑝) = 𝑚. 𝑝. 𝑞
- La probabilidad de éxito p permanece constante y las repeticiones del experimento m son independientes.
- Función de probabilidad: 𝑃 𝑋 = 𝑘( ) = 𝑝(𝑘) = 𝑏𝑖(𝑘; 𝑚; 𝑝)
- → Si buscamos un estimador de p, pues m es un parámetro conocido. Sabemos que𝑝 = 𝑥/𝑚 𝑋 ∼ 𝐵𝑖(𝑚; 𝑝)
, entonces, como → y despejas.𝐸(𝑋
𝐵𝑖
) = 𝑚. 𝑝 𝐸(𝑋)= 𝑋 𝑚. 𝑝 = 𝑥
Poisson: Se dice que X es una variable aleatoria de Poisson con parámetro , dónde es un número real positivo, si puedeλ λ
tomar cualquier valor entero no negativo, es decir, Rx: {0,1,2…}.
𝑋 ∼ 𝑃(λ)
𝐸(𝑋) = λ 𝑉𝑎𝑟(𝑋) = λ
- Modelo espacial:
X = número de elementos presentes en un volumen v de solución.
𝑋 ∼ 𝑃(λ) λ = δ. 𝑣 δ = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠𝑢𝑛𝑖𝑑𝑎𝑑 𝑑𝑒 𝑣𝑜𝑙𝑢𝑚𝑒𝑛
- Modelo temporal:
X = número de veces que ocurre un suceso en un intervalo de tiempo t.
𝑋 ∼ 𝑃(λ) λ = 𝑐. 𝑡 𝑐 = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑣𝑒𝑐𝑒𝑠 𝑞𝑢𝑒 𝑜𝑐𝑢𝑟𝑟𝑒 𝑒𝑙 𝑠𝑢𝑐𝑒𝑠𝑜𝑢𝑛𝑖𝑑𝑎𝑑 𝑑𝑒 𝑡𝑖𝑒𝑚𝑝𝑜
- Propiedad 3.5: Si y son variables aleatorias independientes,𝑋
1
∼ 𝑃(λ
1
) 𝑋
2
∼ 𝑃(λ
2
) 𝑋
1
+ 𝑋
2
∼ 𝑃(λ
1
+ λ
2
)
- Si buscamos un estimador de y sabemos que , entonces𝑋 ∼ 𝑃(λ) λ 𝐸(𝑋) = λ λ = 𝑥
- Condiciones del Modelo de Poisson:
- Si se consideran dos intervalos disjuntos, el número de ocurrencias en uno de ellos es independiente del
número de ocurrencias en el otro
- Las probabilidades de un determinado número de ocurrencias en dos intervalos que miden lo mismo son
iguales.
- Si el intervalo es pequeño:
- La probabilidad de una sola ocurrencia es proporcional a lo que mide el intervalo
- La probabilidad de más de una ocurrencia es despreciable comparada con la probabilidad de una sola.
- Teóricamente debe ser posible que haya un número tan grande como se quiera de ocurrencias en el intervalo
considerado.
2. ¿Qué diferencia hay entre una Gauss de una X y una ?𝑋
Si ,𝑋 ∼ 𝑁 µ; σ( ) 𝑋 ∼ 𝑁 µ; σ
𝑛( )
Demostración en propiedades 5.1 y 5.2
Normal: Una variable X es una variable aleatoria continua Normal con parámetros y si su recorrido es el conjuntoµ ϵ ℜ σ > 0
de los números reales.
𝑋 ∼ 𝑁(µ; σ)
Si 𝑋 ∼ 𝑁(µ; σ) 𝐸(𝑋) = µ 𝑉𝑎𝑟(𝑋) = σ2
- La función f es una función de densidad porque f(x) x y además se puede probar que:≥ 0 ∀ ϵ ℜ
→ Tiene forma de campana, es simétrica respecto de la recta x = y el máximo se alcanza en x = .
−∞
∞
∫ 𝑓(𝑥) 𝑑𝑥 = 1 µ µ
- Variable Normal estandarizada: Si , la variable estandarizada correspondiente será Z.𝑋 ∼ 𝑁(µ; σ)
𝑍 = 𝑋−µσ ∼ 𝑁 (0; 1) 𝐹(𝑥) = 𝑃(𝑍 ≤ 𝑥)
𝑋 ∼ 𝑁(µ; σ) 𝑍 = 𝑋−µσ ∼ 𝑁 (0; 1)
𝐸(𝑍) = 𝐸( 𝑋−µσ ) =
1
σ . 𝐸 (𝑋 − µ) =
1
σ . [𝐸 (𝑋) − 𝐸(µ)] =
1
σ . [µ − µ] = 0
𝑉𝑎𝑟(𝑍) = 𝑉𝑎𝑟( 𝑋−µσ ) =
1
σ2
 . 𝑉𝑎𝑟 (𝑋 − µ) = 1
σ2
 . 𝑉𝑎𝑟 (𝑋) = 1
σ2
 . σ2 = 1
- El número que deja un área a su derecha se indica .α 𝑍
α
𝑃(𝑍 > 𝑍
α
) = α
3. Definición de variable aleatoria de bernoulli.
- Experimento de Bernoulli: Es aquel cuyo espacio de resultados está formado por dos elementos mutuamente
excluyentes: S = {E:Éxito; F:Fracaso}
p = P(E) q = P(F) = 1 - p
RX = {0;1}
- Variable aleatoria de Bernoulli: Llamamos variable aleatoria de Bernoulli con parámetro p a la variable X que vale 1 si
se obtiene éxito al efectuar un experimento de Bernoulli, y vale 0 si no se obtiene éxito.
𝐸(𝑋) =
𝑥
𝑖
ϵ𝑅
𝑋
∑ 𝑥
𝑖
 . 𝑝(𝑥
𝑖
) = 0 . (1 − 𝑝) + 1 . 𝑝 = 𝑝
𝑉𝑎𝑟(𝑋) = 𝐸(𝑋2) − [𝐸(𝑋)]2 = [σ2 . (1 − 𝑝) + 12 . 𝑝] − 𝑝2 = 𝑝 − 𝑝2 = 𝑝 . (1 − 𝑝) = 𝑝. 𝑞
UNIDAD 2- VARIABLES ALEATORIAS
1. Variable aleatoria discreta.
Variable aleatoria: Es una función que a cada suceso se le asigna un número real.
tal que si entonces X(s)𝑋: 𝑆 → ℜ 𝑠 ϵ 𝑆 ϵ ℜ
- Variable aleatoria discreta: Es aquella cuyo recorrido es un conjunto finito o infinito numerable de números reales
- Función de Probabilidad: Si X es una variable aleatoria discreta llamaremos función de probabilidad a la
función p: Rx → que a cada valor de X se le asigna su correspondiente probabilidad.ℜ
𝑝(𝑥
𝑖
) ≥ 0 ∀ 𝑥
𝑖
 ϵ 𝑅
𝑋
𝑥
𝑖
 ϵ 𝑅
𝑋
∑ 𝑝(𝑥
𝑖
) = 1 𝐸(𝑋) =
𝑥
𝑖
 ϵ 𝑅
𝑋
∑ 𝑥
𝑖
 . 𝑝(𝑥
𝑖
)
2. Variable aleatoria continua: Toma valores a lo largo de un continuo, esto es, en todo un intervalo de valores. Es aquella
cuyo recorrido es el conjunto de números reales o un intervalo de números reales.
- Función de densidad: Si X es una variable aleatoria continua llamaremos función de densidad de X a la función
f: → que tiene las siguientes propiedades:ℜ ℜ
𝑓(𝑥) ≥ 0
−∞
+∞
∫ 𝑓(𝑥) 𝑑𝑥 = 1
Si a y b son números reales, a < b 𝑃 (𝑎 ≤ 𝑥 ≤ 𝑏) = 
𝑎
𝑏
∫ 𝑓(𝑥) 𝑑𝑥
𝐸(𝑋) =
−∞
+∞
∫ 𝑥 . 𝑓(𝑥) . 𝑑𝑥
3. Comparación de la función de distribución entre variables aleatorias discretas y continuas
- Si X es una variable aleatoria discreta llamaremos función de distribución de X a la función FX: definida porℜ → ℜ
siendo t un número real desde el - al + .𝐹
𝑋
(𝑡) = 𝑃(𝑥 ≤ 𝑡) ∞ ∞
𝐹
𝑋
(𝑡) = 𝑃(𝑥 ≤ 𝑡) =
𝑥
𝑖
≤𝑡
∑ 𝑝(𝑥
𝑖
)
- Si X es una variable aleatoria continua llamaremos función de distribución de X a la función FX: definida porℜ → ℜ
siendo t un número real desde el - al + .𝐹
𝑋
(𝑡) = 𝑃(𝑥 ≤ 𝑡) ∞ ∞
𝐹
𝑋
(𝑡) =
−∞
𝑡
∫ 𝑓(𝑥). 𝑑𝑥 ∀ 𝑡 ϵ ℜ
Propiedades de la función de distribución: Si X es una variable aleatoria discreta o continua,
- La función de distribución es una función no decreciente.
- El gráfico de la función de distribución es una función escalonada con saltos donde pertenece al recorrido de X. Es𝑥
𝑖
constante entre dos puntos de X. La magnitud del salto es p( ).𝑥
𝑖
- 0 ≤ 𝐹
𝑋
(𝑡) ≤ 1 ∀ 𝑡 ϵ ℜ
- 𝑃(𝑎 < 𝑋 ≤ 𝑏) = 𝐹
𝑋
(𝑏) − 𝐹
𝑋
(𝑎)
4. Diferencias en el gráfico de función de distribución continua y discreta
- Variable aleatoria discreta: Gráfico con función escalonada
- Variable aleatoria continua: Gráfico con función continua
5. Propiedades de la esperanza: La esperanza es un parámetro llamado también media o valor esperado ( )µ
- 𝐸(𝑐) = 𝑐
- 𝐸(𝑋 + 𝑌) = 𝐸(𝑋) + 𝐸(𝑌)
- 𝐸(𝑐 . 𝑋) = 𝑐 . 𝐸(𝑋)
- Si X e Y son variables aleatorias independientes: 𝐸(𝑋 . 𝑌) = 𝐸(𝑋) . 𝐸(𝑌)
- Si X1; X2; …; Xn son variables aleatorias: 𝐸
𝑖=1
𝑛
∑ 𝑥
𝑖( ) = 𝑖=1
𝑛
∑ 𝐸(𝑥
𝑖
)
6. Propiedades de la varianza: La varianza es un parámetro que mide la dispersion de los valores de X alrededor del valor
medio.
- 𝑉𝑎𝑟 (𝑐) = 0
- 𝐸 𝑐2( ) − [𝐸(𝑐)]2 = 𝑐2 − 𝑐2 = 0
- 𝑉𝑎𝑟 (𝑋 + 𝑐) = 𝑉𝑎𝑟(𝑋)
- 𝐸(𝑋 + 𝑐)2 − [𝐸(𝑋 + 𝑐)]2 = 𝐸(𝑋 + 𝑐)2 − [𝐸(𝑋) + 𝑐]2 =
= 𝐸 𝑋2 + 2 . 𝑋 . 𝑐 + 𝑐2( ) − 𝐸(𝑋)[ ]2 + 2 . 𝑐 . 𝐸(𝑋) + 𝑐2( ) =
= 𝐸(𝑋2) + 2 . 𝑐 . 𝐸(𝑋) + 𝐸(𝑐2) − 𝐸(𝑋)[ ]2 − 2 . 𝑐 . 𝐸(𝑋) − 𝑐2 = 𝐸(𝑋2) − [𝐸(𝑋)]2 = 𝑉𝑎𝑟(𝑋)
- 𝑉𝑎𝑟 (𝑐 . 𝑋) = 𝑐2 . 𝑉𝑎𝑟 (𝑋)
- 𝐸(𝑐𝑥)2 − [𝐸 (𝑐𝑥)]2 = 𝐸 (𝑐2. 𝑥2 ) − [𝑐. 𝐸(𝑥)]2 = 𝑐 2. 𝐸(𝑥2) − 𝑐 2. [𝐸(𝑥)]2 = 𝑐2. [𝐸(𝑥2) − [𝐸(𝑥)]2] =
- = 𝑐2. 𝑉𝑎𝑟 (𝑥)
- Si X e Y son variables aleatorias independientes: 𝑉𝑎𝑟 (𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌)
- Si X1; X2; …; Xn son variables aleatorias: 𝑉𝑎𝑟
𝑖=1
𝑛
∑ 𝑥
𝑖( ) = 𝑖=1
𝑛
∑ 𝑉𝑎𝑟 (𝑥
𝑖
)
7. Propiedad 2.2
𝑦 = 𝑎𝑥 + 𝑏 
𝐸(𝑦) = 𝐸(𝑎𝑥 + 𝑏) = 𝐸(𝑎𝑥) + 𝐸(𝑏) = 𝑎. 𝐸(𝑥) + 𝑏 = 𝑎. µ + 𝑏
𝑉𝑎𝑟 (𝑦) = 𝑉𝑎𝑟(𝑎𝑥 + 𝑏) = 𝑉𝑎𝑟(𝑎𝑥) = 𝑎2. 𝑉𝑎𝑟(𝑥) = 𝑎2. σ2
8. Propiedad 2.3 - Demostración: Si X es una variable aleatoria, ; e con a, b𝐸(𝑋) = µ 𝑉𝑎𝑟(𝑋) = σ2 𝑌 = 𝑎 . 𝑋 + 𝑏
números reales y 𝑎 ≠ 0
→𝐸(𝑌) = 𝑎 . µ + 𝑏 𝐸(𝑌) = (𝑎 . 𝑋 + 𝑏) = 𝑎 . 𝐸(𝑥) + 𝑏 = 𝑎 . µ + 𝑏
𝑉𝑎𝑟(𝑌) = 𝑉𝑎𝑟(𝑌) = (𝑎 . 𝑋 + 𝑏) = 𝑉𝑎𝑟(𝑎. 𝑋) = 𝑎2 . 𝑉𝑎𝑟(𝑋)
UNIDAD 1 - FUNDAMENTO DEL CÁLCULO DE LAS PROBABILIDADES
1. Espacio de resultados (S): Conjunto formado por todos los posibles resultados de un experimento.
2. Suceso: Subconjunto del espacio de resultados.
X = {...}
3. Suceso elemental: Tiene un solo resultado posible
4. Suceso contenido en otro : Dados dos sucesos A y B, decimos que A está contenido en B si y solo si cada vez(𝐴 ⊂ 𝐵)
que ocurre A también ocurre B
5. Suceso imposible: Es un suceso que no se puede dar.
𝑃(⊘) = 0
Demostración:
𝑆 ∪⊘= 𝑆
𝑆 ∩⊘=⊘
Por axioma 𝑃(𝑆) = 1
𝑃(𝑆 ∪⊘) = 1 = 𝑃(𝑆) + 𝑃(⊘)
𝑃(⊘) = 1 − 𝑃(𝑆) = 1 − 1 = 0
6. Suceso complementario (A’): Suceso complementario de A es el que ocurre si y solo si no ocurre A.
A y A’ son mutuamente excluyentes → 𝑃(𝐴 ∪ 𝐴') = 𝑃(𝑆)
Por axioma 𝑃(𝑆) = 1= 𝑃(𝐴 ∪ 𝐴') = 𝑃(𝐴) + 𝑃(𝐴')
𝑃(𝐴') = 1 − 𝑃(𝐴)
7. Suceso unión : Dados dos sucesos A y B, es el que ocurre si y sólo si ocurre A o B(𝐴 ∪ 𝐵)
Si A y B no son mutuamente excluyentes, 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵)
8. Suceso intersección : Dado dos sucesos A y B, es el que ocurre si ocurren simultáneamente A y B.(𝐴 ∩ 𝐵)
𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) . 𝑃 𝐵𝐴( )
9. ¿Cómo saber si son independientes? 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) . 𝑃(𝐵)
10. Sucesos mutuamente excluyentes : Dos sucesos son excluyentes o mutuamente excluyentes si no tienen(𝐴 ∩ 𝐵 =⊘)
elementos comunes
11. Definición axiomática de la probabilidad: Sea S el espacio de resultados de un experimento. A cada suceso A se le
asigna una probabilidad P(A) que cumple con las siguientes probabilidades:
- 0 ≤ 𝑃(𝐴) ≤ 1
- 𝑃(𝑆) = 1
- Si A y B son mutuamente excluyentes, 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵)
12. Probabilidad Condicional: Si B es un suceso tal que la P(B)>0, llamamos probabilidad condicional del suceso A dado B:
𝑃 𝐴𝐵( ) = 𝑃(𝐴∩𝐵)𝑃(𝐵)

Continuar navegando