Logo Studenta

Resumen Métodos Estadísticos 2S2021 - Ariadna Deseusa Morales

¡Este material tiene más páginas!

Vista previa del material en texto

Resumen métodos estadísticos 
Resumen 5.3
Estadístico : • Cualquier función de una muestra aleatoria
Simple lej : promedio, moda, mediana>
• Como es una variable aleatoria tiene distribución
de probabilidad
Muestra aleatoria simple : • Xi son variables independientes
• cada Xi tiene la misma distribución
de probabilidad
Experimento de simulación : • Tiene un estadístico de interés
• Hay una distribución de la población
• Tiene tamaño de muestra
• Tiene número de repeticiones
→ se obtienen diferentes muestras aleatorias y la
distribución de muestreo entrega un aproximado
del estadístico buscado , a mayor cantidad de
repeticiones mayor exactitud tiene el experimento
lmayor concentración hacia a)
Resumen 5.4
Siendo ✗1 , . . . , Xn muestra aleatoria con valor medio U y desviación esto:
• Elt) = ME =U
- VIN = o} = 04m 05- o/rn
• To = Xnt
. . . 1- Xn entonces ECTOJ = nu , ✓ (To ) = no
'
Oro = VÑO
Teorema del limite central : > Mientras más grande n mejor es la aproximación
• Se puede usar con n>30
Resumen 5.5
Combinación lineal Y = A i. Xntlzxzt . . . . tan - Xn
Con Araz= . . . enn = 1 se tiene TO = ✗ 11-42t . . . + Xn y
MHz = . . . Inn = NI da que ☒ =L To
→ No se necesita que sean independientes o que estén
distribuidas idénticamente
ELAHt
. . . tan Xn) = dn.EU/1)t...tXn.Elxn)
= ✗ 1. Un t . . . - tan -Un
Si Xp . . . , Xn son independientes :
V Knut . . . tan Xn) = 9kV ( Xp) t . . . tan' -VLXN )
= Anzio? + . . . . tan?O?
Gouki
,
✗j-hovkj.li)
→Cuando vi. Son independientes : n ngVltnxrt . . - tan Xn ) -- £ oiilnjlovlxi , Xj)
j = , j :|
Varly) = ai
?oí +
. . .
+an? on
'
+
2 an - az - ojz + 2a, .az . OTZ + . . . . 1- 2aian.TN
292 .az -0237292.4524+ . . . . t2azan.FM
2am . an - On-1in
Diferencia entre 2 variables aleatorias
con n = 2 4 , = 1×2=-1 Y = X1 - X2
ECM -✗2) = EUN - EUN y si son independientes V41 - ✗2) = VAN +V42)
Var (Y ) = Varlxnltvarlxz +2.11-11 . Carlin , xD
Si Xn
,
.
. . ,
Xn Son variables aleatorias Independientes normalmente
distribuidas , cualquier combinación lineal de 19s Xi tiene distribución
normal
✓ 4.3 → Distribución normal
5. 1 → Distribución conjunta
✓ 5.2 → Correlación e independencia
5. 3 → correlación e independencia
5.4 → correlación e independencia
5.5
Resumen prueba 1
Repaso probabilidades :
• Variable aleatoria : registro de los posibles resultados de un
experimento
• Recorrido variable aleatoria : valores que toma la variable aleatoria
• Variable aleatoria discreta : finito o infinito numerable
↳ Prob en un punto se puede sacar
• Valor esperado CECX)) i promedio ponderado de los valores de ✗
• Varianza (Varla)) : dispersión de los datos respecto al promedio
• Desviación estándar (o) : dispersión manteniendo la unidad de medida
• Variable aleatoria continua : intervalo de valores
↳ Prob en un punto eso
↳ Función de densidad (acumulada)
ffy(y)dy
En R : Integrale (f- function (y ) { función } , Lower= mínimo, Upper . maximo)
Tipos de distribuciones
Con v.a discretas Con V.a continuas
Uniforme Exponencial
Bernoulli Normal
Binomial Uniforme
Geométrica
Binomial negativa
Distribución normal (seccion 4.3)
• simétrica respecto al promedio (n)
• Media el
• Desviación estándar o
• Si : el constante y vario o → se aplana o alarga la curva
o constante y vario u → se mueve horizontal
• El valor máximo se alcanza en el
r
4-
o-1
Cuando quiero saber la probabilidad
de que ✗ sea menor a mi ÉÜ:;pnorm lq =m , mear = ve , sal = O )
Cuando quiero saber la probabilidad
de que ✗ sea mayor a m : lÍ
,
1-pnormlq -- m, mear= U, Sd = o)
cuando quiero saber donde esta ✗ tal
que acumule una probabilidad t : ÷Éi:Éqnormlp =t , mear -- U , Sd = o)
condiciones que se cumplen en distribución normal :
→ 68% de los valores están a O de n
→ 95% de los valores están a 20 de el
→ 99,7% de los valores están a 30 de un
Distribución conjunta (seccion 5. 1)
• Se tienen 2 variables aleatorias X
.
Y
• La función de masa de probabilidad muestra la probabilidad
que pase el valor Cx , y )
• Se cumple que la suma de probabilidades es 1
• La función de masa marginal muestra la probabilidad
de que ocurran los valores del recorrido de 1 variable
manteniendo la otra constante
Px, y 4=1 4=2
✗=L 0,1 0,2 PCY =1) = 0,1+0,4 PCX-- 1) = 0,1+0,2
4=2 0,4 0,3 PLY =2) = 0,2+0,3 PCX= 2) = 0,4+0,3
Independencia entre variables aleatorias
→ Se debe cumplir que :
Probabilidad conjunta = prob marginal , . prob marginal 2
PC ✗= × , 7- y)
= PCX.-×) . PLY = y)
* si no se cumple para al menos Ipar , las variables
aleatorias NO son independientes
→ Para v.a continuas :
f- ( ×
, y ) = fxlx) . fy (y )
Experimento multinomial
→ Cuando tengo más de 2 variables aleatorias
→ Compuesto por n ensayos Independientes y Pü probabilidad
del resultado i
, teniendo la v.a Xi = ri de ensayos quedan
el resultado i -
Para V.a discretas .
PLXA , X2 , . . . / Xr ) - P ( X1 = ✗ r , ✗2=1/2 , . . . , Xr -- ✗r )
Función de masa :
=} n
!
( Xn ! )( Xz !) . . . . (yr ! )
• "
"
• " " •¥ "= 912 , . . / Con la + . . . + xr .- n
O de lo contrario
Independencia de las variables aleatorias :
Se tiene que cumplir que:
→ cada par es independiente
→ Cada tripleta es independiente} función de masa de probabilidad conjuntai. 11
→ Todos son independientes producto de masa de probabilidad marginal
Distribuciones condicionales
con X , Y v.a continuas
f- y /× ( y Ix) = fC×
fxlx) } que ocurra un evento dadoque ocurrió el otro, arribaCon X, Y V.a discretas va la prob conjunta, abajo
PY /✗ ( Y / ×>
=
P¥¥_» la Prob marginal
Valores esperados, Covarianza y correlación lseccion 5.2)
Esperanza de una función , es la función por la probabilidad
conjunta
→ EIHLX
,
y )) = Eh LX, y) . PLX , y) (discreta)
→ Elhlx
, y) ) = 5h CX, y) . f- ( × , y ) (continua)
covarianza :
• Mide el grado de asociación entre XEY
• Depende de la unidad de medida
Cov (Y ; Y ) = E [LX- Elx)) . ( Y - Ely))]
1. Saco ECX)
2. Saco EIY)
J Aplico fórmula Propiedades
• lov (X
,
H = Varlx)
• COVCX
, Y) = ELX
. Y) - IELXJEIYD
• Cov (aXtb; CY +d) = AC . Cou (X ; Y)
• °
•
°
•
÷ . : : . :
•
: :
:
: : .
Couso CavaO Cavar O
Correlación
• Versión estandarizada de la covarianza (sin unidad de medida)
• Mide el grado de asociación lineal
• Mientras más parecida a una recta , más se acerca
a 1 o -1 (significa que la relación es más lineal)
Com (Y; Y ) = Gav (✗ ¡ Y )
Fariñas
Propiedades
• -1 E Con CX ; 4) E 1
. CarlaXtb
, CY+d) = Con (X; Y) Cuando a yc tienen el mismo signo
. Con (✗ ¡ Y) -0 Si ✗ e Y son independientes
↳ No significa que Xe Y
son independientes si con LX; 4)=O
Estadísticos y Sus distribuciones (seccion 5. 3)
Estadístico : Cualquier función de una muestra aleatoria simple
M - A -S de tamaño n
,
con n fijo :
• ES un conjunto de n variables aleatorias que cumplen
↳ Xn
,
. . .
,
Xn Son independientes (Variables aleatorias
"
¡ id "
↳ Xp
,
. .
.
, ✗n tienen la misma distribución de probabilidad
* NO significa que sean las mismas variables aleatorias
Ejemplos :
hi 41
,
. . . ,
Xn) = In
h2 Hr
,
. . . , Xn ) = MÁX { 41 , . . . , Xn}
Experimentos de simulación
• Debe haber un estadístico de interés
• Distribución de la poblacion
• Tamaño de la muestra "n "
• N
'
de réplicas
" K "
Usando R (ejemplo con promedios>
Promedios ← CC ) creo la función
Forli in 1 : nooo) { número de repeticiones
M =Sample l datos de la v. a
✗ = CLA, 2,3 ,4) ,
size = 5 tamaño muestra
replace= TRUE extracciones con reemplazo
prob = C (0.403,0-2,0-1) probabilidad del recorrido
)
promedio . m ← mear lml lo que busco
Promedios ← el Promedios
, promedio . m) guardo en la función
Mientras mayor ri de repeticiones mejor es el experimento de simulación
porque la curva tiende a centrarse en el
Distribución de la media muestra (seccion 5.4)
Teniendo Xn
,
Xz
,
.
. .
,
Xn una muestra aleatoria con Oyu :
→ ELF) = MI = Me
→ V15) = 0¥ = 04N
→ 1-0=1/17 . . . + Xn entonces ECTO) = n -U 0450) =p -02
Si ✗ 1
, .
. .
.
Xn Son independientes pero no tienen la misma distribución :
1-0=41 t . . . +Xn
→ ELTO ) = Mi + . . - +Un
→ Varlto)= 0?+ . . . +02N
Teorema del límite central
Siendo X1
, . . . ,
Xn Variables aleatorias iicl , cada una con
valor esperado el y varianza 02
→ Si cada Xi tiene distribución normal
, entonces :
Sn = ✗ nt . . . + Xn ~ Normal ( nu
, no2)
tu
sumatoria
*Sin importar el valor de N
→ Si n > 30 llos experimentos son más de 30) :
SnÜ N Inn
,
not)
InÜ N ( u ; ÓYN)
Sin importar la distribución en común que tengan XA , . . . , Xn
* Pero deben tener la misma distribución
Gráfico variables aleatorias iid (teorema límite central)
A-500
ELX-nt-uvarcx-nt.glnÜ
→ Si N es suficientemente grande Con Xn , . . . , Xn teniendo una
distribución en la que solo existen valores positivos (Pcxi >a) = 1)
Y = ✗1. Xz. . . . • ✗n tiene distribución aprox a lograrmal
Distribución de una combinación lineal Cseccioñ 5.5)
→ Combinación lineal = Y =ai -Xi + . . . tan - XN
• CON al = AL= . . . =an=L → TO = XATXZT . . . TXN
• Con a , = 92= . . . = an -1m → In = In - To
*No es necesaria la independencia o que están distribuidas
idénticamente
• Ela , . ✗nt . . . tan- Xn) = ai . ECX,) t . . . . tan . Elxn)
= 91 . µ , + . . . . +9M . Un
Cuando 1/1
,
. . .
,
Xn Son independientes :
V Lai - Xi + . . . tan . Xn) = a , ? V /XD+ . . . tan
? VLXN)
= 912 . O? + . . . tan? O}
Cuando Xp , . . . , Xn No son independientes :
VLGI - Xi + . . . tan-Xn) = [[ aiaj Cor Hi ,Xj) * COVLXI ,Xjtlovllj , Xi)
¡ = I j :|
Var (y) = dio? + . . . tan? Ón (Salas)
+ 29192.92 + 2a , a3.013 (pares del 1)
: lpares del 2)
* 912 = 921 : :.
2am . an ' On-In (pares del n-i )
Diferencia entre 2 variables aleatorias
→ A.2 art az= - 1 → Y = Xn - ✗2
→ ELM - ✗2) = EHM- EHH
→ V41 - ✗2) = V41) 1-V42) cuando son independientes
→ V (4) = V41) +V42) +2.9 , .az - Cou (Xriz) en cualquier caso
*Si Xp . . . , Xn Son variables aleatorias independientes y normalmente
distribuidas → cualquier combinación lineal de ti tiene distribución normal
Resumen prueba 2
Estimación puntual 16 . 1)
• Se usa cuando el parámetro es desconocido (denotado como 0)
Ü estimador del valordel parámetro, vaa tener tantos componentes
como 0
Estimador : Variable o vector aleatorio . Cambia en cada réplica
Para elegir el estimador más adecuado debe cumplirse que :
• Valor esperado esté más cerca de 0
• La varianza sea mínima
Principio de estimación insesgada
si EIÓ) = O se dice que ⑤ es insesgado para 0
↳ Entre todos los posibles estimadores elijo el que
cumpla esta condición lseainsesgado)
• NO Implica que Ó = O
• No necesito conocer el valor numérico de D-
• Si E (E) - O > O : En promedio Ó sobreestima a D-
ELÓ)- D- < O : En promedio Ó subestima a D-
• Basta que falle 1 valor y ① no es insesgado Cuando compruebo
si se cumple El0-4=0-1
Cuando se utiliza una muestra aleatoria, Ó también sera
aleatorio y tiene una distribución de probabilidad
*NO necesariamente la misma distribución que la muestra
Intervalos de confianza 17.1)
• ES un rango de los posibles valores que puede tomar el parámetro
de interés
PASOS para construir un intervalo de confianza
① Definir la poblacion de Interés , Su distribución y parámetros
② Definir la muestra a utilizar, su distribución y parámetros
③ Estandarizar
④ Buscar 2-✗ 12 tal que IPCZ
> Zx /2)=42 Con ZNN lo ; 1)
↳ busco a y b
⑤ Con un ✗% de probabilidad el parámetro se encuentra en el intervalo
a < 2- < b y despejo el parámetro
⑥ " con un ✗% de confianza el parámetro se encuentra en el
intervalo de ⑤
"
✗12
q ¡
1-✗→muestra
1%5×922-=Fuepoblacional con O Conocido UN/%
OTTN a b
L ↳muestra
poblacional
Cosas importantes :
- Un intervalo más angosto tendrá un nivel de confianza MÁS bajo
porque es menos probable que el intervalo MOE acotado
contenga al parámetro
° Ancho de un intervalo W = 2.2-a12 .I S = Tn . W
Tn 2.2-a12
•
'
EUM = E [ (0^-0-5] = [ECE) - O]
'
+ Var (E)
&
error cuadrático
Medio
Intervalos de confianza de muestra grande para una
media y proporción de la población 17. 2)
• Si tengo una muestra aleatoria de una población con media M
y desviación estándar o puedo usar el teorema del límite central
cuando n >40
↳ IT tiene distribución aproximada a Normal independiente
de la distribución de la población
muestra
→ poblacional
i. 2- = J-U ~ N LO ; 1)
¥ muestra
&
tamaño de la muestra
Intervalos de confianza unilaterales
límite de confianza superior muestra
µ < x-tzx.pl
límite de confianza inferior muestral
el > E -Za#
Intervalos basados en una distribución de población normal 17.3)
• La población de interés tiene distribución normal , siendo
XI
,
. . .
,
Xn Son una muestra aleatoria con el yo desconocidos
y tiene distribución normal
Distribución tstvosent
① Distribución poblacional es normal
② Distribución muestral es normal
③ I N Normal lm ¡ 04in )
④ Defino → muestral
µ g-= j-U→Poblacional ~ f (n -1)
Para 5 / rn
&estandarizar desviación
muestral
⑤ Busco a y b %
jpg,
^-×
pump%
En B a b
a= qt ( p= 42 , df = n-1)
b = qt ( f- 1-12 , df= n-1)
⑥ Con un xt de probabilidad u está en el intervalo
F ta# < u < X-tb.gg
⑦ Reemplazo F y S
con un ✗% de confianza u está en el intervalo
☒ this L m
<
X-rb.SK
Intervalo de predicción para un solo valor futuro
• LO USO para ver el rango de los posibles valores para
la siguiente muestra
. Tengo m yo
'
desconocidos
' I es una variable aleatoria
Error de predicción = F-Xnri
① Estandariza 2- = F- XNH -u
↳
de I- XNH
② Uso t-stvdent 2- = I- Mb ~ tenis
S /Tn
③ Busco a yb
a= qtV12 , n -1) xp 1-✗
b = qtcn-42, n-D mñn! IMÉ
"
a b
④ Con un ✗% de probabilidad XNH está en el intervalo
a < 2- < b
⑤ Reemplazo F , S , N y queda con un ✗% de confianza
Xntl está en el intervalo .
Hipótesis y procedimientos de prueba 18.1)
- Es una aseveración sobre el valor de un parámetro
Hipótesis nula : Ho → siempre se plantea como igualdad y es la que
asumimos cierta a menos que se pruebe lo
contrario
Hipótesis alternativa : Ha → Es lo contrario a la hipótesis hula
Estadistica de prueba : es una función que uso los datos muestrales
para ver si rechazo o no Ho
→ Con estos datos tomo la decisión sobre la
hipótesis nula .
Estado de la naturaleza
Ho cierta HO incorrecta
No rechazar HO decisión Error de tipo
correcta I
Rechazar Ho Error de Decisión
tipo I Conecta
Error de tipo I : Rechazar Ho cuando Ho es cierta
Error de tipo Il : No rechazar HO Cuando Ho es falsa .
Nivel de significancia : Máxima probabilidad que acepto de
dlp) cometer error de tipo I
' Primero saco prob de cometer el error
IPLRechazar Hot Ho cierta)
→ Maxima probabilidad está cuando eraWO en
el valor nulo
,
mientras más me algo de la
probabilidad de cometer el error
Plp) : probabilidad de cometer error de tipo 11
IPC No rechazar Hol Ho Falso)
NP) # 1-plp) porque están condicionadas a
eventos distintos
• Cola superior : Cuando tengo Ho : 0=00 y Ha : O > Oo
- Cola inferior : Cuando tengo Ao : 0=0-0 y Aa : 0<00
Pruebas sobre una media de población (8. 2)
Caso I : Población normal con o conocida
• El estadístico 2- es una medida natural de la distancia de I
si la distancia es muy grande , Ito debería rechazarse .
- El valor c de corte es el valor de 2- crítico que tiene el
area de lacola superior de ✗ bajo la curva de z .
Pasos para probar hipótesis respecto a un parámetro
Caso 11 : Pruebas con muestras grandes
• Implica que la variable es estandarizada
2- = ☒ - no
Slrn
Caso 111 : Una distribución de población normal
- Se supone que la distribución de población es aproximadamente
normal
F- 5-n
s / rn
Pruebas relacionadas con una proporción de la población 18.3s
• Siendo p la proporción de una poblacion que poseen una propiedad ,
y si E es el éxito→ p es la proporción de éxitos de la población.
• Si n es pequeño respecto al tamaño de la población , tiene
una distribución aproximadamente binomial .
s si n es grande , ✗ y F
= HN tienen distribución normal
Pruebas con muestras grandes
- Siendo Ó un estimador de 0 que es insesgado y tiene distribución
aprox normal . Ho : 0=0-0 . Al estandarizar ☒ suponiendo que Ho
es verdadera
Estadístico de prueba 2- = 0^-0-0
óó
- Cuando ÉI y Ho esverdadera E (F) = po entonces
Estadístico de prueba 2- = E - po
É
A medida que aumentara , uno tiende a rechazar HO
Pruebas con muestras pequeñas
. Cuando Ho es verdadera y ✗ es el número de éxitos en la
muestra , entonces × tiene distribución binomial con parámetros
n y po
IPLerror tipo 1) = IPLH o rechazada / Ho es verdadera)
= 1- IPCXEC cuando ✗ ~Bin (n , pos)
= 1- B ( c- 1 ; n , po )
* A medida que el valor crítico c disminuye, Menor tipo 1) aumenta
Video 7
Con el ejemplo te tiene 0,01 <✗• < 0,1
A <✗o No rechazo Ho
✗ sino rechazo HO
✗• = IP / 2-=p,¡¡¡
borrado.
Valar-p : donde uno empieza a rechazar Ho Ko)
Valores- P (8.4)
Pruebas Z e intervalos de confianza para una diferencia entre
dos medias de población ( 9. 1)
El estimador natural de Mi -Mr es F-Y
Procedimientos para poblaciones normales con varianzas conocidas
Al estandarizar 2- = I-F-cm-%fE.fr
Pruebas con muestra grande
2- = * -T.cm?iTs-m-snz2--

Continuar navegando