Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Resumen métodos estadísticos Resumen 5.3 Estadístico : • Cualquier función de una muestra aleatoria Simple lej : promedio, moda, mediana> • Como es una variable aleatoria tiene distribución de probabilidad Muestra aleatoria simple : • Xi son variables independientes • cada Xi tiene la misma distribución de probabilidad Experimento de simulación : • Tiene un estadístico de interés • Hay una distribución de la población • Tiene tamaño de muestra • Tiene número de repeticiones → se obtienen diferentes muestras aleatorias y la distribución de muestreo entrega un aproximado del estadístico buscado , a mayor cantidad de repeticiones mayor exactitud tiene el experimento lmayor concentración hacia a) Resumen 5.4 Siendo ✗1 , . . . , Xn muestra aleatoria con valor medio U y desviación esto: • Elt) = ME =U - VIN = o} = 04m 05- o/rn • To = Xnt . . . 1- Xn entonces ECTOJ = nu , ✓ (To ) = no ' Oro = VÑO Teorema del limite central : > Mientras más grande n mejor es la aproximación • Se puede usar con n>30 Resumen 5.5 Combinación lineal Y = A i. Xntlzxzt . . . . tan - Xn Con Araz= . . . enn = 1 se tiene TO = ✗ 11-42t . . . + Xn y MHz = . . . Inn = NI da que ☒ =L To → No se necesita que sean independientes o que estén distribuidas idénticamente ELAHt . . . tan Xn) = dn.EU/1)t...tXn.Elxn) = ✗ 1. Un t . . . - tan -Un Si Xp . . . , Xn son independientes : V Knut . . . tan Xn) = 9kV ( Xp) t . . . tan' -VLXN ) = Anzio? + . . . . tan?O? Gouki , ✗j-hovkj.li) →Cuando vi. Son independientes : n ngVltnxrt . . - tan Xn ) -- £ oiilnjlovlxi , Xj) j = , j :| Varly) = ai ?oí + . . . +an? on ' + 2 an - az - ojz + 2a, .az . OTZ + . . . . 1- 2aian.TN 292 .az -0237292.4524+ . . . . t2azan.FM 2am . an - On-1in Diferencia entre 2 variables aleatorias con n = 2 4 , = 1×2=-1 Y = X1 - X2 ECM -✗2) = EUN - EUN y si son independientes V41 - ✗2) = VAN +V42) Var (Y ) = Varlxnltvarlxz +2.11-11 . Carlin , xD Si Xn , . . . , Xn Son variables aleatorias Independientes normalmente distribuidas , cualquier combinación lineal de 19s Xi tiene distribución normal ✓ 4.3 → Distribución normal 5. 1 → Distribución conjunta ✓ 5.2 → Correlación e independencia 5. 3 → correlación e independencia 5.4 → correlación e independencia 5.5 Resumen prueba 1 Repaso probabilidades : • Variable aleatoria : registro de los posibles resultados de un experimento • Recorrido variable aleatoria : valores que toma la variable aleatoria • Variable aleatoria discreta : finito o infinito numerable ↳ Prob en un punto se puede sacar • Valor esperado CECX)) i promedio ponderado de los valores de ✗ • Varianza (Varla)) : dispersión de los datos respecto al promedio • Desviación estándar (o) : dispersión manteniendo la unidad de medida • Variable aleatoria continua : intervalo de valores ↳ Prob en un punto eso ↳ Función de densidad (acumulada) ffy(y)dy En R : Integrale (f- function (y ) { función } , Lower= mínimo, Upper . maximo) Tipos de distribuciones Con v.a discretas Con V.a continuas Uniforme Exponencial Bernoulli Normal Binomial Uniforme Geométrica Binomial negativa Distribución normal (seccion 4.3) • simétrica respecto al promedio (n) • Media el • Desviación estándar o • Si : el constante y vario o → se aplana o alarga la curva o constante y vario u → se mueve horizontal • El valor máximo se alcanza en el r 4- o-1 Cuando quiero saber la probabilidad de que ✗ sea menor a mi ÉÜ:;pnorm lq =m , mear = ve , sal = O ) Cuando quiero saber la probabilidad de que ✗ sea mayor a m : lÍ , 1-pnormlq -- m, mear= U, Sd = o) cuando quiero saber donde esta ✗ tal que acumule una probabilidad t : ÷Éi:Éqnormlp =t , mear -- U , Sd = o) condiciones que se cumplen en distribución normal : → 68% de los valores están a O de n → 95% de los valores están a 20 de el → 99,7% de los valores están a 30 de un Distribución conjunta (seccion 5. 1) • Se tienen 2 variables aleatorias X . Y • La función de masa de probabilidad muestra la probabilidad que pase el valor Cx , y ) • Se cumple que la suma de probabilidades es 1 • La función de masa marginal muestra la probabilidad de que ocurran los valores del recorrido de 1 variable manteniendo la otra constante Px, y 4=1 4=2 ✗=L 0,1 0,2 PCY =1) = 0,1+0,4 PCX-- 1) = 0,1+0,2 4=2 0,4 0,3 PLY =2) = 0,2+0,3 PCX= 2) = 0,4+0,3 Independencia entre variables aleatorias → Se debe cumplir que : Probabilidad conjunta = prob marginal , . prob marginal 2 PC ✗= × , 7- y) = PCX.-×) . PLY = y) * si no se cumple para al menos Ipar , las variables aleatorias NO son independientes → Para v.a continuas : f- ( × , y ) = fxlx) . fy (y ) Experimento multinomial → Cuando tengo más de 2 variables aleatorias → Compuesto por n ensayos Independientes y Pü probabilidad del resultado i , teniendo la v.a Xi = ri de ensayos quedan el resultado i - Para V.a discretas . PLXA , X2 , . . . / Xr ) - P ( X1 = ✗ r , ✗2=1/2 , . . . , Xr -- ✗r ) Función de masa : =} n ! ( Xn ! )( Xz !) . . . . (yr ! ) • " " • " " •¥ "= 912 , . . / Con la + . . . + xr .- n O de lo contrario Independencia de las variables aleatorias : Se tiene que cumplir que: → cada par es independiente → Cada tripleta es independiente} función de masa de probabilidad conjuntai. 11 → Todos son independientes producto de masa de probabilidad marginal Distribuciones condicionales con X , Y v.a continuas f- y /× ( y Ix) = fC× fxlx) } que ocurra un evento dadoque ocurrió el otro, arribaCon X, Y V.a discretas va la prob conjunta, abajo PY /✗ ( Y / ×> = P¥¥_» la Prob marginal Valores esperados, Covarianza y correlación lseccion 5.2) Esperanza de una función , es la función por la probabilidad conjunta → EIHLX , y )) = Eh LX, y) . PLX , y) (discreta) → Elhlx , y) ) = 5h CX, y) . f- ( × , y ) (continua) covarianza : • Mide el grado de asociación entre XEY • Depende de la unidad de medida Cov (Y ; Y ) = E [LX- Elx)) . ( Y - Ely))] 1. Saco ECX) 2. Saco EIY) J Aplico fórmula Propiedades • lov (X , H = Varlx) • COVCX , Y) = ELX . Y) - IELXJEIYD • Cov (aXtb; CY +d) = AC . Cou (X ; Y) • ° • ° • ÷ . : : . : • : : : : : . Couso CavaO Cavar O Correlación • Versión estandarizada de la covarianza (sin unidad de medida) • Mide el grado de asociación lineal • Mientras más parecida a una recta , más se acerca a 1 o -1 (significa que la relación es más lineal) Com (Y; Y ) = Gav (✗ ¡ Y ) Fariñas Propiedades • -1 E Con CX ; 4) E 1 . CarlaXtb , CY+d) = Con (X; Y) Cuando a yc tienen el mismo signo . Con (✗ ¡ Y) -0 Si ✗ e Y son independientes ↳ No significa que Xe Y son independientes si con LX; 4)=O Estadísticos y Sus distribuciones (seccion 5. 3) Estadístico : Cualquier función de una muestra aleatoria simple M - A -S de tamaño n , con n fijo : • ES un conjunto de n variables aleatorias que cumplen ↳ Xn , . . . , Xn Son independientes (Variables aleatorias " ¡ id " ↳ Xp , . . . , ✗n tienen la misma distribución de probabilidad * NO significa que sean las mismas variables aleatorias Ejemplos : hi 41 , . . . , Xn) = In h2 Hr , . . . , Xn ) = MÁX { 41 , . . . , Xn} Experimentos de simulación • Debe haber un estadístico de interés • Distribución de la poblacion • Tamaño de la muestra "n " • N ' de réplicas " K " Usando R (ejemplo con promedios> Promedios ← CC ) creo la función Forli in 1 : nooo) { número de repeticiones M =Sample l datos de la v. a ✗ = CLA, 2,3 ,4) , size = 5 tamaño muestra replace= TRUE extracciones con reemplazo prob = C (0.403,0-2,0-1) probabilidad del recorrido ) promedio . m ← mear lml lo que busco Promedios ← el Promedios , promedio . m) guardo en la función Mientras mayor ri de repeticiones mejor es el experimento de simulación porque la curva tiende a centrarse en el Distribución de la media muestra (seccion 5.4) Teniendo Xn , Xz , . . . , Xn una muestra aleatoria con Oyu : → ELF) = MI = Me → V15) = 0¥ = 04N → 1-0=1/17 . . . + Xn entonces ECTO) = n -U 0450) =p -02 Si ✗ 1 , . . . . Xn Son independientes pero no tienen la misma distribución : 1-0=41 t . . . +Xn → ELTO ) = Mi + . . - +Un → Varlto)= 0?+ . . . +02N Teorema del límite central Siendo X1 , . . . , Xn Variables aleatorias iicl , cada una con valor esperado el y varianza 02 → Si cada Xi tiene distribución normal , entonces : Sn = ✗ nt . . . + Xn ~ Normal ( nu , no2) tu sumatoria *Sin importar el valor de N → Si n > 30 llos experimentos son más de 30) : SnÜ N Inn , not) InÜ N ( u ; ÓYN) Sin importar la distribución en común que tengan XA , . . . , Xn * Pero deben tener la misma distribución Gráfico variables aleatorias iid (teorema límite central) A-500 ELX-nt-uvarcx-nt.glnÜ → Si N es suficientemente grande Con Xn , . . . , Xn teniendo una distribución en la que solo existen valores positivos (Pcxi >a) = 1) Y = ✗1. Xz. . . . • ✗n tiene distribución aprox a lograrmal Distribución de una combinación lineal Cseccioñ 5.5) → Combinación lineal = Y =ai -Xi + . . . tan - XN • CON al = AL= . . . =an=L → TO = XATXZT . . . TXN • Con a , = 92= . . . = an -1m → In = In - To *No es necesaria la independencia o que están distribuidas idénticamente • Ela , . ✗nt . . . tan- Xn) = ai . ECX,) t . . . . tan . Elxn) = 91 . µ , + . . . . +9M . Un Cuando 1/1 , . . . , Xn Son independientes : V Lai - Xi + . . . tan . Xn) = a , ? V /XD+ . . . tan ? VLXN) = 912 . O? + . . . tan? O} Cuando Xp , . . . , Xn No son independientes : VLGI - Xi + . . . tan-Xn) = [[ aiaj Cor Hi ,Xj) * COVLXI ,Xjtlovllj , Xi) ¡ = I j :| Var (y) = dio? + . . . tan? Ón (Salas) + 29192.92 + 2a , a3.013 (pares del 1) : lpares del 2) * 912 = 921 : :. 2am . an ' On-In (pares del n-i ) Diferencia entre 2 variables aleatorias → A.2 art az= - 1 → Y = Xn - ✗2 → ELM - ✗2) = EHM- EHH → V41 - ✗2) = V41) 1-V42) cuando son independientes → V (4) = V41) +V42) +2.9 , .az - Cou (Xriz) en cualquier caso *Si Xp . . . , Xn Son variables aleatorias independientes y normalmente distribuidas → cualquier combinación lineal de ti tiene distribución normal Resumen prueba 2 Estimación puntual 16 . 1) • Se usa cuando el parámetro es desconocido (denotado como 0) Ü estimador del valordel parámetro, vaa tener tantos componentes como 0 Estimador : Variable o vector aleatorio . Cambia en cada réplica Para elegir el estimador más adecuado debe cumplirse que : • Valor esperado esté más cerca de 0 • La varianza sea mínima Principio de estimación insesgada si EIÓ) = O se dice que ⑤ es insesgado para 0 ↳ Entre todos los posibles estimadores elijo el que cumpla esta condición lseainsesgado) • NO Implica que Ó = O • No necesito conocer el valor numérico de D- • Si E (E) - O > O : En promedio Ó sobreestima a D- ELÓ)- D- < O : En promedio Ó subestima a D- • Basta que falle 1 valor y ① no es insesgado Cuando compruebo si se cumple El0-4=0-1 Cuando se utiliza una muestra aleatoria, Ó también sera aleatorio y tiene una distribución de probabilidad *NO necesariamente la misma distribución que la muestra Intervalos de confianza 17.1) • ES un rango de los posibles valores que puede tomar el parámetro de interés PASOS para construir un intervalo de confianza ① Definir la poblacion de Interés , Su distribución y parámetros ② Definir la muestra a utilizar, su distribución y parámetros ③ Estandarizar ④ Buscar 2-✗ 12 tal que IPCZ > Zx /2)=42 Con ZNN lo ; 1) ↳ busco a y b ⑤ Con un ✗% de probabilidad el parámetro se encuentra en el intervalo a < 2- < b y despejo el parámetro ⑥ " con un ✗% de confianza el parámetro se encuentra en el intervalo de ⑤ " ✗12 q ¡ 1-✗→muestra 1%5×922-=Fuepoblacional con O Conocido UN/% OTTN a b L ↳muestra poblacional Cosas importantes : - Un intervalo más angosto tendrá un nivel de confianza MÁS bajo porque es menos probable que el intervalo MOE acotado contenga al parámetro ° Ancho de un intervalo W = 2.2-a12 .I S = Tn . W Tn 2.2-a12 • ' EUM = E [ (0^-0-5] = [ECE) - O] ' + Var (E) & error cuadrático Medio Intervalos de confianza de muestra grande para una media y proporción de la población 17. 2) • Si tengo una muestra aleatoria de una población con media M y desviación estándar o puedo usar el teorema del límite central cuando n >40 ↳ IT tiene distribución aproximada a Normal independiente de la distribución de la población muestra → poblacional i. 2- = J-U ~ N LO ; 1) ¥ muestra & tamaño de la muestra Intervalos de confianza unilaterales límite de confianza superior muestra µ < x-tzx.pl límite de confianza inferior muestral el > E -Za# Intervalos basados en una distribución de población normal 17.3) • La población de interés tiene distribución normal , siendo XI , . . . , Xn Son una muestra aleatoria con el yo desconocidos y tiene distribución normal Distribución tstvosent ① Distribución poblacional es normal ② Distribución muestral es normal ③ I N Normal lm ¡ 04in ) ④ Defino → muestral µ g-= j-U→Poblacional ~ f (n -1) Para 5 / rn &estandarizar desviación muestral ⑤ Busco a y b % jpg, ^-× pump% En B a b a= qt ( p= 42 , df = n-1) b = qt ( f- 1-12 , df= n-1) ⑥ Con un xt de probabilidad u está en el intervalo F ta# < u < X-tb.gg ⑦ Reemplazo F y S con un ✗% de confianza u está en el intervalo ☒ this L m < X-rb.SK Intervalo de predicción para un solo valor futuro • LO USO para ver el rango de los posibles valores para la siguiente muestra . Tengo m yo ' desconocidos ' I es una variable aleatoria Error de predicción = F-Xnri ① Estandariza 2- = F- XNH -u ↳ de I- XNH ② Uso t-stvdent 2- = I- Mb ~ tenis S /Tn ③ Busco a yb a= qtV12 , n -1) xp 1-✗ b = qtcn-42, n-D mñn! IMÉ " a b ④ Con un ✗% de probabilidad XNH está en el intervalo a < 2- < b ⑤ Reemplazo F , S , N y queda con un ✗% de confianza Xntl está en el intervalo . Hipótesis y procedimientos de prueba 18.1) - Es una aseveración sobre el valor de un parámetro Hipótesis nula : Ho → siempre se plantea como igualdad y es la que asumimos cierta a menos que se pruebe lo contrario Hipótesis alternativa : Ha → Es lo contrario a la hipótesis hula Estadistica de prueba : es una función que uso los datos muestrales para ver si rechazo o no Ho → Con estos datos tomo la decisión sobre la hipótesis nula . Estado de la naturaleza Ho cierta HO incorrecta No rechazar HO decisión Error de tipo correcta I Rechazar Ho Error de Decisión tipo I Conecta Error de tipo I : Rechazar Ho cuando Ho es cierta Error de tipo Il : No rechazar HO Cuando Ho es falsa . Nivel de significancia : Máxima probabilidad que acepto de dlp) cometer error de tipo I ' Primero saco prob de cometer el error IPLRechazar Hot Ho cierta) → Maxima probabilidad está cuando eraWO en el valor nulo , mientras más me algo de la probabilidad de cometer el error Plp) : probabilidad de cometer error de tipo 11 IPC No rechazar Hol Ho Falso) NP) # 1-plp) porque están condicionadas a eventos distintos • Cola superior : Cuando tengo Ho : 0=00 y Ha : O > Oo - Cola inferior : Cuando tengo Ao : 0=0-0 y Aa : 0<00 Pruebas sobre una media de población (8. 2) Caso I : Población normal con o conocida • El estadístico 2- es una medida natural de la distancia de I si la distancia es muy grande , Ito debería rechazarse . - El valor c de corte es el valor de 2- crítico que tiene el area de lacola superior de ✗ bajo la curva de z . Pasos para probar hipótesis respecto a un parámetro Caso 11 : Pruebas con muestras grandes • Implica que la variable es estandarizada 2- = ☒ - no Slrn Caso 111 : Una distribución de población normal - Se supone que la distribución de población es aproximadamente normal F- 5-n s / rn Pruebas relacionadas con una proporción de la población 18.3s • Siendo p la proporción de una poblacion que poseen una propiedad , y si E es el éxito→ p es la proporción de éxitos de la población. • Si n es pequeño respecto al tamaño de la población , tiene una distribución aproximadamente binomial . s si n es grande , ✗ y F = HN tienen distribución normal Pruebas con muestras grandes - Siendo Ó un estimador de 0 que es insesgado y tiene distribución aprox normal . Ho : 0=0-0 . Al estandarizar ☒ suponiendo que Ho es verdadera Estadístico de prueba 2- = 0^-0-0 óó - Cuando ÉI y Ho esverdadera E (F) = po entonces Estadístico de prueba 2- = E - po É A medida que aumentara , uno tiende a rechazar HO Pruebas con muestras pequeñas . Cuando Ho es verdadera y ✗ es el número de éxitos en la muestra , entonces × tiene distribución binomial con parámetros n y po IPLerror tipo 1) = IPLH o rechazada / Ho es verdadera) = 1- IPCXEC cuando ✗ ~Bin (n , pos) = 1- B ( c- 1 ; n , po ) * A medida que el valor crítico c disminuye, Menor tipo 1) aumenta Video 7 Con el ejemplo te tiene 0,01 <✗• < 0,1 A <✗o No rechazo Ho ✗ sino rechazo HO ✗• = IP / 2-=p,¡¡¡ borrado. Valar-p : donde uno empieza a rechazar Ho Ko) Valores- P (8.4) Pruebas Z e intervalos de confianza para una diferencia entre dos medias de población ( 9. 1) El estimador natural de Mi -Mr es F-Y Procedimientos para poblaciones normales con varianzas conocidas Al estandarizar 2- = I-F-cm-%fE.fr Pruebas con muestra grande 2- = * -T.cm?iTs-m-snz2--
Compartir