Logo Studenta

Muestras Aleatorias en Estadística

¡Este material tiene más páginas!

Vista previa del material en texto

Lectura 14: Muestras aleatorias
Estadística
Mayo 12, 2017
1. Introducción
Generalmente, en cualquier estudio de tipo estadístico se recolectan datos y a partir de
ahí se realizan diferentes estudios. Estos tienen como objetivo hacer inferencias acerca de la
población partiendo de la muestra. Lo ideal sería que no tuviéramos que hacer inferencias
sino obtener todos los datos de la población; pero, obviamente esto es imposible, tanto porque
sería absolutamente costoso y porque puede resultar que medir la variable en cuestión sea
imposible. Por esta razón, nos toca conformarnos con una conjunto de mediciones que nos
proveen aproximaciones acerca de lo que ocurre con la población.
Las características de una población son desconocidas con exactitud. Hasta ahora, hemos
siempre planteado que la media y la desviación estándar de una población son conocidas
e iguales a µ y σ. Pero como acabamos de afirmar, estos parámetros (o características) no
los conocemos en realidad. Lo que si podremos hacer, es muestrear dicha variable aleatoria
n veces, es decir, obtener los datos X1, X2, . . . , Xn y hacer inferencias acerca de sus carac-
terísticas. Las inferencias pueden ser de la forma de intervalos de confianza o pruebas de
hipótesis.
1
2. Muestreo aleatorio
Dado que una muestra es un subconjunto de la población, resulta siempre más cómodo
tomar aquellas muestras Xi que son más fáciles de conseguir. Las razones para hacerlo
pueden ser económicas o de tiempo. Sin embargo, este tipo de muestreo puede resultar en
datos sesgados y poco confiables ya que no serían una muestra representativa de la población.
Por lo tanto, las muestras Xi deben ser recolectadas de manera aleatoria e independiente
para que los resultados finales no estén sesgados.
En general, decimos que una muestra aleatoria de tamaño n de una población fX(x)
es una colección de cada una de las muestras o mediciones X1, X2, . . . , Xn, donde cada
Xi, i = 1, . . . , n es una variable aleatoria. Recuerden entonces que x1, . . . , xn son los valores
que toman cada una de las variables aleatorias respectivamente. Asumiendo entonces que
cada una de las n mediciones fue hecha en las mismas condiciones, entonces resulta razonable
asumir que las n variables aleatorias son independientes. Además, como son muestras de la
misma población, entonces se asume que cada una de ellas tiene la misma distribución fX(x).
Por lo tanto, la distribución de probabilidad conjunta de la muestra aleatoria de la si-
guiente manera:
fX(x1, x2, . . . , xn) = fX1(x1)fX2(x2) · · · fXn(xn).
Suponga que se va a medir el voltaje de 5 baterias para determinar la calidad del producto
y que fueron extraídas de un lote de 1000 de éstas. Podemos entonces decir que X1, . . . , X5
es una muestra aleatoria de la población de tamaño n = 5 de la población. En realidad,
esta es una muestra entre las
(
1000
5
)
≈ 8,25× 1012 posibles muestras que se hubieran podido
seleccionar en esta situación. Por lo tanto, x1, . . . , xn es la colección de los valores medidos.
Además, cada Xi tiene la misma distribución ya que es una variable aleatoria de la misma
población.
2
2.1. Estadísticas
Cualquier función T (·) que dependa de la muestra X1, . . . , Xn se define como una esta-
dística. Por ejemplo, desde el comienzo de este curso estudiamos algunas estadísticas como
la media muestral X̄, la varianza muestral S2, la desviación estándar muestral S, la mediana
muestral X̃, el rango, etc.
Lo más interesante, es que estas estadísticas —en realidad— son también variables alea-
torias. Por qué? La razón es simple, T (X1, . . . , Xn) depende de la muestra, es decir, depende
de cada una de las muestras Xi que a su vez son variables aleatorias. Sin embargo, esto no
significa que la estadística en cuestión (X̄, S2, o cualquiera que sea) tenga necesariamente la
misma distribución que la muestra, excepto en algunos casos. Es decir, si por ejemplo cada
una de las muestras proviene de una población con distribución uniforme, no implica nece-
sariamente que cualquier estadística también sea uniformemente distribuida. Finalmente, a
la distribución de una estadística se le conoce como distribución muestreada.
En esta lectura nos enfocaremos en el estudio de las distribuciones de la media muestral
X̄n y de la varianza muestral S2n−1.
X̄n =
X1 +X2 + . . .+Xn
n
y S2n−1 =
1
n− 1
∑
(Xi − X̄n)2.
Empezaremos a usar los índices n y n − 1 para indicar que usaremos la media de una
muestra de tamaño n y que la varianza muestral usa n−1 en el denominador. Estrictamente
hablando, para obtener la distribución de X̄n y S2n−1, necesitaríamos conocer de entrada la
distribución que rige la población para la cual se obtuvo la muestra. Esto no es muy práctico
porque precisamente deseamos conocer las características de la población usando inferencias
que se puedan extraer de la muestra.
3
3. Distribución de la media muestral
3.1. Media muestral
La distribución de la media muestral es útil para realizar inferencias acerca de la media
µ de la población. De todas formas, se debe tener presente que X̄n es la suma ponderada de
los datos de una muestra aleatoria.
Si X1, X2, . . . , Xn es una muestra aleatoria obtenida de una población con media µ y
varianza σ2, entonces
1. E(X̄n) = µx̄n = µ.
2. Var(X̄n) = σ2x̄n = σ
2/n.
La demostración de estos resultados se presentó en clase.
En el caso de una población con distribución normal con media µ y varianza σ2, la distri-
bución de la media muestral también es normal. La media y la varianza respectivamente son
µ y σ2/n. De hecho, siendo un poco más generales, la suma de variables aleatorias normales
también tiene distribución normal; sin embargo, los parámetros si hay que determinarlos.
4. Teorema del Límite Central
Afortunadamente, la estadística ha evolucionado y mostrado resultados importantes que
facilitan los análisis. Uno de estos resultados tiene que ver con el uso y aplicación de la
distribución normal. Desde 1733 el matemático Abraham de Moivre mostró que el número
de caras resultante después de lanzar muchas veces una moneda se podía aproximar a través
de una distribución normal. Luego, en 1812 Pierre-Simon Laplace mostró que la distribución
binomial se podía aproximar mediante una distribución normal bajo ciertas condiciones.
Ambos trabajos, aunque tenían mucha importancia, no fueron muy tenidos en cuenta
hasta que el estadístico Alksandr Lyapunov postuló el teorema del límite central (CLT por
4
su nombre en inglés) que contenía los resultados obtenidos por Moivre y Laplace 1.
Teorema. Si X̄n es la media de una muestra aleatoria de tamaño n tomada de una población
con media µ y varianza σ2, entonces el límite de la distribución de
Z =
X̄n − µ
σ/
√
n
,
cuando n→∞, es la distribución normal estándar N(0, 1).
A manera de extensión, si definimos entonces la suma de n variables aleatorias como
h(X) = X1 + . . . + Xn, por el teorema del límite central podemos decir que la distribución
de h(X) tiende a una normal con media µh(X) = nµ y varianza Var(h(X)) = nσ2. A mayor
tamaño de la muestra, mejor es la aproximación.
Desde otro punto de vista, podemos decir que la distribución de la media muestral X̄n
converge en distribución a una normal siempre y cuando el tamaño de la muestra n es grande.
Para ilustrar un poco lo planteado por el CLT, quise hacer diferentes simulaciones en R que
nos ayudan a entender cómo la distribución de la media muestral tiende a una distribución
normal.
Suponga que tenemos una muestra pequeña de datos, n = 5. Y la muestra vamos a
generarla de manera independiente de una población que está distribuida uniformemente
con parámetros a = −
√
3 = −b. Es decir, cada dato Xi ∼ U(−
√
3,
√
3) con i = 1, . . . , 5.
Ante estos parámetros, tenemos que cada dato tiene µ = 0 y σ = 1. Usando la función
runif(n,a,b) podemos generar los n datos particulares x1, . . . , xn provenientes de una dis-
tribución uniforme que corresponden a la muestra. La media muestral la calculamoscomo el
promedio de los datos generados (la muestra) aleatoriamente.
Para poder obtener un histograma de la media muestral, necesitamos entonces más datos
de la media. Cuando se obtuvieron los 5 datos aleatorios, es como si hubiéramos escogido
aleatoriamente 5 individuos de una población muy grande para hacer la correspondiente ob-
1Tomado de wikipedia. http://en.wikipedia.org/wiki/Central_limit_theorem
5
http://en.wikipedia.org/wiki/Central_limit_theorem
servación de la variable en cuestión. Pero, un solo valor de la media muestral es insuficiente
porque depende de la selección de los 5 individuos. Por eso, el proceso de muestrear aleato-
riamente se repitió 100 veces para obtener 100 valores de la media muestral y así elaborar el
histograma.
El CLT diría entonces que la distribución de la media muestral tiende a una distribución
normal con media µ = 0 y desviación estándar σ/
√
n = 1/
√
5. Todo el procedimiento descrito
también se realizó para tamaños de muestra n = 20 y n = 100 para observar el cumplimiento
del teorema. La Fig. 1, para cada tamaño de muestra, muestra el histograma de X̄n y la pdf
de la distribución a la cual converge según el CLT:
X̄5 ∼ N(0, 1/5)
X̄20 ∼ N(0, 1/20)
X̄100 ∼ N(0, 1/100)
De la Fig. 1 vemos que el tamaño de la muestra influencia significativamente la desviación
estándar de la media muestral. En realidad, mayor número de datos (n), menor desviación
estándar, y se reduce en un factor 1/
√
n. De esto podemos observar que si queremos dar
un estimado de la media de una población con un error pequeño, entonces necesitamos
incrementar el tamaño de la muestra.
Ejemplo 1. (Problema 49 de [1].) Hay 40 estudiantes en una clase de estadística elemental.
Basado en años de experiencia, el instructor sabe que el tiempo requerido para calificar un
primer examen seleccionado al azar es una variable aleatoria con un valor esperado de 6 min
y una desviación estándar de 6 min.
(a) Si los tiempos de calificación son independientes y el instructor comienza a calificar a
las 6:50 p.m., y califica en forma continua, cuál es la probabilidad (aproximada) de que
termine de calificar antes de que se inicie el programa de noticias de las 11:00pm?
(b) Si el reporte de deportes se inicia a las 11:10, cuál es la probabilidad de que se pierda
6
Distribución de la media muestral con n = 5
MeanSample1
D
en
si
ty
−1.5 −1.0 −0.5 0.0 0.5 1.0 1.5
0.
0
0.
6
1.
2
Distribución de la media muestral con n = 20
MeanSample2
D
en
si
ty
−1.5 −1.0 −0.5 0.0 0.5 1.0 1.5
0.
0
1.
0
2.
0
Distribución de la media muestral con n = 100
MeanSample3
D
en
si
ty
−1.5 −1.0 −0.5 0.0 0.5 1.0 1.5
0
2
4
Figura 1: Ilustración del Teorema del Límite Central
7
una parte del reporte si espera hasta que termine de calificar para prender la TV?
Ejemplo 2. (Inspirado en el caso de estudio 8.4 de [2].) Una empresa del sector eléctrico
se dedica a fabricar focos de luz de tungsteno de 60 W y 750 lm (lumen: unidad de flujo
luminoso). Para ciertos procesos, es muy importante que los focos tengan verdaderamente
un flujo medio de 750 lm. El ingeniero de producción cree que efectivamente la media de la
población es 750 lm. De todas maneras, para determinar si dicha hipótesis es verdadera o
no, el ingeniero diseña un experimento donde selecciona aleatoriamente 100 focos y poste-
riormente, a cada uno de ellos, le mide el flujo luminoso emitido. Es sabido que la desviación
estándar de la población σ = 15 lm. Al final, determina que la media de dicha muestra es
x̄ = 746,25 lm. Los resultados del experimento soportan la creencia del ingeniero?
5. Estimación mediante intervalos de confianza
Estimación se refiere a determinar un valor aceptable de los parámetros de una población.
Decimos “aceptable” porque generalmente es imposible determinarlos con exactitud. Por lo
tanto, mediante diferentes métodos estadísticos podemos llegar a determinar los valores de
la media y/o desviación de una población.
En realidad, existen varios estrategias de estimación de parámetros como: método de
momentos, estimadores de máxima probabilidad (maximum likelihood). Sin embargo, dado
el alcance de nuestro curso de estadística, no nos enfocaremos en estas metodologías sino que
usaremos los resultados del teorema del límite central para entregar un rango de posibles
valores para la media µ de la población a partir de una muestra en particular.
Como mencionamos anteriormente, la media muestral X̄n depende de la muestra selec-
cionada. Por tanto, si quisiéramos aproximar µ a través de X̄n, obtendríamos un valor de µ
para cada muestra seleccionada. Por eso, estimar un valor fijo para µ no es tan confiable y
por eso puede ser más útil estimar un rango en el cual se tenga “cierta” certeza de que dicho
intervalo contenga el verdadero µ.
8
A dicho nivel de certeza de que el intervalo contenga el parámetro µ se le conoce como
nivel de confianza. Por lo tanto, cada vez que se especifica un intervalo se debe adjuntar
un valor de nivel de confianza. Generalmente las estimaciones por intervalos usan niveles de
confianza del 90 o 95%. Por ejemplo, puede ocurrir que lleguemos a la conclusión de que la
vida media de un generador está entre 30 y 35 años con un nivel de confianza del 95%. Esto
significa que µ ∈ [30, 40] con un 95% de confianza.
En ocasiones puede resultar que el ancho del intervalo es muy grande, entonces cómo
hacer el análisis para hacer una estimación más precisa? Cada vez que se reduce el ancho del
intervalo, el nivel de confianza disminuye (con la misma muestra). O más bien, cada vez que
aumentamos el nivel de confianza en una inferencia, el intervalo se hace más grande. Esto
tiene mucho sentido porque si queremos obtener conclusiones con alto nivel de confianza,
i.e., con poco riesgo de equivocarnos, debemos proveer estimados más conservadores (o con
más ambigüedad). En la situación anterior podríamos decir, por ejemplo, que la vida media
de un generador está entre 28 y 37 años con un nivel de confianza del 95%. Sin embargo,
si el tamaño de la muestra puede llegar a aumentarse, esto no ocurre necesariamente. En lo
que queda de esta lectura nos dedicaremos a modelar y estudiar los intervalos de confianza
para la media µ de una población.
5.1. Intervalos de confianza de µ cuando se conoce la viarianza σ2
Población normal
Supongamos que se tiene una muestra X1, X2, . . . , Xn. Es sabido que
Z =
X̄n − µ
σ/
√
n
∼ N(0, 1)
Por lo tanto, nosotros también sabemos que P (−1,96 ≤ Z ≤ 1,96) = ,95. Así que pode-
mos definir a zα/2 tal que P (−zα/2 ≤ Z ≤ zα/2) = 1− α. Por lo tanto, para la probabilidad
de 0.95 tenemos que α = 1 -.95= .05, luego z0,05/2 = 1.96.
9
Usando la definición de zα/2, tenemos entonces que
P (−zα/2 ≤
X̄n − µ
σ/
√
n
≤ zα/2) = 1− α
Lo que queremos obtener son unos límites aleatorios para µ. Es decir, necesitamos a µ en
el medio de la desigualdad que aparece dentro de la probabilidad. Para esto multiplicaremos
por
√
n/σ en toda la desigualdad:
P (−zα/2σ/
√
n ≤ X̄n − µ ≤ zα/2σ/
√
n) = 1− α
Ahora restamos X̄n en cada término y multiplicamos por -1 como sigue:
P (X̄n + zα/2σ/
√
n ≥ µ ≥ X̄n − zα/2σ/
√
n) = 1− α
La expresión anterior se muestra con desigualdades ≥, y simplemente “rotamos” la ex-
presión para expresarla con desigualdades leq:
P (X̄n − zα/2σ/
√
n ≤ µ ≤ X̄n + zα/2σ/
√
n) = 1− α
La probabilidad que se acaba de mostrar NO se puede interpretar como la probabilidad
de que µ se encuentre entre X̄n − zα/2σ/
√
n y X̄n + zα/2σ/
√
n es 1− α porque µ no es una
variable aleatoria.
Como se observa, se han encontrado límites superiores e inferiores para µ en términos de
X̄n que es aleatoria, es como si tuviéramos un intervalo aleatorio. Por eso, la interpretación
que SI es la acertada es que existe una probabilidad de 1 − α de que el intervalo [X̄n −
zα/2σ/
√
n, X̄n + zα/2σ/
√
n] contenga el valor verdadero de µ.
Al valor 1−α se le conoce como nivel de confianza. Y éste afecta directamente a zα/2. A
medida que el nivel deconfianza se hace más grande (α más pequeño), zα/2 se hace mayor.
Por lo tanto, el ancho del intervalo también es mayor.
10
En conclusión, para una muestra en particular x1, x2, . . . , xn de una población normal, se
dice que el intervalo con (1− α)× 100 % de confianza para µ está dado por
[
[x̄n − zα/2 σ/
√
n, x̄n + zα/2 σ/
√
n]
]
que también se suele presentar como x̄n ± zα/2 σ/
√
n.
En el caso del 95% de confianza, tenemos que 1−α = .95, luego α = .05. De la distribución
normal estándar, tenemos que z,05/2 = z,025 = 1.96. Por lo tanto, el intervalo para µ con un
95% de confianza es x̄n ± 1,96 σ/
√
n.
Población no normal
Cuando la población no es normal, no podemos garantizar que la media muestral también
es normal para cualquier tamaño de muestra. Sólo si n es grande (n > 30 según [1]), podemos
usar el teorema del límite central para usar el hecho de la distribución de la variable normal
estandarizada Z tiende a una N(0, 1).
Entonces, para una muestra con n grande, tenemos que el intervalo x̄n ± zα/2 σ/
√
n es
también el intervalo con (1− α)× 100 % de confianza para µ.
Nivel de confianza, precisión y tamaño de la muestra
El ancho de los intervalos de confianza w se determina como la diferencia entre el límite
superior e inferior. Según lo visto, tenemos que
w = 2 zα/2 σ/
√
n
Por lo tanto, si queremos garantizar estimar un intervalo con una precisión dada w y un
nivel de confianza 1− α, podemos encontrar el tamaño de la muestra necesario para lograr
tales especificaciones. Despejando n de la expresión anterior tenemos que
11
n =
(
2 zα/2
σ
w
)2
Como se observa, n es una función decreciente del ancho w, es decir, a menor w mayor debe
ser el tamaño de la muestra n y viceversa. Esta expresión permite entonces determinar, antes
de realizar el experimento, cuánta información se debe recolectar partiendo de una precisión
deseada en sus inferencias.
Ejemplo 5. (Problema 4 del capítulo 7 de [1].) Se desea un intervalo de confianza para la
pérdida por carga parásita promedio verdadera µ (W) de cierto tipo de motor de inducción
cuando la corriente a través de la línea se mantiene en 10A a una velocidad de 1500 rpm.
Supoga que la pérdida por carga parásita está normalmente distribuida con σ = 30.
(a) Calcule un intervalo de confianza de 95% para µ cuando n = 25 y x̄ = 58,3.
(b) Calcule un intervalo de confianza de 95% para µ cuando n = 100 y x̄ = 58,3.
(c) Calcule un intervalo de confianza de 99% para µ cuando n = 25 y x̄ = 58,3.
(d) Calcule un intervalo de confianza de 82% para µ cuando n = 25 y x̄ = 58,3.
(e) Qué tan grande debe ser n si el ancho del intervalo de 99% para µ tiene que ser 1.0?
5.2. Intervalos de confianza de µ cuando la viarianza σ2 es desco-
nocida
Población normal
Cuando n es grande, decíamos que la variable Z = (X̄n − µ)/(S/
√
n) tiene aproxima-
damente una distribución normal. Sin embargo, cuando n es pequeño, no se cumple tal
aproximación.
Por eso entonces, se ha definido la variable aleatoria T como:
12
Tn−1 =
X̄n − µ
S/
√
n
que tiene una distribución de probabilidad denominada t con v = n− 1 grados de libertad.
La apariencia de la distribución tv es similar a la distribución normal cuando n es grande.
Para n pequeños, la distribución es más ancha que la normal.
Por lo tanto, para obtener el intervalo de confianza para µ necesitamos definir a tα/2,n−1
tal que P (−tα/2,n−1 ≤ Tn−1 ≤ tα/2,n−1) = 1− α. Al valor de tα/2,n−1 se le conoce como valor
crítico y es análogo al zα/2 mencionado anteriormente. Operando de manera similar al caso
de varianza conocida, podemos concluir que
P (X̄n − tα/2,n−1S/
√
n ≤ µ ≤ X̄n + tα/2,n−1S/
√
n) = 1− α
La interpretación de esta probabilidad es la misma que en el caso anterior. La única
diferencia es que aquí trabajamos con t y S en vez de z y σ respectivamente. Entonces, para
una muestra de cualquier tamaño n, tenemos que el intervalo x̄n± tα/2,n−1 S/
√
n es también
el intervalo con (1− α)× 100 % de confianza para µ.
Observación : Para usar la distribución Tn−1 es importante verificar que los datos de la
muestra x1, x2, . . . , xn verdaderamente se aproximen a una distribución normal. Una de las
formas de hacerlo es apoyándose de una gráfica de probabilidad normal (normal probability
plot), que en R se puede realizar usando el comando qqnorm(x) donde x es el vector que
contiene todos los datos de la muestra. Pero, qué es un gráfico de distribución normal?
Es un gráfico donde en el eje vertical se ubican los datos de la muestra ordenados. Re-
cuerde además que cada dato corresponde a un cuantil determinado. A partir de este cuantil
de la muestra, conocemos su probabilidad asociada. Luego, para ese valor de probabilidad, se
determina el cuantil teórico (theoretical quantil) correspondiente usando la cdf de la normal.
Este cuantil se ubica en el eje horizontal y se calcula para cada cuantil de la muestra. De
ahí es que viene el nombre de gráfico de probabilidad normal. En conclusión, si el gráfico
13
●●
●
●
●
●
●
●
●●●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
−2 −1 0 1 2
2.
5
3.
0
3.
5
Normal Q−Q Plot
Theoretical Quantiles
S
am
pl
e 
Q
ua
nt
ile
s
Figura 2: Gráfico de probabilidad normal
es aproximadamente una línea recta, se concluye que la muestra proviene de una población
normal. Si éste tiene forma de “S” o curva, la población no es normal.
Nosotros no haremos la gráfica manualmente por razones de tiempo; pero si usaremos R
para obtenerla. La Fig. 2 muestra un gráfico de probabilidad normal a partir de una muestra
con 50 datos de una población normal con media 40 y desviación 0.5.
Observe que el gráfico
Población no normal
Sólo si n es grande, usar los mismos resultados a partir del teorema del límite central.
Tener en cuenta que usamos Sn−1 en vez de σ.
Entonces, para una muestra con n grande, tenemos que el intervalo x̄n ± zα/2 S/
√
n es
también el intervalo con (1− α)× 100 % de confianza para µ.
Ejemplo 6. (Problema 37 del capítulo 7 de [1].) Un estudio de la capacidad de individuos
14
●
●
●
●
●
●
●
●
●
●
●
● ●
●
●
● ●
●
●
●
−2 −1 0 1 2
0.
80
0.
85
0.
90
0.
95
1.
00
1.
05
Normal Q−Q Plot
Theoretical Quantiles
S
am
pl
e 
Q
ua
nt
ile
s
Figura 3: Diagrama de probabilidad normal para el ejemplo 4
de caminar en línea recta reportó los datos adjuntos sobre cadencia (pasos por segundo) con
una muestra de n = 20 hombres saludables seleccionados al azar.
,95 ,85 ,92 ,95 ,93
,86 1 ,92 ,85 ,81
,78 ,93 ,93 1,05 ,93
1,06 1,06 ,96 ,81 ,96
Un diagrama de probabilidad normal apoya de manera sustancial la suposición de que la
distribución de la población de cadencia es aproximadamente normal. A continuación se da
un resumen descriptivo de los datos obtenidos con R.
Min. 1st Qu. Median Mean 3rd Qu. Max.
0.7800 0.8575 0.9300 0.9255 0.9600 1.0600
También se determinó que la desviación estándar de los datos es 0.0809467. Y la Fig. 3
15
muestra el diagrama de probabilidad normal realizado en R.
Calcule e interprete los intervalos de confianza de 95% y 99% para la cadencia media de
la población.
Referencias
[1] Jay L. Devore. Probabilidad y estadistica para ingenieria y ciencias, Octava edicion.
Cengage Learning, Julio 2011.
[2] Ronald E. Walpole, Raymond H. Myers, Sharon L. Myers, and Keying Ye. Probability &
statistics for engineers & scientists, 9th ed. Pearson, 2011.
16
	Introducción
	Muestreo aleatorio
	Estadísticas
	Distribución de la media muestral
	Media muestral
	Teorema del Límite Central
	Estimación mediante intervalos de confianza
	Intervalos de confianza de cuando se conoce la viarianza 2
	Intervalos de confianza de cuando la viarianza 2 es desconocida

Otros materiales