Logo Studenta

Estimación Puntual en Estadística

¡Este material tiene más páginas!

Vista previa del material en texto

Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 124 
PARTE 2 - ESTADISTICA 
 
7- Estimación puntual 
 
7. 1 – Introducción 
 
Supongamos la siguiente situación: en una fábrica se producen artículos, el interés está en la 
producción de un día, específicamente, de todos los artículos producidos en un día nos interesa una 
característica determinada, si el artículo es o no defectuoso. Sea p la proporción de artículos 
defectuosos en la población, es decir en la producción de un día. 
Tomamos una muestra de 25 artículos, podemos definir la v.a. X: “número de artículos defectuosos 
en la muestra”, y podemos asumir que ),25(~ pBX . 
En Probabilidades se conocían todos los datos sobre la v.a. X, es decir conocíamos p. De esa forma 
podíamos responder preguntas como: ¿cuál es la probabilidad que entre los 25 artículos halla 5 
defectuosos?. Si, por ejemplo, 1.0=p entonces calculábamos )5( =XP donde )1.0 ,25(~ BX . 
En Estadística desconocemos las características de X total o parcialmente, y a partir de la muestra 
de 25 artículos tratamos de inferir información sobre la distribución de X, o dicho de otra forma 
tratamos de inferir información sobre la población. 
Por ejemplo, en estadística sabremos que X tiene distribución binomial pero desconocemos p, y a 
partir de la muestra de 25 artículos trataremos de hallar información sobre p. 
En Estadística nos haremos preguntas tales como: si en la muestra de 25 artículos se encontraron 5 
defectuosos, ¿ese hecho me permite inferir que el verdadero p es 0.1?. 
El campo de la inferencia estadística está formado por los métodos utilizados para tomar decisiones 
o para obtener conclusiones sobre el o los parámetros de una población. Estos métodos utilizan la 
información contenida en una muestra de la población para obtener conclusiones. 
La inferencia estadística puede dividirse en dos grandes áreas: estimación de parámetros y pruebas 
de hipótesis. 
 
 
7.2 – Muestreo aleatorio 
 
En muchos problemas estadísticos es necesario utilizar una muestra de observaciones tomadas de la 
población de interés con objeto de obtener conclusiones sobre ella. A continuación se presenta la 
definición de algunos términos 
 
En muchos problemas de inferencia estadística es poco práctico o imposible, observar toda la 
población, en ese caso se toma una parte o subconjunto de la población 
 
 
 
 
Para que las inferencias sean válidas, la muestra debe ser representativa de la población. Se 
selecciona una muestra aleatoria como el resultado de un mecanismo aleatorio. En consecuencia, la 
selección de una muestra es un experimento aleatorio, y cada observación de la muestra es el valor 
observado de una variable aleatoria. Las observaciones en la población determinan la distribución de 
probabilidad de la variable aleatoria. 
Una población está formada por la totalidad de las observaciones en las cuales se tiene cierto 
interés 
Una muestra es un subconjunto de observaciones seleccionada de una población 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 125 
Para definir muestra aleatoria, sea X la v.a. que representa el resultado de tomar una observación de 
la población. Sea )(xf la f.d.p. de la v.a. X. supongamos que cada observación en la muestra se 
obtiene de manera independiente, bajo las mismas condiciones. Es decir, las observaciones de la 
muestra se obtienen al observar X de manera independiente bajo condiciones que no cambian, 
digamos n veces. 
Sea iX la variable aleatoria que representa la i-ésima observación. Entonces nXXX ,...,, 21 
constituyen una muestra aleatoria, donde los valores numéricos obtenidos son nxxx ,...,, 21 . Las 
variables aleatorias en una muestra aleatoria son independientes, con la misma distribución de 
probabilidad f(x) debido a que cada observación se obtiene bajo las mismas condiciones. Es decir las 
funciones de densidad marginales de nXXX ,...,, 21 son todas iguales a f(x) y por independencia, la 
distribución de probabilidad conjunta de la muestra aleatoria es el producto de las marginales 
)()...()( 21 nxfxfxf 
 
El propósito de tomar una muestra aleatoria es obtener información sobre los parámetros 
desconocidos de la población. Por ejemplo, se desea alcanzar una conclusión acerca de la proporción 
de artículos defectuosos en la producción diaria de una fábrica. Sea p la proporción de artículos 
defectuosos en la población, para hacer una inferencia con respecto a p, se selecciona una muestra 
aleatoria (de un tamaño apropiado) y se utiliza la proporción observada de artículos defectuosos en 
la muestra para estimar p. 
La proporción de la muestra p̂ se calcula dividiendo el número de artículos defectuosos en la 
muestra por el número total de artículos de la muestra. Entonces p̂ es una función de los valores 
observados en la muestra aleatoria. Como es posible obtener muchas muestras aleatorias de una 
población, el valor de p̂ cambiará de una a otra. Es decir p̂ es una variable aleatoria. Esta variable 
aleatoria se conoce como estadístico. 
 
 
 
 
 
Estadísticos usuales 
 
Sea nXXX ,...,, 21 una muestra aleatoria de una v.a. X donde µ=)(XE y 
2)( σ=XV 
Si desconocemos µ un estadístico que se utiliza para estimar ese parámetro es la media o promedio 
muestral ∑
=
=
n
i
iX
n
X
1
1
 
Análogamente si se desconoce 2σ un estadístico usado para tener alguna información sobre ese 
parámetro es la varianza muestral que se define como ( )∑
=
−
−
=
n
i
i XX
n
S
1
22
1
1
 
Otro estadístico es la desviación estándar muestral ( )∑
=
−
−
=
n
i
i XX
n
S
1
2
1
1
 
Como un estadístico es una variable aleatoria, éste tiene una distribución de probabilidad, esperanza 
y varianza. 
Las variables aleatorias ( )nXXX ,...,, 21 constituyen una muestra aleatoria de tamaño n de una 
v.a. X si nXXX ,...,, 21 son independientes idénticamente distribuidas 
Un estadístico es cualquier función de la muestra aleatoria 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 126 
Una aplicación de los estadísticos es obtener estimaciones puntuales de los parámetros 
desconocidos de una distribución. Por ejemplo como se dijo antes se suelen estimar la media y la 
varianza de una población. 
Cuando un estadístico se utiliza para estimar un parámetro desconocido se lo llama estimador 
puntual. Es habitual simbolizar en forma genérica a un parámetro con la letra θ y al estadístico que 
se utiliza como estimador puntual de θ , simbolizarlo con Θ̂ . 
Por lo tanto Θ̂ es una función de la muestra aleatoria: ( )nXXXh ,...,,ˆ 21=Θ 
Al medir la muestra aleatoria se obtienen nxxx ,...,, 21 , y entonces el valor que toma Θ̂ es 
( )nxxxh ,...,,ˆ 21=θ y se denomina estimación puntual de θ 
El objetivo de la estimación puntual es seleccionar un número, a partir de los valores de la muestra, 
que sea el valor más probable de θ . 
Por ejemplo, supongamos que 4321 ,,, XXXX es una muestra aleatoria de una v.a. X. Sabemos que X 
tiene distribución normal pero desconocemos µ . 
Tomamos como estimador de µ al promedio muestral X , es decir X=µ̂ 
Tomamos la muestra (medimos 4321 ,,, XXXX ) y obtenemos 32 ,27 ,30 ,24 4321 ==== xxxx 
Entonces la estimación puntual de µ es 25.28
4
32273024
=
+++
=x 
Si la varianza 2σ de X también es desconocida, un estimador puntual usual de 2σ es la varianza 
muestral, es decir ( )∑
=
−
−
=
n
i
i XX
n
S
1
22
1
1
, para la muestra dada la estimación de 2σ es 12.25. 
Otro parámetro que a menudo es necesario estimar es la proporción p de objetos de una población 
que cumplen una determinada característica. 
En este caso el estimador puntual de psería ∑
=
=
n
i
iX
n
p
1
1
ˆ donde 
 



 −
=
contrariocaso
erésdeticacaracteríslatienenobservacióésimaílasi
X i 0
int1
 ni ,...,2,1= 
Por lo tanto ∑
=
=
n
i
iX
n
p
1
1
ˆ es la proporción de objetos en la muestra cumplen la característica de 
interés 
 
Puede ocurrir que se tenga más de un estimador para un parámetro, por ejemplo para estimar la 
media muestral se pueden considerar el promedio muestral, o también la semisuma entre 1X y nX , 
es decir 
2
ˆ 1 n
XX +
=µ . En estos casos necesitamos de algún criterio para decidir cuál es mejor 
estimador de µ . 
 
 
7.3 – Criterios para evaluar estimadores puntuales 
 
Lo que se desea de un estimador puntual es que tome valores “próximos” al verdadero parámetro. 
Podemos exigir que el estimador Θ̂ tenga una distribución cuya media sea θ . 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 127 
 
 
 
Notar que si un estimador es insesgado entonces su sesgo es cero 
 
Ejemplos: 
1- Sea nXXX ,...,, 21 una muestra aleatoria de una v.a. X donde µ=)(XE y 
2)( σ=XV 
Si desconocemos µ un estadístico que se utiliza usualmente para estimar este parámetro es la media 
o promedio muestral ∑
=
=
n
i
iX
n
X
1
1
. Veamos si es un estimador insesgado de µ . Debemos ver si 
( ) µ=XE . 
 
Usamos las propiedades de la esperanza, particularmente la propiedad de linealidad. 
 
( ) ( )∑∑∑
===
=





=





=
n
i
i
n
i
i
n
i
i XE
n
XE
n
X
n
EXE
111
111
. 
Pero, tratándose de las componentes de una muestra aleatoria es: 
 
( ) ( ) n,...,,iµXEXE i 21=∀== . Luego: 
( ) .µµn
n
XE ==
1
 
 
2- Sea X una variable aleatoria asociada con alguna característica de los individuos de una población 
y sean ( ) µXE = y ( ) 2σXV = . Sea ( )
2
1
2
1
1
∑
=
−
−
=
n
i
i XX
n
S la varianza muestral (con 
n/XX
n
i
i 





= ∑
=1
 la esperanza muestral) para una muestra aleatoria de tamaño n, ( )nX,...,X,X 21 . 
Entonces ( ) 22 σSE = es decir ( )
2
1
2
1
1
∑
=
−
−
=
n
i
i XX
n
S es un estimador insesgado de ( ) 2σXV = 
pues: 
 
( ) ( ) ( ) 






−
−
=







−
−
= ∑∑
==
2
1
2
1
2
1
1
1
1 n
i
i
n
i
i XXE
n
XX
n
ESE . 
Reescribiremos la suma de una forma más conveniente. Sumamos y restamos µ y desarrollamos el 
cuadrado: 
 
( ) ( ) [ ] [ ]( ) =−+−=−+−=− ∑∑∑
===
2
1
2
1
2
1
n
i
i
n
i
i
n
i
i XXXXXX µµµµ 
[ ] [ ][ ] [ ]∑
= 





−+−−+−=
n
i
ii XXXX
1
22
2 µµµµ [ ] [ ] [ ] [ ] =−+−−+−= ∑∑
==
2
11
2
2 XnXXX
n
i
i
n
i
i µµµµ 
Se dice que el estimador puntual Θ̂ es un estimador insesgado del parámetro θ si ( ) θ=Θ̂E 
cualquiera sea el valor verdadero de θ 
La deferencia ( ) θ−Θ̂E se conoce como sesgo de estimador Θ̂ . Anotamos ( ) ( ) θ−Θ=Θ ˆˆ Eb 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 128 
[ ] [ ] [ ] [ ]2
1
2
2 XnXnXX
n
i
i −+−−+−= ∑
=
µµµµ [ ] [ ] [ ]22
1
2
2 XµnXµnµX
n
i
i −+−−−= ∑
=
. 
 
Esto es: 
 
( ) [ ] [ ]2
1
2
2
1
XµnµXXX
n
i
i
n
i
i −−−=− ∑∑
==
 
 
Entonces: 
 
( ) ( ) [ ] [ ] =





−−−
−
=







−
−
= ∑∑
==
2
1
2
2
1
2
1
1
1
1
XnXE
n
XXE
n
SE
n
i
i
n
i
i µµ 
[ ] [ ] =





−−−
−
= ∑
=
2
1
2
1
1
µµ XnEXE
n
n
i
i
( ) ( )[ ] ( ) ( ) =





−
−
=





−−
−
= ∑∑
==
XnVXV
n
XEXnEXV
n
n
i
i
n
i
i
1
2
1 1
1
1
1
 





−
− n
nn
n
2
2
1
1 σ
σ , 
 
donde en la última igualdad tuvimos en cuenta que ( ) ( ) n,...,,iσXVXV i 212 =∀== y que 
( )
n
σ
XV
2
= . Luego llegamos a lo que se deseaba demostrar: ( ) 22 σSE = . 
 
3- Supongamos que tomamos como estimador de 2σ a ( )
2
1
2 1ˆ ∑
=
−=
n
i
i XX
n
σ 
Entonces notar que podemos escribir ( )
( )
21
2
2
1
2 1
1
11
ˆ S
n
n
n
XX
n
n
XX
n
n
i
in
i
i
−
=
−
−
−
=−=
∑
∑ =
=
σ 
Por lo tanto ( ) ( ) 22222 111ˆ σσσ ≠−=−=




 −=
n
n
SE
n
n
S
n
n
EE 
Es decir 2σ̂ no es un estimador insesgado de 2σ , es sesgado, y su sesgo es 
 ( ) ( ) 222222 11ˆˆ σσσσσσ
nn
n
Eb −=−




 −=−= 
Como el sesgo es negativo el estimador tiende a subestimar el valor de verdadero parámetro 
 
 
En ocasiones hay más de un estimador insesgado de un parámetro θ 
Por lo tanto necesitamos un método para seleccionar un estimador entre varios estimadores 
insesgados. 
 
 
Varianza y error cuadrático medio de un estimador puntual 
 
Supongamos que 1Θ̂ y 2Θ̂ son dos estimadores insegados de un parámetro θ . Esto indica que la 
distribución de cada estimador está centrada en el verdadero parámetro θ . Sin embargo las varianzas 
de estas distribuciones pueden ser diferentes. La figura siguiente ilustra este hecho. 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 129 
 
 -15 -10 -5 5 10 15
0.1
0.2
0.3
0.4
 
 
 
 
Como 1Θ̂ tiene menor varianza que 2Θ̂ , entonces es más probable que el estimador 1Θ̂ produzca 
una estimación más cercana al verdadero valor de θ . Por lo tanto si tenemos dos estimadores 
insesgados se seleccionará aquel te tenga menor varianza. 
 
Ejemplo: Sea nXXX ,...,, 21 una muestra aleatoria de una v.a. X donde µ=)(XE y 
2)( σ=XV 
Suponemos µ desconocido. 
Estimamos al parámetro µ con la media o promedio muestral ∑
=
=
n
i
iX
n
X
1
1
. Sabemos que es un 
estimador insesgado de µ . Anotamos ∑
=
==
n
i
iX
n
X
1
1
1
µ̂ 
Supongamos que tomamos otro estimador para µ , lo anotamos 
2
ˆ 1
2
nXX +=µ 
Entonces como 
( ) ( ) ( )( ) ( ) µµµµµ ==+=+=




 +
= 2
2
1
2
1
2
1
2
ˆ
21
1
2 XEXE
XX
EE n , 
2
ˆ 1
2
nXX +=µ es también un estimador insesgado de µ 
¿Cuál de los dos estimadores es mejor? 
Calculamos la varianza de cada uno utilizando las propiedades de la varianza. 
Ya sabemos cuál es la varianza de ∑
=
=
n
i
iX
n
X
1
1
 (se la halló para T.C.L.): 
( )=XV ( ),XV
n
XV
n
X
n
V
n
i
i
n
i
i
n
i
i ∑∑∑
===
=





=





1
2
1
2
1
111
 
 
donde en la última igualdad hemos tenido en cuenta que, por tratarse de una muestra aleatoria, las 
iX con i=1,2,…,n son variables aleatorias independientes y, en consecuencia, la varianza de la suma 
de ellas es la suma de las varianzas. Si tenemos en cuenta que además todas tienen la misma 
distribución que X y por lo tanto la misma varianza: 
 
( ) ( ) n,...,,iσXVXV i 212 =∀== , tenemos 
( )=XV .
n
σ
σn
n
2
2
2
1
= 
Distribución de 1Θ̂ 
Distribución de 2Θ̂ 
θ 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 130 
Análogamente calculamos la varianza de 
2
ˆ 1
2
nXX +=µ : 
( ) ( ) ( )
24
1
)()(
4
1
2
ˆ
2
22
21
1
2
σ
σσµ =+=+=




 += XVXV
XX
VV n 
Vemos que si 2>n entonces )ˆ()ˆ( 21 µµ VV < . Por lo tanto si 2>n es mejor estimador 1µ̂ 
 
 
Supongamos ahora que 1Θ̂ y 2Θ̂ son dos estimadores de un parámetro θ y alguno de ellos no es 
insesgado. 
A veces es necesario utilizar un estimador sesgado. En esos casos puede ser importante el error 
cuadrático medio del estimador. 
 
 
 
 
 
 
 
 
El error cuadrático medio puede escribirse de la siguiente forma: 
 
 ( ) ( ) ( )( )2ˆˆˆ Θ+Θ=Θ bVECM 
 
Dem.) Por definición ( ) ( )  −Θ=Θ
2ˆˆ θEECM . Sumamos y restamos el número ( )Θ̂E : 
( ) ( ) ( )( )  −Θ+Θ−Θ=Θ
2ˆˆˆˆ θEEEECM , ydesarrollamos el cuadrado: 
 
( ) ( ) ( )( ) ( )( ) ( )( ) ( )( ) ( )( ) = −ΘΘ−Θ+−Θ+Θ−Θ= −Θ+Θ−Θ=Θ θθθ ˆˆˆ2ˆˆˆˆˆˆˆ
222
EEEEEEEEECM 
 
Aplicamos propiedades de la esperanza: 
 
( )( )
( )
( )( )
( )
( )( ) ( )( ) ( ) ( )( )2
0ˆ
2
ˆ
2 ˆˆˆˆˆ2ˆˆˆ
2
Θ+Θ=Θ−Θ−Θ+−Θ+


 Θ−Θ=
Θ
Θ
bVEEEEEE
b
V
4342143421
44 344 21
θθ 
 
El error cuadrático medio es un criterio importante para comparar estimadores. 
 
 
 
 
 
 
 
 
Si la eficiencia relativa es menor que 1 entonces 1Θ̂ tiene menor error cuadrático medio que 2Θ̂ 
Por lo tanto 1Θ̂ es más eficiente que 2Θ̂ 
El error cuadrático medio de un estimador Θ̂ de un parámetro θ está definido como 
 ( ) ( )  −Θ=Θ
2ˆˆ θEECM 
Si 1Θ̂ y 2Θ̂ son dos estimadores de un parámetro θ . 
La eficiencia relativa de 2Θ̂ con respecto a 1Θ̂ se define como 
( )
( )2
1
ˆ
ˆ
Θ
Θ
ECM
ECM
 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 131 
Observaciones: 
1- Si Θ̂ es un estimador insesgado de θ , entonces ( ) ( )Θ=Θ ˆˆ VECM 
2- A veces es preferible utilizar estimadores sesgados que estimadores insesgados, si es que tienen 
un error cuadrático medio menor. 
En el error cuadrático medio se consideran tanto la varianza como el sesgo del estimador. 
Si 1Θ̂ y 2Θ̂ son dos estimadores de un parámetro θ , tales que ( ) θ=Θ1ˆE ; ( ) θ≠Θ2ˆE y 
( ) ( )12 ˆˆ Θ<Θ VV , habría que calcular el error cuadrático medio de cada uno, y tomar el que tenga 
menor error cuadrático medio. Pues puede ocurrir que 2Θ̂ , aunque sea sesgado, al tener menor 
varianza tome valores mas cercanos al verdadero parámetro que 1Θ̂ 
 
 -7.5 -5 -2.5 2.5 5 7.5
0.1
0.2
0.3
0.4
 
 
 
 
Ejemplo: 
Supóngase que 1Θ̂ , 2Θ̂ y 3Θ̂ son dos estimadores de un parámetro θ , y que 
( ) ( ) ;ˆˆ 21 θ=Θ=Θ EE ( ) θ≠Θ3ˆE , 10)ˆ( 1 =θV , 6)ˆ( 2 =ΘV y ( ) 4ˆ 23 = −Θ θE . Haga una comparación 
de estos estimadores. ¿Cuál prefiere y por qué? 
 
Solución: Calculamos el error cuadrático medio de cada estimador 
( ) ( ) 10ˆˆ 11 =Θ=Θ VECM pues 1Θ̂ es insesgado 
( ) ( ) 6ˆˆ 22 =Θ=Θ VECM pues 2Θ̂ es insesgado 
( ) ( ) 4ˆˆ 233 = −Θ=Θ θEECM es dato 
 En consecuencia 3Θ̂ es el mejor estimador de los tres dados porque tiene menor error cuadrático 
 medio. 
 
 
Consistencia de estimadores puntuales 
 
 
Distribución de 
1Θ̂ 
Distribución de 2Θ̂ 
θ 
Sea nΘ̂ un estimador del parámetro θ , basado en una muestra aleatoria ( )nX,...,X,X 21 de 
tamaño n. Se dice que nΘ̂ es un estimador consistente de θ si 
 
 ( ) 0ˆlim =≥−Θ
∞→
εθn
n
P para todo 0>ε 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 132 
Observación: 
Este tipo de convergencia, que involucra a una sucesión de variables aleatorias, se llama 
convergencia en probabilidad y es la misma que consideramos en relación a la ley de los grandes 
números Suele escribirse también θ
P
n →Θ̂ . 
Este tipo de convergencia debe distinguirse de la considerada en relación al teorema central del 
límite. En este último caso teníamos una sucesión de distribuciones: ( ) ( )zZPzF nZ n ≤= y se 
considera el límite ( ) ( ) ( )zzZPlimzFlim n
n
Z
n n
Φ=≤=
∞→∞→
. 
Se habla, entonces, de convergencia en distribución y suele indicarse ZZ
d
n → ∼ ( )10,N . 
 
Teorema. Sea nΘ̂ un estimador del parámetro θ basado en una muestra aleatoria ( )nX,...,X,X 21 . 
Si ( ) θ=Θ
∞→ nn
E ˆlim y ( ) 0ˆlim =Θ
∞→ nn
V , entonces nΘ̂ es un estimador consistente de θ . 
Dem.) 
Utilizamos la desigualdad de Chebyshev 0>∀ε : 
 
( ) ( ) ( ) ( ) ( )  Θ+Θ=Θ=
−Θ
≤≥−Θ
2
222
2
ˆˆ1ˆ1
ˆ
ˆ
nnn
n
n bVECM
E
P
εεε
θ
εθ 
 
Entonces, al tomar el límite 
∞→n
lim y teniendo presente que ( ) θ=Θ
∞→ nn
E ˆlim y ( ) 0ˆlim =Θ
∞→ nn
V , vemos que 
( ) 0ˆlim =≥−Θ
∞→
εθn
n
P 0>∀ε , es decir nΘ̂ es un estimador convergente de θ . 
 
 
Ejemplo: 
Sea X una variable aleatoria que describe alguna característica numérica de los individuos de una 
población y sean ( )XEµ = y ( )XVσ =2 la esperanza poblacional y la varianza poblacional, 
respectivamente. Sea ∑
=
=
n
i
iX
n
X
1
1
 la esperanza muestral basada en una muestra aleatoria 
( )nX,...,X,X 21 . Entonces X es un estimador consistente de la esperanza poblacional ( )XEµ = . 
 
Sabemos que 
a) ( ) ( )XEµXE == n∀ 
b) ( ) ( )
n
XV
n
σ
XV ==
2
 n∀ 
La propiedad a) ya me dice que X es un estimador insesgado de ( )XEµ = . 
Por otra parte si a) vale para todo n, también vale en particular en el límite ∞→n : 
( ) ( )XEµXElim
n
==
∞→
. 
Además, de b) deducimos inmediatamente que 
( ) 0=
∞→
XVlim
n
. 
Por lo tanto vemos que X es un estimador consistente de ( )XEµ = . 
 
 
 
 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 133 
7.4 – Métodos de estimación puntual 
 
Los criterios anteriores establecen propiedades que es deseable que sean verificadas por los 
estimadores. Entre dos estimadores posibles para un dado parámetro poblacional es razonable elegir 
aquél que cumple la mayor cantidad de criterios o alguno en particular que se considera importante 
para el problema que se esté analizando. Sin embargo estos criterios no nos enseñan por sí mismos a 
construir los estimadores. Existen una serie de métodos para construir estimadores los cuales en 
general se basan en principios básicos de razonabilidad. Entre éstos podemos mencionar: 
 
- Método de los momentos 
 
- Método de máxima verosimilitud 
 
 
Método de los momentos 
 
Se puede probar usando la desigualdad de Chebyshev el siguiente resultado: 
 
 
Definimos los momentos de orden k de una variable aleatoria como: 
 
( ) ( )∑
∈
==
Xi Rx
i
k
i
k
k xpxXEµ ( ),...,,k 210= Si X es discreta 
 
( ) ( )∫
+∞
∞−
== dxxfxXEµ kkk ( ),...,,k 210= Si X es continua, 
 
y definimos los correspondientes momentos muestrales de orden k como: 
 
∑
=
=
n
i
k
ik X
n
M
1
1
 ( ),...,,k 210= , 
 
Entonces la ley débil de los grandes números se puede generalizar: 
 
( ) 0lim =≥−
∞→
εµkk
n
MP ( ),...,,k 210= . 
 
De acuerdo con esto parece razonable estimar los momentos poblacionales de orden k mediante los 
momentos muestrales de orden k: kµ ∼ kM ( ),...,,k 210= . 
 
Ley débil de los grandes números: 
Sean ( )nX,...,X,X 21 n variables aleatorias independientes todas las cuales tienen la misma 
esperanza ( )XEµ = y varianza ( )XVσ =2 . Sea ∑
=
=
n
i
iX
n
X
1
1
. Entonces 
 ( ) 0lim =≥−
∞→
εµXP
n
 
Decimos que X converge a µ en probabilidad y lo indicamos: µX
p
→ . 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 134 
Supongamos, entonces, una variable aleatoria X y supongamos que la distribución de X depende de r 
parámetros rθθθ ,...,, 21 , esto es la fdp poblacional es ( )rixp θθθ ,...,,, 21 si X es discreta o 
( )rxf θθθ ,...,,, 21 si es continua. Sean rµ,...,µ,µ 21 los primeros r momentos poblacionales: 
 
 
( ) ( )∑
∈
==
Xi Rx
ri
k
i
k
k xpxXE θθθµ ,...,,, 21 ( )r,...,,k 21= Si X es discreta 
 
( ) ( )∫
+∞
∞−
== dxxfxXE r
kk
k θθθµ ,...,,, 21 ( )r,...,,k 21= Si X es continua, 
y sean 
 
∑
==
n
i
k
ik X
n
M
1
1
 ( )r,...,,k 21= los r primeros momentos maestrales para una muestra de tamaño n 
( )nX,...,X,X 21 . Entonces el método de los momentos consiste en plantear el sistema de ecuaciones: 
 
 








=
=
=
rr Mµ
Mµ
Mµ
MMM
22
11
 
 
Es decir 
 
( )
( )
( )










=
=
=
∑∑
∑∑
∑∑
=∈
=∈
=∈
n
i
r
i
Rx
ri
r
i
n
i
i
Rx
rii
n
i
i
Rx
rii
X
n
xpx
X
n
xpx
X
n
xpx
Xi
Xi
Xi
1
21
1
2
21
2
1
1
21
1
,...,,,
1
,...,,,
1
,...,,,
θθθ
θθθ
θθθ
MMM
 Si X es discreta, 
 
o 
 
( )
( )
( )










=
=
=
∑∫
∑∫
∑∫
=
∞+
∞−
=
∞+
∞−
=
+∞
∞−
n
i
r
ir
r
n
i
ir
n
i
ir
X
n
dxxfx
X
n
dxxfx
X
n
dxxxf
1
21
1
2
21
2
1
1
21
1
,...,,,
1
,...,,,
1
,...,,,
θθθ
θθθ
θθθ
MMM
 Si X es continua. 
 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 135 
Resolviendo estos sistema de ecuaciones para los parámetros desconocidos rθθθ ,...,, 21 en función de 
la muestra aleatoria ( )nX,...,X,X 21 obtenemos los estimadores: 
 
 
( )
( )
( )






=Θ
=Θ
=Θ
nrr
n
n
XXXH
XXXH
XXXH
,...,,ˆ
,...,,ˆ
,...,,ˆ
21
2122
2111
M
 
 
 
Observación: 
En la forma que presentamos aquí el método necesitamos conocer la forma de la fdp poblacional, por 
lo tanto estamos frente a un caso de estimación puntual paramétrica. 
 
Ejemplos: 
1- Sea X una variable aleatoria. Supongamos que X tiene distribución gama con parámetros σ y λ : 
X ∼ ( )λ,σΓ , es decir su fdp está dada por: 
 
( )





>





=
−
−
valoresdemás
xe
σ
x
λσ)x(f
σ
xλ
0
0
1
1
Γ 
con 0>σ ; 0>λ y ( ) ∫
∞
−−=Γ
0
1 dxexλ xλ . 
Sea ( )nXXX ,...,, 21 una muestra aleatoria de tamaño n. Deseamos calcular los estimadores de σ y λ 
dados por el método de los momentos. 
 
Solución: 
Como tenemos dos parámetros desconocidos a estimar, planteamos el sistema de ecuaciones: 
 
 



=
=
22
11
Mµ
Mµ
 
 
Se puede probar que 
 
 σ.λµ =1 
 
222
2 σ.λσ.λµ += 
 
Tenemos, entonces, el sistema de ecuaciones 
 
 






=+
=
∑
∑
=
=
n
i
i
n
i
i
X
n
σ.λσ.λ
X
n
σ.λ
1
2222
1
1
1
 ⇒ 





=+
=
∑
=
n
i
iX
n
X
1
2222 1..
.
σλσλ
σλ
 
 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 136 
Reemplazando en la segunda ecuación: ∑
=
=+
n
i
iX
n
XX
1
22 1σ ⇒ 
X
XX
n
n
i
i∑
=
−
= 1
221
σ 
Y despejando λ de la primera ecuación y reemplazando la expresión hallada para σ 
 
 
 
( )
( )









−
=
−
=
∑
∑
=
=
Xn
XX
XX
Xn
n
i
i
n
i
i
1
2
1
2
2
ˆ
ˆ
σ
λ
 
 
 
2- Sea ( )nXXX ,...,, 21 una muestra aleatoria de tamaño n de una v.a. X donde [ ]θ,0~UX , θ 
desconocido. Hallar el estimador de θ por el método de los momentos. 
 
Solución: 
Planteamos la ecuación: 11 M=µ 
Sabemos que 
22
0
)(1
θθ
µ =
+
== XE . Entonces X=
2
θ
 ⇒ X2ˆ =Θ 
Observación: notar que el estimador X2ˆ =Θ es un estimador consistente de θ , pues 
( ) ( ) ( ) θθ ====Θ
2
222ˆ XEXEE y ( ) ( ) ( ) ( ) 0
312
0
442ˆ
22
∞→
→=
−
===Θ
nnn
XVXVV
θθ
 
 
3- Sea ( )nX,...,X,X 21 una muestra aleatoria de una v.a. X~ ),( 2σµN . 
Encuentra los estimadores de µ y σ por el método de momentos. 
 
Solución: 
Planteamos las ecuaciones 
 
 



=
=
22
11
Mµ
Mµ
 ⇒ ( )



=
=
∑
=
n
i
iX
n
XE
X
1
22 1
µ
 
 
pero en general es válido que 22 )()( µ−= XEXV ⇒ µ+= )()( 2 XVXE 
Entonces las ecuaciones quedan 
 




=+
=
∑
=
n
i
iX
n
X
1
222 1µσ
µ
 ⇒ 




−=
=
∑
=
2
1
22 1ˆ
ˆ
XX
n
X
n
i
iσ
µ
 
 
 
4- Sea ( )nX,...,X,X 21 una muestra aleatoria de una v.a. X~ ),0( 2σN . 
Hallar un estimador por el método de los momentos de 2σ 
 
Solución: en este caso no es conveniente plantear 11 M=µ pues quedaría 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 137 
la ecuación X=0 que no conduce a nada. 
Entonces podemos plantear 22 M=µ es decir 
∑
=
=
n
i
iX
n
XE
1
22 1)( ⇒ ∑
=
=+
n
i
iX
n 1
22 10σ ⇒ ∑
=
=
n
i
iX
n 1
22 1σ̂ 
 
 
Observación: si Θ̂ es un estimador por el método de los momentos de un parámetro θ , el estimador 
de los momentos de ( )θg es ( )Θ̂g , si )(xg es una función inyectiva. 
Por ejemplo, en el ejemplo anterior un estimador de σ por el método de los momentos sería 
∑
=
==
n
i
iX
n 1
22 1ˆˆ σσ . Notar que xxg =)( es inyectiva para los reales positivos. 
 
 
Método de máxima verosimilitud 
 
Uno de los mejores métodos para obtener un estimador puntual de un parámetro es el método de 
máxima verosimilitud. 
 
La interpretación del método sería: el estimador de máxima verosimilitud es aquel valor del 
parámetro que maximiza la probabilidad de ocurrencia de los valores muestrales 
 
La adaptación para el caso en que X es una v.a. continua sería la siguiente 
 
Notación: abreviamos estimador de máxima verosimilitud con EMV 
 
 
 
Supongamos que X es una v.a. discreta con función de distribución de probabilidad ),( θxp , 
donde θ es un parámetro desconocido. Sean nxxx ,...,, 21 los valores observados de una muestra 
aleatoria de tamaño n. 
Se define la función de verosimilitud como la función de distribución conjunta de las 
observaciones: 
 ( ) ),().....,().,()()...()(,,...,, 21221121 θθθθ nnnn xpxpxpxXPxXPxXPxxxL ===== 
Notar que la función de verosimilitud es una función de θ . 
El estimador de máxima verosimilitud de θ es aquel valor de θ que maximiza la función de 
verosimilitud 
Supongamos que X es una v.a. continua con función de densidad de probabilidad ),( θxf , donde 
θ es un parámetro desconocido. Sean nxxx ,...,, 21 los valores observados de una muestra 
aleatoria de tamaño n. 
Se define la función de verosimilitud como la función de distribución conjunta de las 
observaciones: 
 ( ) ),().....,().,(,,...,, 2121 θθθθ nn xfxfxfxxxL = 
La función de verosimilitud es una función de θ . 
El estimador de máxima verosimilitud de θ es aquel valor de θ que maximiza la función de 
verosimilitud 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 138 
Ejemplos: 
1- Sea ( )nX,...,X,X 21 una muestra aleatoria de una v.a. X~ ),1( pB 
Por ejemplo, se eligen al azar n objetos de una línea de producción, y cada uno se clasifica como 
defectuoso (en cuyo caso 1=ix ) o no defectuoso (en cuyo caso 0=ix ). 
Entonces )1( == iXPp , es decir es la verdadera proporción de objetos defectuosos en la producción 
total. 
Queremos hallar el EMV de p 
 
Solución: 
Si X~ ),1( pB entonces kk pp
k
kXP −−





== 1)1(
1
)( 1,0=k 
Planteamos la función de verosimilitud 
 
( ) ( ) ( ) ( ) ( )[ ] ( )[ ] ( )[ ]nn xxxxxxnn pppppppxppxppxppxxxL −−− −−−== 1112121 1...11;...;;;,..,, 2211 
 
Esto puede escribirse: 
 
( ) ( ) ∑−
∑
= ==
−
n
i
i
n
i
i
xn
x
n pppxxxL 1
1 1;,...,, 21 
 
Para maximizar la función de verosimilitudy facilitar los cálculos tomamos el logaritmo natural de L 
Pues maximizar L es equivalente a maximizar ln(L) y al tomar logaritmos transformamos productos 
en sumas. 
Entonces 
 ( )( ) ( )pxnpxpxxxL
n
i
i
n
i
in −





−+





= ∑∑
==
1lnln;,...,,ln
11
21 
Y ahora podemos maximizar la función derivando e igualando a cero 
 
 
( )
0
1
;,...,,ln 1121 =
−
−
−=
∂
∂ ∑∑ ==
p
xn
p
x
p
pxxxL
n
i
i
n
i
i
n 
de donde despejando p 
x
n
x
p
n
i
i
==
∑
=1 la proporción de defectuosos en la muestra 
Por lo tanto se toma como estimador a ∑
=
==
n
i
iX
n
Xp
1
1
ˆ 
 
2- El tiempo de fallar T de una componente tiene una distribución exponencial con parámetro λ : 
 T∼ ( )λExp , es decir la fdp es 
 
 ( )



 ∞<≤
=
−
valoresdemás
te
tf
t
0
0
;
λλ
λ 
 
Recordemos que la esperanza y varianza son: 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 139 
 
( ) λ
1=TE y ( ) 21λ=TV , respectivamente. 
 
Se desea calcular el estimador de máxima verosimilitud del parámetro λ para una muestra de 
tamaño n. 
 
Solución: 
La función de probabilidad es: 
( ) ( ) ( ) ( ) [ ] [ ] [ ]ntttnn eeetftftftttL λλλ λλλλλλλ −−− ×××== ...;...;;;,...,, 212121 , 
 
que puede escribirse: 
 
 ( ) ( )
∑
= =
−
n
i
it
n
n etttL
1;,...,, 21
λ
λλ 
 
Nuevamente tomamos logaritmo natural 
 
 ( ) ∑−=
=
n
i
in tntttL
1
21 ln;,...,,ln λλσ 
 
 
( )
0
1;,...,,ln
1
21 =∑−=
∂
∂
=
n
i
i
n Tn
tttL
λλ
λ
 
de donde podemos despejar λ : 
 
t
t
n
n
i
i
==
∑
=1
λ , entonces el estimador de λ es 
∑
=
=
n
i
iT
n
1
λ̂ 
 
 
El método de máxima verosimilitud presenta, algunas veces, dificultades para maximizar la función 
de verosimilitud debido a que la ecuación obtenida a partir de 0)( =θ
θ
L
d
d
 no resulta fácil de 
resolver. O también puede ocurrir que los métodos de cálculo para maximizar )(θL no son 
aplicables. 
 
Por ejemplo: 
Sea ( )nXXX ,...,, 21 una muestra aleatoria de tamaño n de una v.a. X donde [ ]θ,0~UX , θ 
desconocido. Hallar el estimador de θ por el método máxima verosimilitud. 
Solución: 
La f.d.p. de X es 
 




 <<
=
contrariocaso
xsi
xf
0
0
1
)(
θ
θ 
Planteamos la función de verosimilitud 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 140 
 ( )
( )




 <
=




 ∀<<
=
contrariocaso
xsi
contrariocaso
ixsi
xxxL
i
i
nin
n
0
max
1
0
0
1
,,..., 21
θ
θ
θ
θθ 
 
Si derivamos con respecto a θ obtenemos 
1+
− −=
n
n n
d
d
θ
θ
θ
 que es siempre menor que cero. Por lo 
tanto la función de verosimilitud es una función decreciente para todos los ( )i
i
xmax>θ 
Si hacemos un gráfico de la función de verosimilitud 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Vemos que donde la función tiene el máximo hay una discontinuidad no evitable. 
Por lo tanto ( )i
i
xmaxˆ =Θ 
 
El método de máxima verosimilitud puede emplearse en el caso donde hay más de un parámetro 
desconocido para estimar. En ese caso la función de verosimilitud es una función de varias variables. 
Específicamente si tenemos para estimar k parámetros kθθθ ,..., 21 , entonces la función de 
verosimilitud es una función de k variables ( )knxxxL θθθ ,...,,,...,, 2121 y los estimadores de máxima 
verosimilitud kΘΘΘ ˆ,...ˆ,ˆ 21 se obtienen al plantear ( si existen las derivadas parciales) y resolver el 
sistema de k ecuaciones con k incógnitas kθθθ ,..., 21 
 ( ) kixxxL
d
d
kn
i
,..2,10,...,,,...,, 2121 ==θθθθ
 
 
Ejemplo: 
La variable aleatoria X tiene distribución ( )2σ,µN con µ y 2σ ambos parámetros desconocidos para 
los cuales se desea encontrar los estimadores máxima verosimilitud. La fdp es 
 
 ( )
2
2
1
2
2
1 



 −
−
= σ
µx
e
σπ
σ,µ;xf ∞<<∞− x , 
La función de verosimilitud para una muestra aleatoria de tamaño n es 
 
 
θ ( )i
i
xmax 
)(θL 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 141 
( )
( )
2
1
22
2
2
1
2
1
2
2
2
1
2
1
2
1
2
21
2
2
1
...
2
1
2
1
,;,...,,





 −−
−





 −−




 −
−




 −
−
∑
=
==
= σ
µ
σ
µ
σ
µ
σ
µ
πσ
σπσπσπ
σµ
i
n
i
n
x
n
xxx
n
e
eeexxxL
 
Luego 
( ) ( )
2
1
22
21
2
1
2ln
2
,;,...,,ln ∑
=





 −−−=
n
i
i
n
xn
xxxL
σ
µ
πσσµ 
y el sistema de ecuaciones de verosimilitud queda: 
 
 
( )
( ) ( )






=
−
+−=
∂
∂
=




 −=
∂
∂
∑
∑
=
=
0
2
1
2
,;,...,,ln
0
,;,...,,ln
1
4
2
22
2
21
1
2
21
n
i
in
n
i
in
xnxxxL
xxxxL
σ
µ
σσ
σµ
σ
µ
µ
σµ
 
 
Resolvemos con respecto a µ y 2σ : 
 
 
( ) ( )






−=−=
==
∑ ∑
∑
= =
=
n
i
n
i
ii
n
i
i
xx
n
x
n
xx
n
1 1
222
1
11
1
µσ
µ
 
 
Entonces los estimadores máxima verosimilitud de µ y 2σ son 
 
 
( )






−=
==
∑
∑
=
=
n
i
i
n
i
i
XX
n
XX
n
1
22
1
1
ˆ
1
ˆ
σ
µ
 
 
 
Propiedades de los estimadores máxima verosimilitud 
 
1- Los EMV pueden ser sesgados, pero en general si Θ̂ es el EMV de un parámetro θ basado en 
una muestra de tamaño n, entonces θ=Θ
∞→
)ˆ(limE
n
, es decir son asintóticamente insesgados 
2- Bajo condiciones bastantes generales se puede probar que los EMV son asintóticamente 
consistentes 
3- Bajo condiciones bastantes generales se puede probar que los EMV asintóticamente tienen 
varianza mínima 
4-Los EMV cumplen la propiedad de invarianza es decir: 
si Θ̂ es un EMV de un parámetro θ , el EMV de ( )θg es ( )Θ̂g , si )(xg es una función inyectiva. 
 
Ejemplos: 
1- Si consideramos nuevamente la situación considerada en el Ejemplo 2, donde teníamos una v.a. T 
cuya distribución es una exponencial: T∼ ( )λExp , entonces, si queremos el EMV de la varianza 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 142 
poblacional, podemos calcularlo recordando que ( ) 21λ=TV , es decir, ( ) ( ) 2
1
λ
λ == gTV . Vimos 
que 
T
T
n
n
i
i
1ˆ
1
==
∑
=
λ . Por lo tanto el EMV de la varianza es 
2
2
ˆ
1
ˆ
λ
σ = . 
 
2- Sea nXXX ,........,, 21 una muestra aleatoria de una v.a. ),1( pB . Un EMV de p es ∑
=
==
n
i
iX
n
Xp
1
1
ˆ 
 Se selecciona una muestra aleatoria de n cascos para ciclistas fabricados por cierta compañía. 
 Sea X : “ el número entre los n que tienen defectos” , y p = P(el casco tiene defecto). 
Supongamos que solo se observa X ( el número de cascos con defectos). 
Si n = 20 y x = 3, es la estimación de p es 
20
3
ˆ =p 
El E.M.V. de la probabilidad (1-p)
5
, de que ninguno de los siguientes cinco cascos que se examinen 
tenga defectos será ( )5ˆ1 p− y su estimación en este caso 
5
20
3
1 




 − 
 
 
 
 
8- Intervalos de confianza 
 
8.1 – Introducción 
 
Se ha visto como construir a partir de una muestra aleatoria un estimador puntual de un parámetro 
desconocido. En esos casos necesitábamos dar algunas características del estimador, como por 
ejemplo si era insesgado o su varianza. 
A veces resulta másconveniente dar un intervalo de valores posibles del parámetro desconocido, de 
manera tal que dicho intervalo contenga al verdadero parámetro con determinada probabilidad. 
Específicamente, a partir de una muestra aleatoria se construye un intervalo ( )21 ˆ,ˆ ΘΘ donde los 
extremos 1Θ̂ y 2Θ̂ son dos estadísticos, tal que ( )( ) αθ −=ΘΘ∈ 1ˆ,ˆ 21P donde θ es el parámetro 
desconocido a estimar y α es un valor real entre cero y uno dado de antemano. Por ejemplo si 
05.0=α , se quiere construir un intervalo ( )21 ˆ,ˆ ΘΘ tal que ( )( ) 95.0ˆ,ˆ 21 =ΘΘ∈θP , o escrito de otra 
forma ( ) 95.0ˆˆ 21 =Θ≤≤Θ θP 
Esta probabilidad tiene el siguiente significado: como 1Θ̂ y 2Θ̂ son estadísticos, los valores que 
ellos toman varían con los valores de la muestra, es decir si nxxx ,...,, 21 son los valores medidos de 
la muestra entonces el estadístico 1Θ̂ tomará el valor 1θ y el estadístico 2Θ̂ tomará el valor 2θ . Si 
medimos nuevamente la muestra obtendremos ahora valores 
,,
2
´,
1 ,...,, nxxx y por lo tanto 1Θ̂ tomará 
el valor 
,
1θ y el estadístico 2Θ̂ tomará el valor 
,
2θ , diferentes en general de los anteriores. Esto 
significa que si medimos la muestra 100 veces obtendremos 100 valores diferentes para 1Θ̂ y 2Θ̂ y 
por lo tanto obtendremos 100 intervalos distintos, de los cuales aproximadamente 5 de ellos no 
contendrán al verdadero parámetro. 
Al valor α−1 se lo llama nivel de confianza del intervalo. También se suele definir como nivel de 
confianza al ( ) %1001 α− 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 143 
La construcción repetida de un intervalo de confianza para µ se ilustra en la siguiente figura 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
8.2 – Intervalo de confianza para la media de una distribución normal, varianza conocida. 
 
El método general para construir intervalos de confianza es el siguiente llamado método del pivote: 
 
Supongamos el siguiente caso particular, sea ( )nXXX ,...,, 21 una muestra aleatoria de tamaño n de 
una v.a. X donde ),(~ 2σµNX , 2σ conocido, se quiere construir un intervalo de confianza para µ 
de nivel α−1 . Supongamos 05.0=α . 
1- tomamos un estimador puntual de µ , sabemos que X=µ̂ es un estimador con buenas 
propiedades. 
2- a partir de X=µ̂ construimos el estadístico 
n
X
Z
σ
µ−
= . Notar que Z (pivote) contiene al 
verdadero parámetro µ y que bajo las condiciones dadas )1,0(~ NZ 
3- como conocemos la distribución de Z, podemos plantear: hallar un número z tal que 
( ) 95.0=≤≤− zZzP 
Por la simetría de la distribución normal estándar podemos escribir 
( ) ( ) ( ) ( ) 95.012 =−Φ=−Φ−Φ=≤≤− zzzzZzP ⇒ ( ) 975.0=Φ z ⇒ 96.1=z 
 
Por lo tanto ( ) 95.096.196.196.196.1 =










≤
−
≤−=≤≤−
n
X
PZP
σ
µ
 
Despejamos µ : 
 
µ 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 144 
95.096.196.196.196.1
96.196.196.196.1
=





+≤≤−=





−≤−≤−−=
=





≤−≤−=










≤
−
≤−
n
X
n
XPX
n
X
n
P
n
X
n
P
n
X
P
σ
µ
σσ
µ
σ
σ
µ
σ
σ
µ
 
 
Entonces 
95.096.1;96.196.196.1 =











+−∈=





+≤≤−
n
X
n
XP
n
X
n
XP
σσ
µ
σ
µ
σ
 
 
Es decir el intervalo de confianza para µ es 





+−
n
X
n
X
σσ
96.1;96.1 y tiene nivel de confianza 
0.95 o 95%. 
Aquí 
n
X
σ
96.1ˆ 1 −=Θ y 
n
X
σ
96.1ˆ 2 +=Θ 
 
Repetimos el procedimiento anterior y construimos un intervalo de confianza para µ con nivel de 
confianza α−1 
1-Partimos de la esperanza muestral ∑
=
=
n
iX
n
X
11
1
 para una muestra aleatoria ( )nX,...,X,X 21 de 
tamaño n. Sabemos que es un estimador insesgado y consistente de µ . 
2-Construimos el estadístico 
 N~
n/σ
µX
Z
−
= (0,1) 
 
La variable aleatoria Z cumple las condiciones necesarias de un pivote 
Para construir un intervalo de confianza al nivel de confianza 1-α partiendo del pivote Z, 
comenzamos por plantear la ecuación 
 
 ( ) =≤≤− zZzP 1-α , 
 
donde la incógnita es el número real z. 
 
Si reemplazamos la v.a. Z por su expresión tenemos: 
 
=





+−≤−≤−−=





≤−≤−=





≤
−
≤−
n
σ
zXµ
n
σ
zXP
n
σ
zµX
n
σ
zPz
n/σ
µX
zP 1-α 
 
Multiplicando todos los miembros de la desigualdad por -1 (el orden de los miembros se invierte) 
llegamos a: 
 =





+≤≤−
n
σ
zXµ
n
σ
zXP 1-α 
Evidentemente, si definimos 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 145 






+=Θ
−=Θ
n
zX
n
zX
σ
σ
2
1
ˆ
ˆ
, hemos construido dos estadísticos 1Θ̂ y 2Θ̂ tales que ( )=Θ≤≤Θ 21 ˆˆ µP 1-α , 
es decir hemos construido el intervalo de confianza bilateral deseado [ ]21 ˆ,ˆ ΘΘ . Todos los elementos 
que forman los estadísticos 1Θ̂ y 2Θ̂ son conocidos ya que el número z verifica la ecuación 
anterior, es decir (ver figura): 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
( ) ( ) ( )zzzZzP −Φ−Φ=≤≤− =1-α donde ( )zΦ es la Fda para la v.a. N~Z (0,1) 
 
Recordando que ( ) ( )zz Φ−=−Φ 1 , esta ecuación queda: 
( ) ( )zz −Φ−Φ = ( ) 12 −Φ z =1-α , o bien (ver figura anterior), 
( )
2
1
α
z −=Φ o de otra forma 
2
)(
α
=> zZP . 
Al valor de z que verifica esta ecuación se lo suele indicar 
2
αz . En consecuencia, el intervalo de 
confianza bilateral al nivel de significación 1-α queda: 
 
[ ] 





+−=ΘΘ
n
zX
n
zX
σσ
αα
22
21 ,
ˆ,ˆ 
En consecuencia: 
 
 
 
Ejemplo: 
Un ingeniero civil analiza la resistencia a la compresión del concreto. La resistencia está distribuida 
aproximadamente de manera normal, con varianza 1000 (psi)
2
. Al tomar una muestra aleatoria de 12 
especímenes, se tiene que 3250=x psi. 
a) Construya un intervalo de confianza del 95% para la resistencia a la compresión promedio. 
Si ( )nXXX ,...,, 21 una muestra aleatoria de tamaño n de una v.a. X donde ),(~ 2σµNX , 2σ 
conocido, un intervalo de confianza para µ de nivel α−1 es 
 





+−
n
zX
n
zX
σσ
αα
22
, (8.1) 
αz 
2
αz 
2
αz− 
 
2
α
 
2
α
 
2
αzz = 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 146 
b) Construya un intervalo de confianza del 99% para la resistencia a la compresión promedio. 
Compare el ancho de este intervalo de confianza con el ancho encontrado en el inciso a). 
 
Solución: 
La v. a. de interés es Xi: “resistencia a la compresión del concreto en un espécimen i” 
Tenemos una muestra de 12=n especímenes. 
Asumimos que ),(~ 2σµNX i para 12,...,3,2,1=i con 1000
2 =σ 
a) Queremos un intervalo de confianza para µ de nivel 95%. Por lo tanto 05.0=α 
El intervalo a utilizar es 





+−
n
zX
n
zX
σσ
αα
22
, . 
Buscamos en la tabla de la normal estándar el valor de 96.1025.0
2
== zzα 
Reemplazando: 
 






=





×+×− 89227.3267,10773.3232
12
1000
96.13250,
12
1000
96.13250 
b) repetimos lo anterior pero ahora 01.0=α 
El intervalo a utilizar es 





+−
n
zX
n
zX
σσ
αα
22
, . 
Buscamos en la tabla de la normal estándar el valor de 58.2005.0
2
== zzα 
Reemplazando: 
 






=





×+×− 55207.3273,44793.322612
1000
58.23250,
12
1000
58.23250 
 
La longitud del intervalo encontrado en a) es: 35.78454 
La longitud del intervalo encontrado en b) es: 47.10414 
Notar que la seguridad de que el verdadero parámetro se encuentre en el intervalo hallado es mayor 
en el intervalo b) que en el a), pero la longitud del intervalo b) es mayor que la del intervalo a). 
Al aumentar el nivel de confianza se perdió precisión en la estimación, ya que a menor longitud hay 
mayor precisión en la estimación. 
En general la longitud del intervalo es 
n
zL
σ
α
2
2= 
Notar que: 
a) si n y σ están fijos, a medida que α disminuye tenemos que 
2
αz aumenta, por lo tanto L 
aumenta. 
b) si α y σ están fijos, entonces a medida que n aumenta tenemos que L disminuye. 
 
Podemos plantearnos la siguiente pregunta relacionada con el ejemplo anterior: ¿qué tamaño n de 
muestra se necesita para que el intervalo tenga nivel de confianza 99% y longitud la mitad de la 
longitud del intervalo hallado en a)? 
Solución: el intervalo hallado en a) tiene longitud 35.78454, y queremos que el nuevo intervalo 
tenga longitud 17.89227 aproximadamente. Planteamos: 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 147 
89227.17
1000
58.2289227.172
2
≤××⇒≤=
nn
zL
σ
α 
 
Despejando n : 
170.83
89227.17
1000
58.22
2
≥⇒≤







×× nn 
O sea, hay que tomar por lo menos 84 especímenes para que el intervalo tenga la longitud pedida. 
 
Si estimamos puntualmente al parámetro µ con X estamos cometiendo un error en la estimación 
menor o igual a 
n
z
L σ
α
2
2
= , que se conoce como precisión del estimador 
Ejemplo: Se estima que el tiempo de reacción a un estímulo de cierto dispositivo electrónico está 
distribuido normalmente con desviación estándar de 0.05 segundos. ¿Cuál es el número de 
mediciones temporales que deberá hacerse para que la confianza de que el error de la estimación de 
la esperanza no exceda de 0.01 sea del 95%? 
 
Nos piden calcular n tal que 01.0
2
2
<=
n
z
L σ
α con 05.0=α . 
Por lo tanto 
2
025.0
01.0
05.0





≥ zn . 
Además 025,0z =1.96. Entonces ( ) 04965961
010
050 2
2
9750 ..
.
.
zn . =×=




≥ . 
O sea hay que tomar por lo menos 97 mediciones temporales. 
 
 
Ejemplo: 
Supongamos que X representa la duración de una pieza de equipo y que se probaron 100 de esas 
piezas dando una duración promedio de 501.2 horas. Se sabe que la desviación estándar poblacional 
En general, si queremos hallar n tal que l
n
zL ≤=
σ
α
2
2 , donde l es un valor dado, entonces 
despejando n 
 
2
2
2










≥
l
z
n
σα
 
Para muestras tomadas de una población normal, o para muestras de tamaño 30≥n , de una 
población cualquiera, el intervalo de confianza dado anteriormente en (8.1), proporciona buenos 
resultados. 
En el caso de que la población de la que se extrae la muestra no sea normal pero 30≥n , el nivel 
de confianza del intervalo (8.1) es aproximadamente α−1 . 
Pero para muestras pequeñas tomadas de poblaciones que no son normales no se puede garantizar 
que el nivel de confianza sea α−1 si se utiliza (8.1). 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 148 
es σ =4 horas. Se desea tener un intervalo del 95% de confianza para la esperanza poblacional 
( ) µXE = . 
Solución: 
En este caso, si bien no conocemos cuál es la distribución de X tenemos que el tamaño de la muestra 
es 30100 >=n (muestra grande) por lo tanto el intervalo buscado es 






+−
n
zX
n
zX
σσ
αα
22
, 
 
Puesto que 1-α=0.95 025.0
2
05.095.01 =→=−=→
α
α 
De la tabla de la normal estandarizada obtenemos 025,0z =1.96. Entonces reemplazando: 
 






+−
100
4
96.1,
100
4
96.1 XX 
 
Para el valor particular x =501.2 tenemos el intervalo 
 






=


 +−=





+− 0.502,4.500
10
4
96.12.501,
10
4
96.12.501
4
96.1,
100
4
96.1
n
xx . 
 
Al establecer que 





05024500 .,. es un intervalo al 95% de confianza de µ estamos diciendo que la 
probabilidad de que el intervalo 





05024500 .,. contenga a µ es 0.95. O, en otras palabras, la 
probabilidad de que la muestra aleatoria ( )nX,...,X,X 21 tome valores tales que el intervalo aleatorio 






+−
100
4
96.1,
100
4
96.1 XX defina un intervalo numérico que contenga al parámetro fijo 
desconocido µ es 0.95. 
 
 
8.2 - Intervalo de confianza para la media de una distribución normal, varianza desconocida 
 
Nuevamente como se trata de encontrar un intervalo de confianza para µ nos basamos en la 
esperanza muestral ∑
=
=
n
iX
n
X
11
1
 que sabemos es un buen estimador de µ . Pero ahora no podemos 
usar como pivote a 
 
n/σ
µX
Z
−
= 
porque desconocemos σ y una condición para ser pivote es que, excepto por el parámetro a estimar ( 
en este caso µ ), todos los parámetros que aparecen en él deben ser conocidos. Entonces proponemos 
como pivote una variable aleatoria definida en forma parecida a Z pero reemplazando σ por un 
estimador adecuado. 
Ya vimos que la varianza muestral definida 
 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 149 
 ( )
2
11
2
1
1
∑
=
−
−
=
n
i XX
n
S , 
donde X es la esperanza muestral, es un estimador insesgado de la varianza poblacional ( )XV , es 
decir, ( ) ( ) 22 σXVSE == n∀ . Entonces estimamos σ con S y proponemos como pivote a la 
variable aleatoria 
 
 
n/S
µX
T
−
= . 
 
Pero para poder usar a T como pivote debemos conocer su distribución. 
Se puede probar que la distribución de T es una distribución llamada Student con parámetro n-1. 
 
Nota: Una v.a. continua tiene distribución Student con k grados de libertad, si su f.d.p. es de la 
forma 
 
( )
∞<<∞−






+









Γ



 +Γ
=
+
x
k
x
k
k
k
xf
k
 
1
1
2
 
2
1
)(
2
1
2π
 
 
Notación: ktT ~ 
La gráfica de la f.d.p. de la distribución Student tiene forma de campana como la normal, pero tiende 
a cero más lentamente. Se puede probar que cuando ∞→k la fdp de la Student tiende a la fdp de la 
)1 ,0(N . 
En la figura siguiente se grafica f(x) para diferentes valores de k 
 
 
 
 
 1=k 
 
 6=k 
 
 - - - - - ∞=k 
 
 
 
 
 
 
 
 
 
 
Anotaremos kt ,α al cuantil de la Student con k grados de libertad que deja bajo la fdp a derecha un 
área de α , y a su izquierda un área de α−1 . 
 
 
-3 -2 -1 1 2 3
0.1
0.2
0.3
0.4
 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 150 
Luego, para construir el intervalo de confianza buscado a partir del pivote T procedemos como en 
los casos anteriores: 
 
Comenzamos por plantear la ecuación 
 
 ( ) =≤≤− tTtP 1-α , 
donde la incógnita es el número real t. 
 
Si reemplazamos la v.a. T por su expresión, tenemos sucesivamente (multiplicando por n/S yrestando X ): 
=





+−≤−≤−−=





≤−≤−=





≤
−
≤−
n
S
tXµ
n
S
tXP
n
S
tµX
n
S
tPt
n/S
µX
tP 1-α 
Multiplicando todos los miembros de la desigualdad por -1 (el orden de los miembros se invierte) 
llegamos a: 
 =





+≤≤−
n
S
tXµ
n
S
tXP 1-α 
Evidentemente, si definimos 






+=Θ
−=Θ
n
S
tX
n
S
tX
2
1
ˆ
ˆ
, hemos construido dos estadísticos 1Θ̂ y 2Θ̂ tales que ( )=Θ≤≤Θ 21 ˆˆ µP 1-α , 
veamos quien es el número t que verifica la ecuación, es decir (ver figura): 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
( ) ( ) ( )tFtFtTtP −−=≤≤− =1-α donde ( )tF es la Fda para la v.a. T ∼ 1−nt . 
 
Por la simetría de la distribución t de Student se deduce fácilmente de la figura anterior que 
( ) ( )tFtF −=− 1 , entonces: 
 
( ) ( )tFtF −− = ( ) 12 −tF =1-α , o bien (ver figura anterior), 
 
( )
2
1
α
tF −= . 
 
2
αt− 
2
αt 
libertad de grados 4=k 
2
α
 
2
α
 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 151 
Al valor de t que verifica esta ecuación se lo suele indicar 
1,
2
−n
tα . En consecuencia, el intervalo de 
confianza bilateral al nivel de significación 1-α queda: 
 






+−
−− n
S
tX
n
S
tX
nn 1,
2
1,
2
, αα con 
2
1
1,
2
α
α −=







−n
tF . 
En consecuencia: 
 
 
 
 
 
 
 
 
 
Ejemplo: 
Se hicieron 10 mediciones sobre la resistencia de cierto tipo de alambre que dieron valores 
1021 x,...,x,x tales que ∑
=
==
10
1
4810
10
1
i
i .xx ohms y ( )∑
=
−=
10
2
9
1
!i
i xxS = 1.36 ohms. Supóngase que 
X~N(µ,σ2). 
Se desea obtener un intervalo de confianza para la esperanza poblacional µ al 90 %. 
 
Tenemos que →=− 9001 .α →= 10.α 05.02/ =α 
De la Tabla de la t de Student tenemos que 8331.19,05.0 =t . Entonces el intervalo de confianza 
buscado es: 






+−=





+−
−− 10
36.1
8331.148.10,
10
36.1
8331.148.10,
1,
2
1,
2 n
S
tX
n
S
tX
nn
αα 
 
Esto es: [ ]27.11 ,69.9 . 
 
 
 
8.3 – Intervalo de confianza para la diferencia de dos medias, varianzas conocidas 
 
Supongamos que tenemos dos variables aleatorias independientes normalmente distribuidas: 
Si ( )nXXX ,...,, 21 una muestra aleatoria de tamaño n de una v.a. X donde ),(~ 2σµNX , 
2σ desconocido, un intervalo de confianza para µ de nivel α−1 es 
 





+−
n
S
tX
n
S
tX
22
, αα (8.2) 
Si la muestra aleatoria se toma de una distribución normal, σ
2
 es desconocido y el tamaño de la 
muestra grande, entonces se puede probar que al reemplazar σ por S, el estadístico 
 
( )10,N
n/S
µX
Z ∼
−
= aproximadamente 
 
y puedo construir el intervalo para µ como antes: 






+−
n
S
zX
n
S
zX
22
, αα , pero su nivel es aproximadamente α−1 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 152 
( )
( )

2
222
2
111
σ,µN~X
σ,µN~X
 y suponemos que las varianzas 21σ y 
2
2σ son conocidas. 
 
Sean además 
( )
111211 n
X,...,X,X una muestra aleatoria de tamaño 1n de 1X 
( )
222221 n
X,...,X,X una muestra aleatoria de tamaño 2n de 2X . 
 
Deseamos construir un intervalo al nivel de confianza α−1 para la diferencia de esperanzas 21 µµ − . 
Ya sabemos cuál es la distribución del promedio de variables aleatorias normales independientes: 
 













=






=
∑
∑
=
=
2
1
1 2
2
2
22
2
2
1 1
2
1
11
1
1
1
1
n
i
i
n
i
i
n
σ
,µN~X
n
X
n
σ
,µN~X
n
X
 
 
Consideremos ahora la diferencia 21 XXY −= . Si 1X y 2X tienen distribución normal y son 
independientes, su diferencia también es normal, con esperanza igual a la diferencia de las 
esperanzas y la varianza es la suma de las varianzas: 
 






+−−
2
2
2
1
2
1
2121 ,N~
nn
XX
σσ
µµ . 
Por lo tanto 
 
( ) ( )1,0N~
2
2
2
1
2
1
2121
nn
XX
Z
σσ
µµ
+
−−−
= , es decir, tiene distribución normal estandarizada. 
 
La v.a. Z cumple con toda las condiciones para servir de pivote y construiremos nuestro intervalo en 
forma análoga a cómo hicimos en los casos anteriores: 
Comenzamos por plantear la ecuación 
 
 ( ) =≤≤− zZzP 1-α , 
donde la incógnita es el número real z. 
 
Reemplazamos la v.a. Z por su expresión y tenemos sucesivamente (multiplicando por n/σ y 
restando X ): 
 
( ) ( )
( ) ( ) ( ) ασσµµσσ
σσ
µµ
σσ
σσ
µµ
−=








++−−≤−−≤+−−−=
=








+≤−−−≤+−=














≤
+
−−−
≤−
1
2
2
2
1
2
1
2121
2
2
2
1
2
1
21
2
2
2
1
2
1
2121
2
2
2
1
2
1
2
2
2
1
2
1
2121
nn
zXX
nn
zXXP
nn
zXX
nn
zPz
nn
XX
zP
 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 153 
Multiplicando todos los miembros de la desigualdad por -1 (el orden de los miembros se invierte) 
llegamos a: 
 ( ) ασσµµσσ −=








++−≤−≤+−− 1
2
2
2
1
2
1
2121
2
2
2
1
2
1
21
nn
zXX
nn
zXXP 
 
 
Evidentemente, si definimos 







+−−=Θ
+−−=Θ
,ˆ
ˆ
2
2
2
1
2
1
212
2
2
2
1
2
1
211
nn
zXX
nn
zXX
σσ
σσ
 
habremos construido dos estadísticos 1Θ̂ y 2Θ̂ tales que ( )( )=Θ≤−≤Θ 2211 ˆˆ µµP 1-α , es decir 
habremos construido el intervalo de confianza bilateral deseado [ ]21 Â, . Todos los elementos que 
forman los estadísticos 1Θ̂ y 2Θ̂ son conocidos ya que el número z verifica la ecuación anterior, es 
decir: 
 
( ) ( ) ( )zzzZzP −Φ−Φ=≤≤− =1-α donde ( )zΦ es la Fda para la v.a. N~Z (0,1) 
 
o bien, según vimos: 
( )
2
1
α
z −=Φ que anotamos 
2
αz 
En consecuencia, el intervalo de confianza bilateral al nivel de significación 1-α queda: 
 








++−+−−
2
2
2
1
2
1
2
21
2
2
2
1
2
1
2
21 ,
nn
zXX
nn
zXX
σσσσ
αα 
 
Por lo tanto 
 
 
Ejemplo: 
Se utilizan dos máquinas para llenar botellas de plástico con detergente para máquinas lavaplatos. Se 
sabe que las desviaciones estándar de volumen de llenado son 10.01 =σ onzas de líquido y 
15.02 =σ onzas de líquido para las dos máquinas respectivamente. Se toman dos muestras 
aleatorias, 121 =n botellas de la máquina 1 y 102 =n botellas de la máquina 2. Los volúmenes 
promedio de llenado son 87.301 =x onzas de líquido y 68.302 =x onzas de líquido. 
Si 1X y 2X son dos variables aleatorias independientes normalmente distribuidas: 
( )2111 ,N~ σµX , ( )2222 ,N~ σµX y suponemos que las varianzas 21σ y 22σ son conocidas. Un 
intervalo de confianza para la diferencia 21 µµ − de nivel α−1 es 
 
 








++−+−−
2
2
2
1
2
1
2
21
2
2
2
1
2
1
2
21 ,
nn
zXX
nn
zXX
σσσσ
αα
r
 (8.3) 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 154 
Asumiendo que ambas muestras provienen de distribuciones normales 
Construya un intervalo de confianza de nivel 90% para la diferencia entre las medias del volumen de 
llenado. 
 
Solución: 
Como 90.01 =−α entonces 10.0=α 
Por lo tanto 65.105.0
2
== zzα 
El intervalo será ( ) ()








++−+−−
10
15.0
12
10.0
65.168.3087.30;
10
15.0
12
10.0
65.168.3087.30
2222
 
O sea 





281620.0;09837.0 
 
Si se conocen las desviaciones estándar y los tamaños de las muestras son iguales (es decir 
nnn == 21 ), entonces puede determinarse el tamaño requerido de la muestra de manera tal que la 
longitud del intervalo sea menor que l 
 
 ( )2221
2
2
2
2
2
1
2
2
 2 σσ
σσ α
α +










≥⇒≤+=
l
z
nl
nn
zL 
 
 
Ejemplo: 
Para muestras tomadas de dos poblaciones normales, o para muestras de tamaño 301 ≥n y 
302 ≥n , de dos poblaciones cualesquiera, el intervalo de confianza dado anteriormente en (8.3), 
proporciona buenos resultados. 
En el caso de que la población de la que se extrae la muestra no sea normal pero 301 ≥n y 
302 ≥n , el nivel de confianza del intervalo (8.3) es aproximadamente α−1 . 
 
Si las muestras aleatorias se toma de una distribución normal, donde 1σ y 2σ son desconocidos, 
301 ≥n y 302 ≥n , entonces se puede probar que al reemplazar 1σ por S1 y 2σ por S2, el 
estadístico 
 
 )1,0(
)(
1
2
1
1
2
1
2121 N
n
S
n
S
XX
≈
+
−−− µµ
. aproximadamente 
 
y puedo construir el intervalo para 21 µµ − como antes: 
 








++−+−−
1
2
1
1
2
1
2
21
1
2
1
1
2
1
2
21 ,
n
S
n
S
zXX
n
S
n
S
zXX αα , (8.4) 
pero su nivel es aproximadamente α−1 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 155 
De una muestra de 150 lámparas del fabricante A se obtuvo una vida media de 1400 hs y una 
desviación típica de 120 hs. Mientras que de una muestra de 100 lámparas del fabricante B se obtuvo 
una vida media de 1200 hs. y una desviación típica de 80 hs. 
Halla los límites de confianza del 95% para la diferencia las vidas medias de las poblaciones A y B. 
 
Solución: 
Sean las variables aleatorias: 
:1X “duración en horas de una lámpara del fabricante A” 
:2X “duración en horas de una lámpara del fabricante B” 
No se dice cuál es la distribución de estas variables, pero como 1501 =n y 1002 =n 
podemos usar el intervalo dado en (8.4) 
 
Tenemos que 14001 =x , 12002 =x , 1201 =s y 802 =s . 
 Además 95.01 =−α 1.96z z 0.025
2
==→ α 
Entonces el intervalo es 






=








+−−+−− 7922.224;2077.175
100
80
150
120
96.112001400;
100
80
150
120
96.112001400
2222
 
 
Observación: como este intervalo no contiene al cero, podemos inferir que hay diferencia entre las 
medias con probabilidad 0.95, es más, podemos inferir que la media del tiempo de duración de las 
lámparas del fabricante A es mayor que la media del tiempo de duración de las lámparas del 
fabricante B con probabilidad 0.95 . 
 
 
8.4 – Intervalo de confianza para la diferencia de dos medias, varianzas desconocidas 
 
Nuevamente supongamos que tenemos dos variables aleatorias independientes normalmente 
distribuidas: 
 
( )
( )

2
222
2
111
σ,µN~X
σ,µN~X
 y suponemos que las varianzas 21σ y 
2
2σ son desconocidas . 
 
Sean además 
( )
111211 n
X,...,X,X una muestra aleatoria de tamaño 1n de 1X 
( )
222221 n
X,...,X,X una muestra aleatoria de tamaño 2n de 2X . 
Pero ahora 1n o 2n no son mayores que 30 
Supongamos que es razonable suponer que las varianzas desconocidas son iguales, es decir 
σσσ == 21 
Deseamos construir un intervalo al nivel de confianza α−1 para la diferencia de esperanzas 21 µµ − 
 
Sean 1X y 2X las medias muestrales y 
2
1S y 
2
2S las varianzas muestrales. Como 
2
1S y 
2
2S son los 
estimadores de la varianza común 2σ , entonces construimos un estimador combinado de 2σ . Este 
estimador es 
 
 
( ) ( )
2
11
21
2
22
2
112
−+
−+−
=
nn
SnSn
S p 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 156 
Se puede comprobar que es un estimador insesgado de 2σ . 
Se puede probar que el estadístico 
 
( )
21
2121
11
nn
S
XX
T
p +
−−−
=
µµ
r
 tiene distribución Student con 221 −+ nn grados de libertad 
Por lo tanto se plantea la ecuación 
 ααα −=






≤≤−
−+−+
1
2,
2
2,
2
2121 nnnn
tTtP 
o 
 
 
( )
α
µµ
αα −=














≤
+
−−−
≤−
−+−+
1
11 2,2
21
2121
2,
2
2121 nn
p
nn
t
nn
S
XX
tP
r
 
 
Despejamos 21 µµ − y queda la expresión 
 
 αµµ αα −=







+≤−≤+−−
−+−+
1
1111
21
2,
2
21
21
2,
2
21
2121 nn
St
nn
StXXP p
nn
p
nn
 
 
Entonces 
 
 
 
Ejemplo: 
Se piensa que la concentración del ingrediente activo de un detergente líquido para ropa, es afectada 
por el tipo de catalizador utilizado en el proceso de fabricación. Se sabe que la desviación estándar 
de la concentración activa es de 3 g/l, sin importar el tipo de catalizador utilizado. Se realizan 10 
observaciones con cada catalizador, y se obtienen los datos siguientes: 
Catalizador 1: 57.9, 66.2, 65.4, 65.4, 65.2, 62.6, 67.6, 63.7, 67.2, 71.0 
Catalizador 2: 66.4, 71.7, 70.3, 69.3, 64.8, 69.6, 68.6, 69.4, 65.3, 68.8 
a) Encuentre un intervalo de confianza del 95% para la diferencia entre las medias de las 
concentraciones activas para los dos catalizadores. Asumir que ambas muestras fueron extraídas de 
poblaciones normales con varianzas iguales. 
b) ¿Existe alguna evidencia que indique que las concentraciones activas medias dependen del 
catalizador utilizado? 
Si 1X y 2X son dos variables aleatorias independientes normalmente distribuidas: 
( )2111 ,N~ σµX , ( )2222 ,N~ σµX y suponemos que las varianzas 21σ y 22σ son desconocidas e 
iguales, es decir σσσ == 21 
Un intervalo de confianza para la diferencia 21 µµ − de nivel α−1 es 
 
 
21
2,
2
21
21
2,
2
21
11
;
11
2121 nn
StXX
nn
StXX p
nn
p
nn
+−−+−−
−+−+
αα (8.5) 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 157 
Solución: 
Sean las variables aleatorias 
:1X “ concentración del ingrediente activo con catalizador 1” 
:2X “ concentración del ingrediente activo con catalizador 2” 
Asumimos que ambas variables tienen distribución normal con varianzas iguales 
Estamos e3n las condiciones para usar (8.5) 
Tenemos que 22.651 =x , 42.682 =x , 444.31 =s , 224.22 =s , 1021 == nn 
Calculamos 
( ) ( )
4036.8
21010
224.29444.39
2
11 22
21
2
22
2
112 =
−+
×+×
=
−+
−+−
=
nn
SnSn
S p 
Por lo tanto 89890.24036.8 ==pS 
Buscamos en la tabla de la Student 060.218,025.0
2,
2
21
==
−+
tt
nn
α 
 
Entonces el intervalo es 
[ ]52935.0;8706.5
10
1
10
1
89890.2060.242.6822.65;
10
1
10
1
89890.2060.242.6822.65
−−=
=





+×−−+×−−
 
 
b) Existe alguna evidencia que indique que las concentraciones activas medias dependen del 
catalizador utilizado, pues el 0 no pertenece al intervalo. 
 
 
En muchas ocasiones no es razonable suponer que las varianzas son iguales. Si no podemos 
garantizar que las varianzas son iguales, para construir un intervalo de confianza de nivel α−1 para 
21 µµ − utilizamos es estadístico 
 
 
1
2
1
1
2
1
2121* )(
n
S
n
S
XX
T
+
−−−
=
µµ
 
Se puede probar que *T tiene aproximadamente una distribución Student con ν grados de libertad 
donde 
 
 
( )
( ) ( )
11 2
2
2
2
2
1
2
1
1
1
2
2
2
21
2
1
−
+
−
+
=
n
nS
n
nSnSnS
ν si ν no es entero, se toma el entero más próximo a ν 
 
Por lo tanto planteamos la ecuación 
 
 α
ν
α
ν
α −=







≤≤− 1
,
2
*
,
2
tTtP 
 
Y despejando 21 µµ − el intervalo es 
 








++−+−−
2
2
2
1
2
1
,
2
21
2
2
2
1
2
1
,
2
21 ,
n
S
n
S
tXX
n
S
n
S
tXX
ν
α
ν
α 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 158 
Entonces 
 
Ejemplo: 
Una muestra de 6 soldaduras de un tipo tenía promedio de prueba final de resistencia de 83.2 ksi y 
desviación estándar de 5.2. Y una muestra de 10 soldaduras de otro tipo tenía resistencia promedio 
de 71.3 ksi y desviación estándar de 3.1. supongamos que ambos conjuntos de soldaduras son 
muestras aleatorias de poblaciones normales. Se desea encontrar un intervalo de confianza de 95% 
para la diferencia entre las medias de las resistencias de los dos tipos de soldaduras. 
 
Solución: 
Ambos tamaños muestrales son pequeños y las muestras provienen de poblaciones normales. No 
podemos asumir igualdad de varianzas. Entonces aplicamos (8.6) 
Tenemos que 2.831 =x , 3.712 =x , 2.51 =s , 1.32 =s , 10;6 21 == nn 
Como 95.01 =−α entonces 025.0
2
=
α
 
Además 
( )
( ) ( ) ( ) ( )
718.7
9
10
1.3
5
6
2.5
10
1.3
6
2.5
11
22
2
22
2
2
2
2
2
1
2
1
1
1
2
2
2
21
2
1 ≈=
+






+
=
−
+
−
+
=
n
nS
n
nS
nSnS
ν 
Entonces buscamos en la tabla de la Student 365.27,025.0 =t 
Por lo tanto el intervalo es 
 






=








++−+−−=
=








++−+−−
43.17,37.6
10
1.3
6
2.5
365.23.712.83;
10
1.3
6
2.5
365.23.712.83
 ,
2222
2
2
2
1
2
1
,
2
21
2
2
2
1
2
1
,
2
21
n
S
n
S
tXX
n
S
n
S
tXX
ν
α
ν
α
 
 
 
 
 
 
Si 1X y 2X son dos variables aleatorias independientes normalmente distribuidas: 
( )2111 ,N~ σµX , ( )2222 ,N~ σµX y suponemos que las varianzas 21σ y 22σ son desconocidas y 
distintas 
Un intervalo de confianza para la diferencia 21 µµ − de nivel aproximadamente α−1 es 
 








++−+−−
2
2
2
1
2
1
,
2
21
2
2
2
1
2
1
,
2
21 ,
n
S
n
S
tXX
n
S
n
S
tXX
ν
α
ν
α (8.6) 
Donde 
 
( )
( ) ( )
11 2
2
2
2
2
1
2
1
1
1
2
2
2
21
2
1
−
+
−
+
=
n
nS
n
nS
nSnS
ν 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 159 
8.5 – Intervalo de confianza para 21 µµ − para datos pareados 
 
Hasta ahora se obtuvieron intervalos de confianza para la diferencia de medias donde se tomaban 
dos muestras aleatorias independientes de dos poblaciones de interés. En ese caso se tomaban 1n 
observaciones de una población y 2n observaciones de la otra población. 
En muchas situaciones experimentales, existen solo n unidades experimentales diferentes y los datos 
están recopilados por pares, esto es cada unidad experimental está formada por dos observaciones. 
Por ejemplo, supongamos que se mide el tiempo en segundos que un individuo tarda en hacer una 
maniobra de estacionamiento con dos automóviles diferentes en cuanto al tamaño de la llanta y la 
relación de vueltas del volante. Notar que cada individuo es la unidad experimental y de esa unidad 
experimental se toman dos observaciones que no serán independientes. Se desea obtener un 
intervalo de confianza para la diferencia entre el tiempo medio para estacionar los dos automóviles. 
En general, supongamos que tenemos los siguientes datos ( ) ( ) ( )nn XXXXXX 2122122111 ,;...;,;, 1 . 
Las variables aleatorias 1X y 2X tienen medias 1µ y 2µ respectivamente. 
Sea jjj XXD 21 −= con nj ,...,2,1= . 
Entonces 
 ( ) ( ) ( ) ( ) 212121 µµ −=−=−= jjjjj XEXEXXEDE 
 y 
 
( ) ( ) ( ) ( ) ( ) ( )212221212121 ,2,2 XXCovXXCovXVXVXXVDV jjjjjjj −+=−+=−= σσ 
 
Estimamos ( ) 21 µµ −=jDE con ( ) 21
1
21
1
11
XXXX
n
D
n
D
n
j
jj
n
j
j −=−== ∑∑
==
 
En lugar de tratar de estimar la covarianza, estimamos la ( )jDV con ( )∑
=
−
−
=
n
j
jD DD
n
S
1
2
1
1
 
Anotamos 21 µµµ −=D y ( )jD DV=2σ 
 
Asumimos que ( )2,N~ DDjD σµ con nj ,...,2,1= 
 
Las variables aleatorias en pares diferentes son independientes, no lo son dentro de un mismo par. 
Para construir el intervalo de confianza notar que 
 
 1
/
−∼
−
= n
D
D t
nS
D
T
µ
 
 
entonces al plantear la ecuación ( ) =≤≤− tTtP 1-α , deducimos que 
1,
2
−
=
n
tt α 
Por lo tanto el intervalo de confianza para 21 µµµ −=D de nivel α−1 se obtendrá al sustituir T en 
la ecuación anterior y despejar 21 µµµ −=D 
El intervalo resultante es 
 





+−
−− n
S
tD
n
S
tD D
n
D
n 1,
2
1,
2
; αα 
Entonces 
 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 160 
Ejemplo: 
Consideramos el ejemplo planteado al comienzo. Deseamos un intervalo de nivel 0.90 
Sean las variables aleatorias 
jX 1 : “tiempo en segundos que tarda el individuo j en estacionar automóvil 1” con nj ,...,2,1= 
jX 2 : “tiempo en segundos que tarda el individuo j en estacionar automóvil 2” con nj ,...,2,1= 
Medimos estas variables de manera que tenemos las siguientes observaciones 
 
 Automóvil 1 Automóvil 2 diferencia 
sujeto (observación jx1 ) (observación jx2 ) jD 
1 37.0 17.8 19.2 
2 25.8 20.2 5.6 
3 16.2 16.8 -0.6 
4 24.2 41.4 -17.2 
5 22.0 21.4 0.6 
6 33.4 38.4 -5.0 
7 23.8 16.8 7.0 
8 58.2 32.2 26.0 
9 33.6 27.8 5.8 
10 24.4 23.2 1.2 
11 23.4 29.6 -6.2 
12 21.2 20.6 0.6 
13 36.2 32.2 4.0 
14 29.8 53.8 -24.0 
 
A partir de la columna de diferencias observadas se calcula 21.1=D y 68.12=DS 
 
Además 771.113,05.0
1,
2
==
−
tt
n
α , entonces el intervalo para la diferencia 21 µµµ −=D de nivel 0.90 
es 
 






−=





×+×− 21.7;79.4
14
68.12
771.121.1;
14
68.12
771.121.1 
 
 
8.6 – Intervalo de confianza para la varianza de una distribución normal 
 
Supongamos que se quiere hallar un intervalo de confianza para la varianza 2σ de una distribución 
normal. 
Sea ( )nX,...,X,X 21 una muestra aleatoria de una v.a. X, donde ),(~ 2σµNX . 
Cuando las observaciones se dan de a pares ( ) ( ) ( )nn XXXXXX 2122122111 ,;...;,;, 1 , y las diferencias 
jjj XXD 21 −= son tales que ( )2,N~ DDjD σµ para nj ,...,2,1= , un intervalo de confianza de 
nivel α−1 para 21 µµµ −=D es 
 





+−
−− n
S
tD
n
S
tD D
n
D
n 1,
2
1,
2
; αα (8.7) 
Parte 2 – Estimación puntual Prof. María B. Pintarelli 
 161 
Tomamos como estimador puntual de 2σ a ( )
2
11
2
1
1
∑
=
−
−
=
n
i XX
n
S 
Luego a partir de este estimador puntual construimos el estadístico 
( )
2
21
σ
Sn
X
−
= 
Este estadístico contiene al parámetro desconocido a estimar 2σ y tiene una distribución conocida, 
se puede probar que X tiene una distribución llamada ji-cuadrado con n-1 grados de libertad 
 
Observación: Si X es una v.a. continua se dice que tiene distribución ji-cuadrado con k grados de 
libertad si su f.d.p. es 
 
 
( )
0
2
2
1
)( 2
1
2
2
>





Γ
=
−−
xex
k
xf
xk
k
 
 
Notación: X~
2
kχ 
La distribución ji-cuadrdo es asimétrica. En la figura siguiente se grafica

Continuar navegando