Logo Studenta

AnalisisDatosExperimentales

¡Este material tiene más páginas!

Vista previa del material en texto

Estadística y Programación aplicada a la Química
Introducción al análisis de datos experimentales
Dr. Pedro Alberto Enríquez Palma 
Área de Química Física
Departamento de Química
Licenciatura en Química, Universidad de La Rioja
Índice general
1. Errores, incertidumbres, precision y exactidud. 5
1.1. Errores e incertidumbres. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2. Cifras o digitos significativos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3. Ejercicios y problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1. Soluciones a los ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4. Lecturas recomendadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2. Teoría estadística de los errores(I). Probabilidad 15
2.1. Definición de probabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.1. El espacio muestral. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.2. Definición empírica de probabilidad. . . . . . . . . . . . . . . . . . . . . . 16
2.1.3. Definición aximática de probabilidad. . . . . . . . . . . . . . . . . . . . . 18
2.1.4. Probabilidad condicional. . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2. Funciones de distribución de probabilidad.. . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1. Distribuciones de probabilidad de variables aleatorias discretas.. . . . . . . 21
2.2.2. Distribuciones de probabilidad de variables aleatorias continuas. . . . . . . 24
2.3. Ejercicios y problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1. Soluciones a los ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4. Lecturas recomendadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3. Teoría estadística de los errores(II). Esperanza matemática 33
3.1. Esperanza matemática de una magnitud aleatoria. . . . . . . . . . . . . . . . . . . 34
3.1.1. Magnitudes aleatorias discretas. . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.2. Magnitudes aleatorias continuas. . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.3. Propiedades de la esperanza matemática. . . . . . . . . . . . . . . . . . . . 34
3.1.4. Momentos de una distribución.. . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria. . . . . . 38
3.2.1. Media general de una magnitud aleatoria. . . . . . . . . . . . . . . . . . . 39
3.2.2. Media muestral de una magnitud aleatoria. . . . . . . . . . . . . . . . . . . 39
1
0.0 Índice general
3.2.3. Varianza de una magnitud aleatoria.. . . . . . . . . . . . . . . . . . . . . . 39
3.2.4. Dispersion o varinza muestral de una magnitud aleatoria. . . . . . . . . . . 42
3.3. Mediana y moda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4. Ejercicios y problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.1. Soluciones a los ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.5. Lecturas recomendadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4. Distribuciones de probabilidad de variables aleatorias discretas 49
4.1. Distribución uniforme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2. Distribución binomial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.1. Teorema de Moivre. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3. Distribución de Poisson. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3.1. La distribución de Poisson como límite de la distribución binomial. . . . . . 57
4.3.2. La distribución de Gaussiana o normal como límite de la distribución de Poisson58
4.4. Ejercicios y problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.4.1. Soluciones a los ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.5. Lecturas recomendadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5. Distribuciones de probabilidad de variables aleatorias continuas 67
5.1. Distribución uniforme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.2. Distribución normal o Gaussiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.2.1. ¿Qué variables aleatorias siguen una distribución normal?. . . . . . . . . . 75
5.3. La distribución t de Student. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.3.1. ¿Qué variables aleatorias siguen una distribución t de Student?. . . . . . . . 81
5.4. La distribuciónχ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.4.1. ¿Qué variables aleatorias siguen una distribuciónχ2 ? . . . . . . . . . . . . 84
5.4.2. Relación entre la distribuciónχ2 y la distribución normal. . . . . . . . . . . 87
5.5. La distribución F de Fisher. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.5.1. ¿Qué variables aleatorias de interés siguen una distribución F de Fisher?. . . 88
5.6. Ejercicios y problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.6.1. Soluciones a las cuestiones. . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.6.2. Soluciones a los ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.7. Lecturas recomendadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .103
6. Intervalos de probabilidad e intervalos de confianza 105
6.1. Distribución de probabilidad del error aleatorio.. . . . . . . . . . . . . . . . . . . . 106
6.2. Intervalos de probabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .106
6.2.1. Definición. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .106
6.2.2. Intervalos de probabilidad de las medidas. . . . . . . . . . . . . . . . . . . 107
6.2.3. Intervalos de probabilidad de las medias. . . . . . . . . . . . . . . . . . . . 108
6.2.4. Intervalos de probabilidad de las varianzas. . . . . . . . . . . . . . . . . . 108
6.3. Intervalos de confianza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .109
6.3.1. Definición. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .109
6.4. Calculo de intervalos de confianza para la media. . . . . . . . . . . . . . . . . . . . 113
6.4.1. Datos distribuidos normalmente con varianzaσ2(x) conocida . . . . . . . . 113
2
0 Índice general
6.4.2. Datos distribuidos normalmente con varianza finita y con n grande. . . . . . 113
6.4.3. Datos distribuidos normalmente con varianzaσ2(x) desconocida. . . . . . . 114
6.4.4. Datos que siguen una distribución desconocida con varianza finita y con n
pequeña. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .116
6.5. Calculo de intervalos de confianza para la varianza. . . . . . . . . . . . . . . . . . 116
6.6. Cálculo de intervalos de confianza para la diferencia de las medias. . . . . . . . . . 117
6.6.1. Datos distribuidos normalmente con varianzasσ21(x) y σ
2
2(y) conocidas . . . 118
6.6.2. Datos distribuidos normalmente con varianzasσ21(x) y σ
2
2(y) desconocidas
pero iguales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .118
6.6.3. Datos que siguen cualquier distribución con varianza finita y conn1 y n2
grandes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .119
6.6.4. Datos distribuidos normalmente con varianzasσ21(x) y σ
2
2(y) desconocidas y
distintas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .120
6.7. Análisis de datos emparejados. . . . . . . . . . . . . . . . . . . . . . . . . . . . .120
6.8. Ejercicios y problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .123
6.9. Lecturas recomendadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .130
7. Cálculo de errores 131
7.1. Cálculo de errores en medidas directas. . . . . .. . . . . . . . . . . . . . . . . . .132
7.1.1. Errores de escala. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .132
7.1.2. Errores de sistemáticos. . . . . . . . . . . . . . . . . . . . . . . . . . . .132
7.1.3. Errores accidentales o aleatorios. . . . . . . . . . . . . . . . . . . . . . . . 132
7.2. Desestimación de medidas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .135
7.2.1. El ensayo de la Q de Dixon. . . . . . . . . . . . . . . . . . . . . . . . . . .135
7.2.2. La técnica de laτ de Thompson modificada. . . . . . . . . . . . . . . . . . 136
7.3. Cálculo de errores de medidas indirectas. . . . . . . . . . . . . . . . . . . . . . . . 138
I Apéndices 141
A. Tablas estadísticas 143
A.1. Área bajo la curva normal tipificada. . . . . . . . . . . . . . . . . . . . . . . . . .143
A.2. Valores de las percentilastp para un distribución t de Student conν grados de lbertad 145
A.3. Valores de las percentilasχ2p para un distribuciónχ
2 de Student conν grados de lbertad146
A.4. Valores de las percentilasF0,95(ν1, ν2) para un distribución F. . . . . . . . . . . . . 147
A.5. Valores de las percentilasF0,99(ν1, ν2) para un distribución F. . . . . . . . . . . . . 148
3
0.0 Índice general
4
1
Errores, incertidumbres, precision y exactidud.
Contenidos ✍ Errores e incertidumbres. Concepto de error. Tipos de errores. Error
de escala y resolución. Exactitud y precisión.
✍ Cifras y dígitos significativos.Normas de redondeo y truncamiento.
Objetivos ✓ Errores e incertidumbre
☞ Comprender el concepto de error
☞ Distinguir entre los errores sistemáticos y aleatorios
☞ Reconocer el error de escala
☞ Comprender los conceptos de precisión, exactitud y sesgo
✓ Cifras significativas
☞ Determinar el número de cifras significativas de un número
☞ Escribir correctamente un número en notación científica
☞ Redondear correctamente un resultado
5
1.1 1.1. Errores e incertidumbres
1.1. Errores e incertidumbres
En la determinación experimental de una magnitud no podemos definirerror como la diferencia
entre el valorobservadode la magnitud y su valorreal: no conocemos este supuesto valor real sólo
disponemos de aproximaciones a ese valor obtenidas en otros experimentos o a partir de predicciones
teóricas. Sin embargo, podemos acotar el intervalo de valores que puede asumir esa magnitud al
realizar la medida.
Suponga que conocemos el valor real del observable1, A. A la diferencia entre el valor del obser-
vableA y el valor obtenido en la medida,ai, la denominaremos error absoluto,ei:
ei = |A − ai| (1.1)
Como es imposible determinarA, no podemos determinarei. Lo que si podemos hacer es estimar
el intervalo de valores en que esperamos encontrarA de modo que la diferencia entre la medida,ai, y
A sea menor o igual que un cierto error,εi:
εi = |A − ai| (1.2)
A − ai ≤ εi ≥ A + ai (1.3)
Así, es conveniente representar el valor real que intentamos aproximar (y no conocemos) con un
intervalo centrado en la medidaai:
A = ai ± εi (1.4)
εi es elerror absoluto o incertidumbre de la medida.
Podemos distinguir tres tipos de contribuciones a la disparidad entre las observaciones experimen-
tales y el valor real:
errores ilegítimos
errores sistemáticos
errores aleatorios
Los errores ilegítimos2 son aquellos causados por errores de cálculo o en la realización del expe-
rimento. Afortunadamente estos son fácilmente detectables, ya sea porque el resultado de la medida
es un valor físicamente improbable o porque los resultados difieren considerablemente de otras deter-
minaciones. Estos errores se corrigen repitiendo las operaciones erroneas o el experimento.
Los errores sistemáticos (o determinados) son aquellos que afectan a las distintas medidas de un
modo previsible. Su determinación no es siempre fácil, puesto que no siempre es posible estimar su
efecto y sólo pueden detectarse mediante un análisis detallado del procedimiento experimental. Si el
tipo y magnitud de este error es conocido, la medida puede ser corregida para compensar por este
1observable: propiedad que puede medirse experimentalmente
2También llamados errores groseros o accidentales
6
1 1.Errores, incertidumbres, precision y exactidud.
error. En otros casos la incertidumbre asociada a este efecto ha de ser estimada y combinada con
aquella asociada a los errores aleatorios.
Un caso particular de error sistemático es elerror de escala. Este resulta de la capacidad limitada,
resolución, para distinguir dos valores muy próximos de la magnitud medida. La resolución es por
tanto una característica del instrumento y siempre tiene un valor distinto de cero. Salvo que el cons-
tructor indique lo contrario, su valor puede estimarse como un medio de la unidad que corresponde
a las divisiones más próximas de la escala (lectura analógica) o a los cambios más pequeños de un
contador (lectura digital).
Ejemplo 1. Error de escala
Considere un termómetro con una graduación en divisiones de decimas de grado. El error de
escala puede estimarse como en 0.05o C.
Este error es constante y afecta a todos las medidas efectuadas. Así, si leemos una temperatura
de 36.5oC, al tener en cuenta la resolución del termómetro, podemos expresar el valor de la
temperatura como 36.50± 0.05 oC. Es decir, la temperatura está comprendida entre 36.45 y
36.55oC.
Ejemplo 2. Error sistemático
Para una determinación de una longuitud se utilizó un metro de aluminio.
Las medidas fueron realizadas a una temperatura de 20oC, obteniendose una media de las me-
didas de 1.982 m.
Tras completar el experimento se advirtió que el metro se habia calibrado a 25oC y que el
aluminio utilizado tenia un coeficiente de expansión lineal de 0.005 m.oC−1. Es decir, las lecturas
del metro a 20oC no son correctas.
7
1.2 1.1. Errores e incertidumbres
¿Pueden corregirse el resultado obtenido?. Para corregir el error tendemos en cuenta como afecta
la temperatura a las medidas del metro:
l(T ) = l(25oC)× (1 − 0,005T )
dondel(T ) es la longitud del metro a distintas temperaturas, yT la temperatura en grados Cel-
sius.
Utilizando esta ecuación se obtiene que el valor de la longitud es 1.977± 0.005 m. Este valor
difiere del valor sin corregir.
Los errores aleatorios (accidentales o indeterminados) son debidos a factores que sufren pequeñas
variaciones durante la medida y que hacen que medidas sucesivas de la misma magnitud difieran.
Por ejemplo, el resultado de una pesada en una balanza de precisión puede verse afectado por las
vibraciones del platillo, las vibraciones producidas por otros aparatos presentes en el laboratorio,
etc. En general la fuente de estos errores no es conocida y por su carácter aleatorio pueden tratarse
estadísticamente.
La figura 1.1. muestra el efecto de errores sistemáticos y accidentales sobre el resultado de una
medida.
Algunas definiciones relacionadas con los errores son:
exactitud segun la ISO [3] se define como "grado de concordancia entre el resultado de un ensayo y
el valor de referencia aceptado". Tiene en cuenta todas las fuentes de error del experimento.
precisión propiedad relacionada con la magnitud de los errores aleatorios. Cuanto mayor es la preci-
sión, menor es la magnitud de los errores aleatorios.
sesgomedida del error sistemático. Unas medidas sesgadas tienden a ser mayores o menores que el
valor de referencia.
Ejemplo 3. Precisión y sesgo
La tabla recoge los resultados de volumetrías de 10 ml de NaOH 0.1 M con HCl 0.1 M realizadas
por distintos experimentadores. Teniendo en cuenta, la media, desviación típica y la distribución
de los datos podemos describir la exactitud, precisión y sesgo de los datos [3, tabla 1.1].
experimentador volumen (ml) precisión y sesgo
A 10.08 10.11 10.09 10.10 10.12 preciso sesgado
B 9.88 10.14 10.02 9.80 10.21 impreciso insesgado
C 10.19 9.79 9.69 10.05 9.78 impreciso sesgado
D 10.04 9.98 10.02 9.97 10.04 preciso insesgado
En general, los errores sistemáticos y accidentales tienen distinta fuentes y pueden ser tratados
independientemente, la incertidumbre de una medida puedeexpresarse como
εtotal = εsistematica + εaleatorio (1.5)
8
1 1.Errores, incertidumbres, precision y exactidud.
Figura 1.1: Comparación de errores sistemáticos y accidentales. Los errores sistemáticos están asocia-
dos con la exactitud de la medida mientras que los errores accidentales o aleatorios con su precisión.
Figura 1.2: Distribución de las medidas de la tabla del ejemplo 3 [3, figura1]
9
1.2 1.2. Cifras o digitos significativos
1.2. Cifras o digitos significativos
Para indicar el valor de una magnitud experimental se han de proporcionar el máximo número de
cifras significativas que permita la precisión del experimento.
Cualquier número en valor absoluto puede expresarse como una serie de potencias
|x| =
∞∑
m=i
αi 10
m (1.6)
dondeαm es un dígito del 0 al 9, e i es un entero tal que
1 ≤ |x|
10i
≤ 10 (1.7)
Las cifras significativas se definen como:
1. el dígito menos significativo es aquel no nulo más a la izquierda
2. el dígito más significativo es aquel más a la derecha que tenga el mismo orden de magnitud que
la incertidumbre del experimento
3. el número total de dígitos significativas comprende todos aquellos que van del dígito más al
menos significativo
Ejemplo 4. Número de cifras significativas
¿Cuantas cifras significativas tiene el número0, 00370?.
En el número0, 00370 los tres primeros dígitos no son significativos puesto que sólo sirven para
indicar el orden de magnitud de la medida.
El último cero si es significativo puesto que el número0,00370 es diferente a0, 00369, 0, 00371,
0, 00372, . . . . El número tiene3 cifras significativas.
Note que0,00370 es diferente a0,0037 porque este número sólo tiene dos cifras significativas.
Una consecuencia del resultado del ejemplo anterior es que hay que tener cuidado cuando escribi-
mos el resultado de una medida en distintas unidades. Hay que tener cuidado con el número de cifras
significativas. Por ejemplo, el equivalente en gramos de3,2 Kg es3,2 103g no3200 g. Esta número
no es correcto puesto que supondría que el resultado del peso en Kg lo conocemos con cuatro cifras
significativas.
Un método que evita ambigüedades a la hora de determinar que cifras son significativas es expre-
sar los números en notación científica. En esta notación el número se expresa como el producto de
otro número (mantisa) que contiene las cifras significativas, la primera de las cuales ocupa la columna
de las unidades, por una potencia de diez.
10
1 1.Errores, incertidumbres, precision y exactidud.
Ejemplo 5. Notación científica
El número 150000 puede expresarse en notación científica como
1.5 105→ si tiene dos cifras significativas.
1.50 105→ si tiene tres cifras significativas.
1.500 105→ si tiene cuatro cifras significativas.
Cuando una magnitud se calcula con un número de cifras superior al de cifras significativas con-
viene suprimir las no significativas. A este procedimiento se le denomina redondeo. Al suprimir estas
se introduce un error (error de truncamiento) que afectará a las operaciones en las que se incluya esta
magnitud. Este error ha de minimizarse, e intentar mantenerlo por debajo de la incertidumbre de la
medida. Para ello seguiremos las reglas siguientes:
1. Si el primer dígito despreciado esmenor que 5no se modifica el dígito más significativo.
2. Si el primer dígito despreciado esmayor que 5se suma uno al dígito más significativo.
3. Si el primer dígito despreciado es 5, suma uno al dígito más significativo si éste es impar; no se
modifica en caso contrario. Aunque esta regla parezca arbitraria, se puede demostrar que de no
usarse esta u otra similar, induciríamos un error sistemático.
Otra regla a tener en cuenta al determinar las cifras significativas supone que si no se proporciona
ningún dato relativo a la incertidumbre de la medida consideramos que todas sus cifras son signi-
ficativas y que estas son el mayor número que se puede leer con la escala del aparato usado en la
medida.
Ejemplo 6. Redondeo y truncamiento
Redondee los siguientes número al número de cifras significativas adecuado:
7,56128± 0,02 →7,56± 0,02
7,56128± 0,1 →7,6± 0,1
1,2451± 0,01 →1,24± 0,01
1,245± 0,01 →1,24± 0,01
1,235± 0,01 →1,24± 0,01
413,73500± 0,05 →(4,1374± 0,0005)102
11
1.3 1.3. Ejercicios y problemas
1.3. Ejercicios y problemas
Errores
Cuestión 1.1 Verdadero o falso.
Los errores aleatorios de una medida son impredecibles. Sin embargo, la media de estos errores
es cero.
Cuestión 1.2 Verdadero o falso.
Los errores sistemáticos de una medida pueden permanecer constantes o variar de una manera
predecible (aunque no conozcamos la forma de esa variación).
Cuestión 1.3 Verdadero o falso.
Los errores sistemáticos no pueden eliminarse calculando la media de un conjunto de medidas.
Cuestión 1.4 Eliga la respuesta adecuada
Cuando se resta el blanco a una serie de medidas se intenta eliminar una fuente de error aleato-
rio|sistemático|escala.
Ejercicio 1.1 Una muestra patrón de suero sanguíneo humano contiene 42.0 g de albúmina por litro.
Cinco laboratorios (A-E) realizan cada uno seis determinaciones (en el mismo día) de la concentra-
ción de albúmina, con los siguientes resultados (en gl−1):
laboratorio concentración de albumina, gl−1
A 42.5 41.6 42.1 41.9 41.1 42.2
B 39.8 43.6 42.1 40.1 43.9 41.9
C 43.5 42.8 43.8 43.1 42.7 43.3
D 35.0 43.0 37.1 40.5 36.8 42.2
E 42.2 41.6 42.0 41.8 42.6 39.0
Comentar el sesgo, precisión y exactitud de cada uno de estos conjuntos de resultados.
[3, Ejercicio 1]
Ejercicio 1.2 Utilizando la misma muestra y el método del ejercicio anterior, el laboratorio A rea-
liza otras seis determinaciones posteriores de la concentración de albúmina, esta vez en seis días
sucesivos. Los valores obtenidos son 41.5, 40.8, 43.3, 41.9, y 41.7 g.l−1. Comentar estos resultados.
[3, Ejercicio 2]
Ejercicio 1.3 Se ha determinado cuatro veces el número de lugares de unión por molécula en una
muestra de anticuerpos monoclonados, con resultados de 1.95, 1.95, 1.92 y 1.97.
Comentar el sesgo, precisión y exactidud de estos resultados
[3, Ejercicio 3]
12
1 1.Errores, incertidumbres, precision y exactidud.
Cifras significativas
Cuestión 1.5 Explique la diferencia entre redondeo y trncamiento
Ejercicio 1.4 Indique el número de cifras significativas y exprese en notación cientifica las siguientes
magnitudes:
(a) 12.08 m. (b) 5.43 1012 s−1 (c) 0.12 10−3cal
(d) 0.0250 g (e) 2500.2 Å (f) 10.5 102 eV
Ejercicio 1.5 A partir de los resultados de un experimento se calculo que el valor de la energía de
ionización del rubidio es de 403.028 kJ mol−1. Por otra parte se estimo que la incertidumbre de
dicho calculo en 0.2 kJmol−1. Indique el resultado con el número correcto de cifras significativas.
1.3.1. Soluciones a los ejercicios
Errores
Ejercicio 1.1 Los resultados de la media g.l−1 para los laboratorios A-E son: 41.9, 41.9, 43.2, 39.1,
41.5. De aquí:
A - preciso, poco sesgo, media exacta
B - precisión pobre, poco sesgo, media exacta pero no muy fiable
C - preciso pero sesgado a valores altos, exactitud pobre
D - precisión pobre, sesgado a valores bajos, pobre exactitud
E -similar a A, pero el último resultado podría ser un valor anómalo
Ejercicio 1.2 El laboratorio A aún muestra poco sesgo, pero la precisión es más pobre, reflejando
reproducibilidad (es decir, precisión entre días) pero no repetibilidad (precisión dentro de días).
Ejercicio 1.3 El número de posiciones de enlace debe ser un número entero, 2 en este caso, de
manera que los resultados son precisos, pero sesgados a valores bajos. El sesgo no es importante, ya
que pueden de ducirse dos posiciones de enlace.
Cifras significativas
Ejercicio 1.4 (a) Cuatro cifras significativas.→ 1.208 101 m.
(b) Tres cifras significativas.→ 5.43 1012 s−1.
(c) Dos cifras significativas.→ 1.2 10−4 cal.
(d) Tres cifras significativas.→ 2.50 10−2 g.
(e) Cinco cifras significativas.→ 2.5002 103 Å.
(f) Tres cifras significativas.→ 1.05 103 eV.
Ejercicio 1.5 4,03± 0,20 kJ.mol−1
13
1.4 1.4. Lecturas recomendadas
1.4. Lecturas recomendadas
Para completarla preparación de este tema recomendamos la lectura de:
☞ Capítulo 1. Introduccióndel libro de Miller y Miller[3]. X
El texto es claro y del mismo nivel que el del curso. Aunque el libro está orientado hacia las
aplicaciones de la Quimiometría en Química Analítica, los contenidos son de carácter general.
☞ Introduccióndel texto de Spiridonov y Lopatkin[7].
☞ Chapter 1. Uncertainties in measurementsdel libro de Bevington y Robinson[1]
14
2
Teoría estadística de los errores(I). Probabilidad
Contenidos ✍ Introducción . Error aleatorio y probabilidad.
✍ Definición de probabilidad. Espacio muestral y sucesos. Magnitud
aleatoria discreta y continua. Definición empírica de probabilidad. Defini-
ción axiomática de probabilidad.
✍ Funciones de distribución de probabilidad: variables aleatorias dis-
cretas.Función de probabilidad o función de frecuencia. Función de dis-
tribución de probabilidad acumulada.
✍ Funciones de distribución de probabilidad: variables aleatorias
continuas.Función de distribución de probabilidad o de densidad de pro-
babilidad. Función de distribución de probabilidad integrada.
Objetivos ✓ Definición de probabilidadErrores e incertidumbre
☞ Comprender la relación entre el error aleatorio y la probabilidad
☞ Conocer la definición axiomática de probabilidad y las consecuencias
que se derivan de ésta
☞ Comprender la relación entre frecuencia de un suceso y probabilidad de
que este se produzca
✓ Funciones de distribución de probabilidad
☞ Realizar cálculos básicos de probabilidad para variables aleatorias dis-
cretas
☞ Realizar cálculos básicos de probabilidad para variables aleatorias con-
tinuas
15
2.1 2.1. Definición de probabilidad
Como vimos en el tema 1, los errores accidentales son debidos a las fluctuaciones de las distintas
variables que influyen sobre el experimento. Esto se manifiesta en que medidas repetidas en condi-
ciones aparentemente idénticas difieren. Por este carácter aleatorio, los errores accidentales pueden
tratarse estadísticamente.
El objetivo de la teoría estadística de los errores es múltiple: obtener una apreciación óptima del
valor de la magnitud medida, estimar el error accidental en su determinación, verificar si el resultado
es compatible con determinadas hipótesis que puedan establecerse sobre la magnitud que se mide,
etc.
Toda teoría estadística de los errores se basa en dos postulados generales:
(a) la medida experimental de una magnitud es una variable aleatoria que cumple la ley de estabi-
lidad estadística o de los grandes números según la cual las medidas se concentran en torno a un valor
medio, que cuando el número de observaciones es grande (en el límite de infinito) se convierte en un
valor constante, independiente del número de observaciones.
(b) la probabilidad de que observemos un valor distinto del valor medio puede caracterizarse
mediante una función(función de distribución de probabilidad).
La forma concreta de la función de distribución de probabilidad puede ser establecida a partir de
medidas experimentales o, postulada y posteriormente contrastada con los experimentos. Al postular
distintas distribuciones de probabilidad se tendrá una determinada teoría estadística y la interpola-
ción de los resultados experimentales será diferente. Generalmente consideraremos que la función de
distribución que caracteriza nuestras medidas es una función de distribución normal o Gaussiana1.
2.1. Definición de probabilidad
2.1.1. El espacio muestral
En teoría estadística al conjunto de todos los posibles resultados de una medida se le denomina
espacio muestral, S.Por ejemplo,
(i) En un experimento se miden el número de partículas emitidas por una fuente radiactiva. El
espacio muestral está formado por los números 0, 1, 2, ... Puesto que la magnitud determinada en el
experimento es unamagnitud aleatoria discreta, el espacio muestral es un conjunto contable.
(ii) En un experimento se determina el volumen necesario de ácido que hay que utilizar para
alcanzar el punto de equivalencia en una valoración ácido-base. El volumen puede tomar cualquier
valor, tal que V> 0. La magnitud estudiada es unamagnitud aleatoria continuay el espacio muestral
puede ser cualquier número real positivo (V> 0) y el espacio muestral es unconjunto no contable.
Cada posible subconjunto del espacio muestral se le denominasuceso, A. Un suceso que corres-
ponde al resultado de una medida constituye unsuceso elemental o simple.
2.1.2. Definición empírica de probabilidad
Intuitivamente identificamos la probabilidad de un suceso con la frecuencia con la que esperamos
que este ocurra. Podeamos definir la probabilidad de sucesoA, P(A), como la frecuencia con que este
1Estudiaremos esta función de distribución de probabilidad en el tema 5Distribuciones de probabilidad de variables
aleatorias continuas
16
2 2.Teoría estadística de los errores(I). Probabilidad
se produce en un experimento. De acuerdo con esta definición
P (A) =
nA
N
(2.1)
dondenA es el número de veces que se repite el suceso A, yN es el número total de experimentos.
Aunque esta definición sea suficiente para satisfacer nuestra intuición tiene serias limitaciones.
Entre otras:
P(A) depende del número total de medidas.
P(A) depende del experimento: al repetir el experimento el valor de P(A) puede variar.
Ejemplo 1. Limitaciones de la definición empírica de probabilidad
Para demostrar las limitaciones de la definición empírica de probabilidad examinaremos un ex-
perimento consistente en contar el número de caras que aparecen al lanzar cuatro monedas al
aire.
Para estimar la frecuencia esperada para cada suseso calcularemos el número de veces que espe-
ramos observar un evento,nA, (contar dos caras) frente al número total posibles combinaciones
de caras y cruces.
Número de caras combinaciones nA P (A)
0 XXXX 1 1
16
1 CXXX, XCXX 4 4
16
XXCX, XXXC
2 CCXX, CXCX, CXXC 6 6
16
XCCX, XCXX, XXCC
3 CCCX, CXCC, 4 4
16
CXCC, XCCC
4 CCCC 1 1
16
Utilizando un programa de ordenador se simuló el experimento de lanzar cuatro monedas al
aire un gran número de veces. Para calcular el número de caras que se espera observar en cada
experimento se calculo este comoN × P (A).
17
2.1 2.1. Definición de probabilidad
Número de caras 0 1 2 3 4
16 lanzamientos
Esperado 1 4 6 4 1
Experimento 1 2 7 2 4 1
Experimento 2 3 4 4 5 0
160 lanzamientos
Esperado 10 40 60 40 10
Experimento 3 9 40 61 38 12
1600 lanzamientos
Esperado 100 400 600 400 100
Experimento 3 125 403 567 409 96
16000 lanzamientos
Esperado 1000 4000 6000 4000 1000
Experimento 3 1009 3946 5992 4047 1006
En el ejemplo anterior se observa que el acuerdo entre la predicción teórica (número de obser-
vaciones esperadas) y el resultado experimental mejora con el número de ensayos. Esto indica que
conforme el número de experimentos aumenta la frecuencia muestral o experimental se aproxima a
la frecuencia teórica. Este observación ilustra laley de los grandes números: para valores suficiente-
mente grandes del número de medidas, N, las frecuencias muestrales se aproximan a la probabilidad
conforme aumenta de N.
2.1.3. Definición aximática de probabilidad
Supongamos que tenemos un espacio muestralS. Para cada sucesoA de este espacio muestral,
asociamos un número real P(A). Entonces P es una función real que se denominafunción de proba-
bilidad y P(A) la probabilidad del sucesoA, si se cumplen los axiomas siguientes:
Axioma 1. Para cada sucesoA, P (A) ≥ 0.
Axioma 2. Para el suceso cierto o seguro:P (S) = 1.
Axioma 3. Para dos sucesos cualesquiera, A y B, la probabilidad del sucesoque se obtenga A o se
obtenga B, P (A ∪B), viene dada por
P (A ∪ B) = P (A) + P (B)− P (A ∩ B) (2.2)
que se simplifica cuando los sucesos son mutuamente excluyentes (P (A ∩ B) = 0)
P (A ∪ B) = P (A) + P (B) (2.3)
como se ilustra en el diagramas de Venn de la figura2.1.
Esta propiedad puede generalizarse a cualquier número de sucesos.
18
2 2.Teoría estadística de los errores(I). Probabilidad
Figura 2.1: Diagrama de Venn que ilustra el significado deP (A∩ B).
Algunas consecuencias de estos axiomas son:
☞Para cada suceso P(A):
0 ≤ P (A) ≤ 1 (2.4)
es decir la probabilidad de un suceso está entre cero y uno.
☞El suceso imposible tiene probabilidad nula,P (∅) = 0.
☞Si A’ es el suceso complemento de A entonces:
P (A′) = 1− P (A) (2.5)
2.1.4. Probabilidad condicional
La probabilidad de que dos sucesos A y B ocurran simultáneamente,P (A ∩B), viene dada por
P (A ∩B) = P (A)P (B|A) = P (B)P (A|B) (2.6)
dondeP (B|A) es la probabilidad condicional de que suceda B si ha ocurrido A.
Si A y B son sucesos independientes,P (B|A) = P (B),
P (A ∩B) = P (A)× P (B) (2.7)
19
2.2 2.2. Funciones de distribución de probabilidad.
Ejemplo 2. Calculos con probabilidades condicionales
Suponga que dispone de una bolsa con tres bolas rojas y cuatro bolas azules. Calcule la proba-
bilidad de extraer una bola roja y después una azul, si (a) no reemplaza la bola extraída, y (b) se
reemplaza la bola extraída.
(a)
P (R1 ∩ A2) = P (R) P (A|R) =
3
7
× 4
6
= 0,29
P (R) =
bolas rojas
bolas
=
3
7
P (A|R) = bolas azules
bolas
=
4
6
(b)
P (R1 ∩ A2) = P (R) P (A|R) = = P (R) P (A) =
3
7
× 4
7
= 0,24
P (R) =
bolas rojas
bolas
=
3
7
P (A|R) = bolas azules
bolas
=
4
7
2.2. Funciones de distribución de probabilidad.
Debido a los errores aleatorios los resultados de medidas realizadas en idénticas condiciones pro-
ducen valores distintos. Esto supone que las medidas experimentales sonmagnitudes aleatorias.
De acuerdo con los posibles resultados de la medida podemos tener:
Magnitudes discretas: pueden tomar valores discretos y corresponden avariables aleatorias
discretas.
Magnitudes continuas pueden tomar cualquiera de los valores de un intervalo finito o infinito
y corresponden avariables aleatorias continuas..
En la primera categoría entra un experimento de conteo de fotones. En este se mide el número
de fotones que cuenta un fotomultiplicador en la unidad de tiempo. Este sólo puede ser un número
natural: 0,1,2,..., 200, . . . , puesto que no podemos contar fracciones de fotón. A la segunda categoría
pertenecen las medidas de conductividad de una disolución de electrolitos que pueden tomar cualquier
valor dentro de un intervalo: el resultado de la medida es un número real.
En adelante para hacer referencia a la magnitud aleatoria utilizaremos letras mayúsculas, mientras
que para los resultados de un experimento utilizaremos letras minúsculas.
20
2 2.Teoría estadística de los errores(I). Probabilidad
2.2.1. Distribuciones de probabilidad de variables aleatorias discretas.
Sea X una variable aleatoria discreta. Supongamos que los valores que puede tomar estan dados
por x1, x2, x3, . . . ordenados en orden creciente de valor.
La probabilidad de obtener el valorxi, P (xi), viene dada por
P (xi) = f(xi) (2.8)
dondef(xi) es lafunción de probabilidad o función de frecuencia de X.
De acuerdo con la definición axiomática de probabilidad,f(xi) cumple:
f(xi) ≥ 0 (2.9)
N∑
i=1
f(xi) = 1 (2.10)
donde N es el número total de posibles valores que puede tomar xi.
Se define como función de distribución probabilidad acumulada o función de distribución de X,
F (xk) a la probabilidad de que la variable aleatoria tome un valor x tal quex ≤ xk,
F (xk) = P (X ≤ xk) (2.11)
donde xk es cualquier número real en el intervalo -∞ < x < +∞.
Es importante que tenga en cuenta que cuando trabajamos conmagnitudes aleatorias discretas:
f(xi), función de probabilidad o función de frecuencia de X. Probabilidad de que la variable
aleatoriaX tome el valorxi
F (xi): función de distribución probabilidad acumulada. Probabilidad de que la variable alea-
toriaX tome cualquier valor,xj que cumplaxj ≤ xi
¿Cómo se calculaF (xk)?
F(xk) se puede calcular a partir de f(x) como
F (xk) =
∑
xi≤xk
f(xi) (2.12)
F (xk) es una función monótona creciente.
21
2.2 2.2. Funciones de distribución de probabilidad.
Si X toma únicamente un número finito de valores x1, x2, x3, . . . xk entonces la función de distri-
bución acumulada viene dada por:
F (xk) =

0 −∞ < xk < x1
f(x1) −∞ < xk < x2
f(x1) + f(x2) −∞ < xk < x3
. . . . . .
f(x1) + f(x2) + · · ·+ f(xn) −∞ < xk < xn+1
. . . . . .
1 xk < +∞
(2.13)
Ejemplo 3. Cálculo de la función de distribución de probabilidad acumulada,F (xk), de
una variable aleatoria discreta
Considere la variable aleatoria X="número de caras que se obtiene al lanzar cuatro monedas al
aire".
Determinar las funciones de probabilidad y de distribución de X.
x 0 1 2 3 4
f(x) 1
16
4
16
6
16
4
16
1
16
F (xk) puede obtenerse a partir def(x) utilizando la ecuación2.12
F (xk) =
∑
xi≤xk
f(xi)
x < 0 x < 1 x < 2 x < 3 x < 4 x ≥ 0
F (x) 0 1
16
5
16
11
16
15
16
1
22
2 2.Teoría estadística de los errores(I). Probabilidad
Figura 2.2: Funciones de probabilidad,f(xi) y de distribución de probabilidad acumulada,F (xk)
para el ejemplo 3.
23
2.2 2.2. Funciones de distribución de probabilidad.
2.2.2. Distribuciones de probabilidad de variables aleatorias continuas
Sea una variable continua X. La función de distribución de probabilidad o función de densidad
de probabilidad ,f(x), proporciona la probabilidad de que la magnitud aleatoria se encuente en el
intervalo[x, x + dx]
P (x ≤ X ≤ x + dx) = f(x) (2.14)
De acuerdo con la definición axiomática de probabilidad,f(x) cumple:
f(x) ≥ 0 (2.15)
∫ +∞
−∞
f(x)dx = 1 (2.16)
La probabilidad de que X se encuentre en el intervalor[a, b] viene dada por
P (a ≤ X ≤ b) =
∫ b
a
f(x)dx (2.17)
Es importante tener en cuenta que para una variable aleatoria continua,P (X = xi) = 0,
P (a ≤ X ≤ b) = P (a ≤ X < b) = P (a < X ≤ b) = P (a < X < b) (2.18)
Figura 2.3: Funciones de densidad de probabilidad,f(x) de una variable aleatoria continua. Signifi-
cado deP (a ≤ x ≤ b) =
∫ b
a
f(x)dx.
24
2 2.Teoría estadística de los errores(I). Probabilidad
Por analogía con las funciones de distribución de probabilidad discretas se puede definir lafunción
de distribución de probabilidad integrada de una variable aleatoria continua, F (xi), continua como:
F (xi) = P (X ≤ xi) = P (−∞ ≤ X ≤ xi) =
∫ xi
−∞
f(u)du (2.19)
A partir de esta definición se pueden obtener las siguientes relaciones:
P (a ≤ X ≤ b) =
∫ b
a
f(x)dx =
∫ b
−∞
f(x)dx −
∫ a
−∞
f(x)dx = F (b)− F (a) (2.20)
P (X > a) = 1− P (X ≤ a) = 1− F (a) (2.21)
ya que x>a es el suceso complementario a x≤ a.
Algunas propiedades de F(x) son:
En todo el intervalo en que f(x) es continua,
f(x) =
dF (x)
dx
Si x2 >x1 tendremos que F(x2) >F(x1). Es decir F(x) es monótona creciente.
F (−∞) = 0 y F (+∞) = 1
Figura 2.4: Funciones de distibución de probabilidad,F (x). Significado deP (a ≤ x ≤ b) = F (b)−
F (a)
25
2.2 2.2. Funciones de distribución de probabilidad.
Ejemplo 4. Cálculo de la constante de normalización de una función de distribución de
probabilidad, f(x), de una variable aleatoria continua
Hallar la constante c para que la función de densidad de probabilidad
f(x) =

0 x < 0
cx2 0 ≤ x ≤ 3
0 x > 3
sea una función de distribución de probabilidad y calcular P(1<x<2).
Para que f(x) sea una función de distribución de probabilidad debe cumplir la condición (ver
ecuación2.16) ∫ +∞
−∞
f(x)dx = 1
Sustituyendo en la ecuación2.16∫ +∞
−∞
f(x)dx =
∫ 3
0
c x2dx =
1
3
cx3
∣∣∣∣3
0
= 9 c = 1
se obtiene quec = 1/9.
Utilizando la ecuación2.17
P (a ≤ X ≤ b) =
∫ b
a
f(x)dx
se obtiene
P (1 ≤ X ≤ 2) =
∫ 2
1
1
9
x2dx =
1
27
x3
∣∣∣∣2
1
=
7
27
Ejemplo 5. Cálculo de la función de distribución de probabilidad integrada,F (x), de una
variable aleatoria continua
Sea x una variable aleatoria con función de densidad de probabilidad normalizada
f(x) =

0 x < 0
1− x 0 ≤ x ≤ 1
x− 1 1 ≤ x ≤ 2
0 x > 2
(a) Determine F(x), (b) calculeP (0 ≤ X ≤ 1) y (c) P (x = 0, 1/2, 1, 3/2, 2).
26
2 2.Teoría estadística de los errores(I). Probabilidad
(a) Para calcular F(x) utilizaremos la ecuación2.19
F (x) =
∫ x
−∞
f(u)du
Parax < 0, F (x) = 0.
En el intervalo0 ≤ x ≤ 1,
F (x) =
∫ x
−∞
f(u)du =
∫ x
−∞
(1− u) du = t− 1
2
t2
∣∣∣∣x0
= x− 1
2
x2
En el intervalo1 ≤ x ≤ 2,
F (x) =
∫ x
−∞
f(u)du =
∫ 1
−∞
(1− u) du +
∫ 2
1
(u− 1) du
= t− 1
2
t2
∣∣∣∣1
0
+
1
2
t2 − t
∣∣∣∣x
1
=
1
2
x2 − x + 1
En el intervalox > 2,F (x) = 1, ya que la función de densidad de probabilidad está normalizada.
F (x) =

0 x < 0
x− 1
2
x2 0 ≤ x ≤ 1
1
2
x2 − x + 1 1 ≤ x ≤ 2
1 x > 2
(b) Teniendo en cuenta que - ecuación2.20
P (a ≤ X ≤ b) = F (b)− F (a)
P (0 ≤ X ≤ 1) = F (1)− F (0) = 0,5
(c) P (x = 0, 1/2, 1, 3/2, 2) = P (0) + P (1/2) + P (3/2) + P (2) = 0, por ser la variable x una
variable continua.
27
2.2 2.2. Funciones de distribución de probabilidad.
Ejemplo 6. Cálculof(x) a partir de F (x)
Sea x una variable aleatoria con función de distribución de probabilidad
F (x) =

0 x < 0
1
2
x2 0 ≤ x ≤ 1
2x− 1
2
x2 − 1 1 ≤ x ≤ 2
1 x > 2
Hallar f(x)
f(x) =
dF (x)
dx

0 x < 0
x 0 ≤ x ≤ 1
2− x 1 ≤ x ≤ 2
0 x > 2
Concepto de cuantila
Finalmente, se define como laβ cuantila,xβ, el valor de la variable aleatoria X para el que se
cumple
F (xβ) = P (x ≤ xβ) = β (2.22)
Habitualmente se utilizan las 100β percentila. Por ejemplo, la cuantila 0.1 (o la percentila 10)
corresponde al valor de la variable aleatoria,x0,1, tal queF (x0,1) = 0,1.
28
2 2.Teoría estadística de los errores(I). Probabilidad
2.3. Ejercicios y problemas
Funciones de distribución de probabilidad
Cuestión 2.1 Elija la mejor respuesta.
Considere una variable alatoria continua X. La función de distribución o densidad de probabilidad,f(x),
proporciona:
(a) f(x) = P (X = x)
(b) f(x) = P (x < X < x + dx)
(c) f(x) = P (x ≤ X < x + dx)
(d) f(x) = P (x < X ≤ x + dx)
(e)f(x) = P (x ≤ X ≤ x + dx)
(e)f(x) = P (x ≤ X)
(f) Las respuestas b,c,d,e son correctas, ya que son equivalentes
(g) Ninguna de las anteriores. La respuesta correcta es .........
Cuestión 2.2 Verdadero o falso. Jusitfique la respuesta.
Para una variable alatoria continua X,P (X = xi) = 0
Cuestión 2.3 Indique las respuesta o respuestas correctas.
Considere una variable alatoria continua X con función de densidad de probabilidadf(x), P(X<a)
viene dado por
(a)
∫ a
−∞ f(x)dx (b) 1−
∫ a
−∞ f(x)dx (c)
∫∞
a
f(x)dx
(d) 1−
∫∞
a
f(x)dx (e)F (a) (e)1− F (a)
(f) Ninguna de las anteriores.
Ejercicio 2.1 Dada la función de densidad de probabilidad
f(x) =

0 x < 0
1
9
x2 0 ≤ x ≤ 3
0 x > 3
(a) Encuentre la función de distribución, F(x), correspondiente. (b) Utilice este resultatado para
calcularP (1 ≤ x ≤ 2).
Ejercicio 2.2 La función de distribución de la variable aleatoria X es
F (x) =
{
0 x < 0
1− e−2x x ≥ 0
(a) Encuentre la función de densidad, f(x), correspondiente. (b) Utilice las funciones de distribución
y densidad para calcular la probabilidad de que X>2. (c) Utilice las funciones de distribución y
densidad para calcular la probabilidad de que−3 ≤ X ≤ 4.
29
2.3 2.3. Ejercicios y problemas
Ejercicio 2.3 Una variable aleatoria X tiene una función de densidad
f(x) =
c
x2 + 1
donde−∞ < x < ∞
(a) Encuentre el valor de la constante c. (b) Encuentre la probabilidad de queX2 se encuentre
entre 1/3 y 1.
Ejercicio 2.4 Dada la función de distribución de probabilidad
f(x) =

0 x < a
k a ≤ x ≤ b
0 x > b
Determine el valor de k. ¿Qué valor tendrán esta magnitud si a = -e y b = e?.
2.3.1. Soluciones a los ejercicios
Funciones de distribución de probabilidad
Ejercicio 2.1 (a)
F (x) =

0 x < 0
x3
27
0 ≤ x ≤ 3
1 x > 3
(b) 7
27
Ejercicio 2.2 (a)
f(x) =
{
0 x < 0
2e−2x x ≥ 0
(b) e−4. (c) 1 − e−8
Ejercicio 2.3 (a) De acuerdo con la ecuación2.16∫ +∞
−∞
f(x)dx = 1
∫ +∞
−∞
c
x2 + 1
dx = c tan−1 x
∣∣∞
−∞ = c
[π
2
−
(
−π
2
)]
= 1
c = 1/π
(b) Si 1
3
≤ X2 ≤ 1, los valores de X pueden estar en los intervalos−
√
3
3
≤ X ≤ −1 y
√
3
3
≤ X ≤
1.
Por lo tanto la probabilidad requerida es
30
2 2.Teoría estadística de los errores(I). Probabilidad
1
π
∫ −√3
3
−1
dx
x2 + 1
1
π
∫ √3
3
1
dx
x2 + 1
=
2
π
∫ √3
3
1
dx
x2 + 1
=
2
π
[
tan−1(1)− tan−1(
√
3
3
)
]
=
2
π
[π
4
− π
6
]
=
1
6
2.4. Lecturas recomendadas
Para completar la preparación de este tema recomendamos la lectura de:
☞ Capítulo 1. Magnitudes aleatorias y sus caracterísitcas.del texto de Spiridonov y Lopatkin[7].
X
Repasa los conceptos básicos de probabilidad y función de distribución de propabilidad. Ade-
cuado para revisar la teoría del tema.
☞ Capítulo 2. Variables aleatorias y distribución de probabilidaddel libro de Spiegel y cols.[5].
En el capítulo recomendado los autores tratan temas no estudiados en esta asignatura como las
distribuciones de probabilidad conjunta, ... Se recomienda revisar las secciones cuyos conteni-
dos coinciden con los del curso: Variables aleatorias. Distribuciones de probabilidad discreta.
Funciones de distribución para variables aleatorias. Funciones de distribución para variables
aleatorias discretas. Funciones de distribución para variables aleatorias continuas. Interpreta-
ciones gráficas.
También se recomienda la realización de los ejercicios suplementarios 2.47 a 2.53.X
☞ Tema 2. Variables aleatorias y distribuciones de probabilidad.del texto de Walpole y Myers[6].
Se recomienda la consulta de las secciones: 1.Concepto de variable aleatoria; 2. Distribución
discreta de probabilidad; 3. Distribución continua de probabilidad; y 4. Distribuciones empíri-
cas.
31
3
Teoría estadística de los errores(II). Esperanza matemática
Contenidos ✍ Esperanza matemática de una magnitud aleatoriaDefinición de es-
peranza matemática. Propiedades de la esperanza matemática Momentos
de una distribución. Media y varianza.
✍ Propiedades generales y propiedades muestrales de una magnitud
aleatoria Media general de una magnitud aleatoria,µ. Media muestral
de una magnitud aleatoria,x̄. Varianza de una magnitud aleatoria,σ2(x).
Dispersion o varinza muestral de una magnitud aleatoria,s2(x).
Objetivos ✓ Comprender el concepto de esperanza matemática
✓ Calcular la esperanza matemática ,E {y(x)}, de una funcióny(x) de una
variable aleatoria discreta conocida f(x)
✓ Calcular la esperanza matemática ,E {y(x)}, de una funcióny(x) de una
variable aleatoria continua conocida f(x)
✓ Conocer y utilizar las propiedades de la esperanza matemática
✓ Calcular los momentos de orden k respecto del parámetroc, Mk de una
variable aleatoria discreta o continua
✓ Distinguir entre magnitudes generales y mmuestrales
✓ Comprender la diferencia entremux y x̄
✓ Comprender la diferencia entreσ2(x) y s2(x)
✓ Evaluarmux y σ2(x) de una magnitud aleatoria
✓ Calcularla media y la varianza muestral de un conjunto de medidas
33
3.1 3.1. Esperanza matemática de una magnitud aleatoria
3.1. Esperanza matemática de una magnitud aleatoria
3.1.1. Magnitudes aleatorias discretas
Sea una magnitud aleatoria discreta,x, y una funcióny(x). Si f(x) es la función de distribución
de probabilidad de la variablex, se define comoesperanza matemáticade la funcióny(x),
E {y(x)} =
k∑
i=1
y(xi) · f(xi) (3.1)
donde la suma se extiende a todos los posibles valores de x.
3.1.2. Magnitudes aleatorias continuas
Sea una magnitud aleatoria continua,x, y una funcióny(x). Si f(x) es la función de densidad de
probabilidad de la variablex, se define comoesperanza matemáticade la funcióny(x),
E {y(x)} =
∫ ∞
−∞
y(x) · f(x) dx (3.2)
donde la suma se extiende a todos los posibles valores de x.
3.1.3. Propiedades de la esperanza matemática
Algunas propiedades de la esperanza matemática son:
Si c es una constante (magnitud no aleatoria) tendremos que
E {c} = c (3.3)
E {c y(x)} = c · E {y(x)} (3.4)
Si la magnitud aleatoriax es la suma de n magnitudes aleatorias independientes
x = x1 + x2 + . . . + xn (3.5)
su esperanza matemática es la suma de la esperanza matemática las n magnitudes sumadas
E {x} = E {x1} + E {x2} + . . . + E {xn} (3.6)
34
3 3.Teoría estadística de los errores(II). Esperanza matemática
Si la magnitud aleatoriay es una función no lineal de n magnitudes aleatorias independientes
y = f(x1, x2, . . . , xn) (3.7)
que varia poco en intervalos pequeños de variación delos argumentos, el valor deE {y} es
aproximadamente
E {y} = f (E {x1} , E {x2} , . . . E {xn}) (3.8)
3.1.4. Momentos de una distribución.
Dada una variable aleatoria, x, discreta o continua, se llamamomento de orden k respecto del
parámetro c, Mk a las esperanza matemática de la variable(x− c)k
Mk = E
{
(x− c)k
}
(3.9)
Si c = 0 tenemos losmomentos respecto del origena los que suele representarse porαk
αk = E
{
(x)k
}
(3.10)
Dos momentos de importantes sonα0 = 1 y α1 = µX (valor medio de x o media de x).
α0 = E
{
(x)0
}
= E {1} = 1 (3.11)
α1 = E
{
(x)1
}
= E {x} = µx (3.12)
Si c = µX hablamos demomentos centraleso momentos respecto de la media. Suele represetarse
porµk y vienen dados por
µk = E
{
(x− µx)k
}
(3.13)
Momentos de importantes sonµ0 = 1, µ1 = 0 y µ2 = σ2x (varianza de x).
µ2 = E
{
(x− µx)2
}
= σ2x (3.14)
35
3.1 3.1. Esperanza matemática de una magnitud aleatoria
Ejemplo 1. Cálculo de la media y la varianza de una variable aleatoria discreta
Considere la variable aleatoriaX que tiene la siguiente función de distribución de probabilidad
x 8 12 16 20 24
f(x) 1
8
1
6
3
8
1
4
1
12
Cálcule la media y la varianza de X.
La media viene dada por la ecuación3.12
µx = E {x}
Sustituyendo
µx =
∑
x · f(x) = 8 · 1
8
+ 12 · 1
6
+ 16 · 3
8
+ 20 · 1
4
+ 24 · 1
12
= 16
La varianza viene dada por la ecuación3.14
σ2x = E
{
(x− µx)2
}
σ2x = E
{
(x− µx)2
}
=
∑
(x− 16)2 · f(x)
= (8− 16)2 · 1
8
+ (16− 12)2 · 1
6
+ (16− 16)2 · 3
8
+ (20− 16)2 · 1
4
+ (24− 16)2 · 1
12
= 64 · 1
8
+ 16 · 1
6
+ 0 · 3
8
+ 16 · 1
4
+ 64 · 1
12
= 20
La varianza también viene dada por
σ2x = E
{
(x2)
}
− µ2x
E
{
x2
}
=
∑
x2 · f(x) = 64 · 1
8
+ 144 · 1
6
+ 256 · 3
8
+ 400 · 1
4
+ 24 · 1
12
= 276
σ2x = E
{
(x− µx)2
}
= 276− (16)2 = 276− 256 = 20
Como muestran los resultados los dos métodos utilizados para calcular la varianza son equiva-
lentes.
36
3 3.Teoría estadística de los errores(II). Esperanza matemática
Ejemplo 2. Cálculo de la media y la varianza de una variable aleatoria continua
Sea la variable aleatoria X que tiene por función de densidad
f(x) =
dF (x)
dx

0 −∞ < a < x
k a < x < b
0 x < b
Calcular la media y la varianza de X.
Antes de poder calcular la media y la varianza tenemos que determinar el valor de k.
Para que f(x) sea una función de densidad de probabilidad debe cumplir (ver ecuación2.16)∫ +∞
−∞
f(x)dx = 1
Es decir, ∫ b
a
kdx = k · (b− a) = 1
por tantok = 1/(b− a)
La media viene dada por (ecuación3.12)
µx = E {x} =
∫ +∞
−∞
x · f(x) dx
µx =
∫ b
a
x
b− a
dx =
b + a
2
La varianza viene dada por la ecuación3.14
σ2x = E
{
(x− µx)2
}
que es equivalente a
σ2x = E
{
x2
}
− µ2x
E
{
x2
}
=
∫ +∞
−∞
x2 · f(x) dx =
∫ b
a
x2
b− a
dx =
1
3
x3
b− a
∣∣∣∣b
a
=
1
3
b3 − a3
b− a
σ2x =
1
12
(b − a)2
37
3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria
3.2. Propiedades generales y propiedades muestrales de una mag-
nitud aleatoria
De acuerdo con los postulados de la teoría estadística de los errores tras un número suficiente-
mente grande de experimentos, lo valores obtenidos para la magnitud medida tienden a agruparse
alrededor de un valor, y su dispersión alrededor de este valor está caracterizada por una función de
distribución de probabilidad. En general, una vez conocida la forma de la distribución de probabili-
dad, basta para caracterizarla un número limitado deconstantes. Estos parámetros que caracterizan
al conjunto de todas las medidas que puedan obtenerse de un experimento en ciertas condiciones se
denominanparámetros poblacionales.
El conjunto de medidas obtenidas en una serie experimentos se denominamuestra. Como el nú-
mero de medidas que componen la muestra normalmente es pequeño, los parámetros que caracterizan
la muestra,propiedades o parámetros muestrales. En general los parámetros muestrales no coinciden
con los parámetros poblacionales. Sin embargo, podemos obtener valores aproximados de losparáme-
tros poblacionales a partir de los parámetros muestrales (estimas) 1.
Una propiedad de las estimas es que sonvariables aleatoriasmientras que losparámetros po-
blacionalesson valores constantes y característicos de la función de distribución de probabilidad
asociada a los errores aleatorios.
Finalmente, una cuestión de notación. En esta sección designaremos las propiedades poblaciona-
les utilizando el alfabeto griego, mientras que utilizaremos el alfabeto latino para propiedades mues-
trales.
Propiedades generales de las estimas
Si T es una estima del parámetro poblacionalθ, T debe cumplir entre otros criterios que
E {T} = µT = θ. Esto equivale a decir que la estima T no es una estima sesgada.
La estima es consistente. Es decir, cuanto mayor es el número de medidas utilizadas para cal-
cularT , mayor es la proximidad entre los valores deT y θ
Propiedades muestrales de uso frecuente
Para describir nuestras medidas haremos referencia a dos tipos de propiedades muestrales:
un número alrededor del que las medidas se agrupan:media muestral, x.
un número que da una medida de la dispersión de los valores alrededor de la media:la desvia-
ción típica muestral, s(x).
Utilizaremos la media muestral,x̄ como estima del valor real. Como medida de la incertidumbre
de cada medida utilizaremos la desviación típica de nuestros datos,s(x), mientras que para acotar la
incertidumbre de la estima de la media utilizaremos la desviación típica muestral de la media,s(x̄).
1Existen distintos métodos para obtener estimas. Algunos de ellos son el método de máxima verosimilitud, el método
de mínimos cuadrados, el método de los momentos y el método Bayesiano. La descripción de estos métodos excede los
objetivos del curso
38
3 3.Teoría estadística de los errores(II). Esperanza matemática
3.2.1. Media general de una magnitud aleatoria
El valor medio de la magnitud aleatoria x para el conjunto general es la esperanza matemática de
la magnitud aleatoria
µx = E {x} (3.15)
3.2.2. Media muestral de una magnitud aleatoria
La media muestral de la magnitud aleatoria x se define como el valor medio de los valores obser-
vados x1,x2, . . . ,xn,
x̄ =
x1 + x2 + . . . + xn
n
=
1
n
·
n∑
j=1
xj (3.16)
3.2.3. Varianza de una magnitud aleatoria.
La varianza o dispersión de una magnitud aleatoria x se define como la esperanza matemática de
las desviaciones respecto a la media general:
σ2x = E
{
(x− µx)2
}
(3.17)
Al valor positivo de la raíz cuadrada de la varianza,σ(x), se le llama desviación cuadrática media,
desviación típica o desviación normal.
Algunas propiedades de la varianza son:
Si c es una constante (magnitud no aleatoria) tendremos que:
σ2(c) = 0 (3.18)
σ2(c x) = c2 σ2(x) (3.19)
Si la magnitud aleatoriax es la suma de n magnitudes aleatorias independientes
x = x1 + x2 + . . . + xn (3.20)
la varianza dex es la suma de las varianzas de las n magnitudes sumadas
σ2(x) = σ2(x1) + σ
2(x2) + . . . + σ
2(xn) (3.21)
39
3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria
Sin embargo,σ(x) viene dado por
σ(x) =
√
σ2(x1) + σ2(x2) + . . . + σ2(xn) (3.22)
La varianza se puede calcular a partir de los momentos respecto del origenα1 y α2:
σ2(x) = E
{
x2
}
− µ2x (3.23)
Si la magnitud aleatoriay es una función no lineal de n magnitudes aleatorias independientes
y = f(x1, x2, . . . , xn) (3.24)
que varia poco en intervalos pequeños de variación de los argumentos, el valor deσ2(y) es
aproximadamente
σ2(y) =
(
∂f
∂x1
)2
σ2(x1) +
(
∂f
∂x2
)2
σ2(x2) + . . .
(
∂f
∂xn
)2
σ2(xn) (3.25)
Esta propiedad es útil para el cálculo de la incertidumbre de magnitudes complejas.
Ejemplo 3. Varianza de una magnitud indirecta
Utilizando un puente de Wheatstone, la resistencia de una disolución de electrolitos,W , puede
calcularse mediante la ecuación
W = R · 1000− a
a
= R ·
(
1000
a
− 1
)
dondeR es el valor de una resistencia patrón conocida ya es la lectura de la resistencia que se
obtiene experimentalmente cuando se equilibra el puente de Wheatstone.Calcule la incertidumbre deW . Considere que la incertidumbre deR es despreciable.
De acuerdo con la ecuación3.30
σ2(y) =
(
∂f
∂x1
)2
σ2(x1) +
(
∂f
∂x2
)2
σ2(x2) + . . .
(
∂f
∂xn
)2
σ2(xn)
que en nuestro caso se reduce a
σ2(W ) =
(
∂W
∂a
)2
σ2(a)
40
3 3.Teoría estadística de los errores(II). Esperanza matemática
(
∂W
∂a
)
= −R · 1000
a2
σ2(W ) = R2 · 10
6
a4
σ2(a)
Ejemplo 4. Varianza de una magnitud indirecta (II)
Determine la incertidumbre en la medida de la entalpia para la reacción
NH3(g) +
5
4
O2(g) � O(g) + 32H2O(g) ∆Hr R.1
Considere las reacciones:
H2O(g) � H2O(l) ∆H2 R.2
1
2
N2(g) +
3
2
H2(g) � NH3(g) ∆H3 R.3
1
2
H2(g) +
1
2
O2(g) � H2O(g) ∆H4 R.4
1
2
NO(g) � 1
2
N2(g) +
1
2
O2(g) ∆H5 R.5
Utilizando la ley de Hess podemos expresar∆Hr en función de las entalpias de las reacciones
R.2 a R.5
∆Hr = −
3
2
∆H2 − ∆H3 +
3
2
∆H4 − ∆H5
y de acuerdo con las propiedades de la dispersión muestral, ecuación3.30, la incertidumbre en
∆Hr es
σ2(∆Hr) = (
3
2
)2σ2(∆H2) + σ
2(∆H3) + (
3
2
)2σ2(∆H4) + σ
2(∆H5)
41
3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria
3.2.4. Dispersion o varinza muestral de una magnitud aleatoria
La dispersión muestral de una magnitud aleatoria prodría definirse como
s∗2 = 1
n
n∑
j=1
(xj − µx)2 (3.26)
Esta expresión presupone que conocemos el valor deµx. Como sólo disponemos de una estima de
esta magnitud, la media muestral,x̄. Si sustituimos la media muestral por la media poblacional con lo
que tendriamos:
s∗2 = 1
n
n∑
j=1
(xj − x̄)2 (3.27)
Sin embargo cuando comprobamos la propiedades de esta estma observamos que la estima deσ(x)2
que obtenemos,s∗2 es una estima sesgada:E{s∗2} < σ2(x).
Podemos obtener una buena estima sustituiyendo N en el cociente en la expresión de s2∗ por el
número de grados de libertad. El número grados de libertad es el número de observaciones indepen-
dientes, es decir aquellas en exceso a las necesarias para determinar los parametros que aparecen en
la ecuación. En este caso, el número de grados de libertad es N-1 pues al menos necesitamos 1 dato
para determinar la media muestral.
s2(x) =
1
n− 1
n∑
j=1
(xj − x̄)2 (3.28)
En este casoE{s2(x)} = σ2(x). s2(x) es la varianza muestral de x.
Como en el caso de la varianza, si la magnitud aleatoriay es una función no lineal de n magnitudes
aleatorias independientes
y = f(x1, x2, . . . , xn) (3.29)
que varia poco en intervalos pequeños de variación de los argumentos, el valor des2(y) es aproxima-
damente
s2(y) ≈
(
∂f
∂x1
)2
s2(x1) +
(
∂f
∂x2
)2
s2(x2) + . . .
(
∂f
∂xn
)2
s2(xn) (3.30)
Esta propiedad es útil para el cálculo de la incertidumbre de magnitudes complejas o indirectas2.
2Cálculos de propagación de errores
42
3 3.Teoría estadística de los errores(II). Esperanza matemática
Ejemplo 5. Calculo de la media y la varianza muestral
En una serie de experimentos para determinar la entalpia neutralización del HCl y NaOH a
300 K se obtuvieron los siguientes valores:
∆H(kcal/mol) : 54,4, 56,4, 57,5, 56,6, 57,0, 56,5, 58,4, 57,0, 55,2
Determine el valor de media y la desviación típica de las medidas.
La media muestral viene dada por la ecuación3.16
x̄ =
x1 + x2 + . . . + xn
n
=
1
n
·
n∑
j=1
xj
mientras que la varianza muestral se calcula utilizando la ecuación3.28
s2(x) =
1
n− 1
n∑
j=1
(xj − x̄)2
Medida xi xi − x̄ (xi − x̄)2
1 54.4 -2.15 4.6225
2 56.4 -0.16 0.0256
3 57.5 0.94 0.8836
4 56.6 -0.04 0.0016
5 57.0 0.44 0.1936
6 56.5 -0.06 0.0036
7 58.4 1.84 3.3856
8 57.0 0.44 0.1936
9 55.2 -1.36 1.8496
SUMA 509.0 0.0 11.593
Sustituyendo en las ecuaciones3.16y 3.28se obtienēx = 509,0/9 = 56,56 kcal.mol−1.
s2 = 11,1593/8 = 1,3949( kcal.mol−1)2 y s = 1,18 kcal.mol−1.
El resultado final∆H = 56,6± 1,2 kcal.mol−1.
43
3.3 3.3. Mediana y moda
3.3. Mediana y moda
La media, o esperanza, de una variable aleatoria X proporcion una medida de la tendencia central
para los valores de una distribución. Otras medidas de la tendencia central frecuentemente usadas son:
Moda Para una variable aleatoria discreta es el valor que ocurre con más frecuencia o, en el que tiene
la mayor probabilidad de ocurrencia. Algunas veces tenemos dos, tres o más len probabilidades
relativamente grandes de ocurrencia. En tales casos, decimos que la bimodal, trimodal o multi-
modal, respectivamente.
En el caso de una variable aleatoria continua X es el valor o valores de X donde la función de
densidad de probabilidad tiene un máximo relativo.
Mediana Valor de x para el cualP (X < x) = 1
2
y P (X > x) ≤ 1
2
. En el caso de una variable
continua tenemosP (X < x) = 1
2
= P (X > x), y la mediana separa la curva de densidad en
dospartes con áreas iguales de 1/2 cada una. En el caso de una distribución discreta, no existe
una mediana única
44
3 3.Teoría estadística de los errores(II). Esperanza matemática
3.4. Ejercicios y problemas
Cuestión 3.1 Demuestre
µ0 = 1
Cuestión 3.2 Demuestre
µ1 = 0
Cuestión 3.3 Demuestre
σ2x = E
{
x2
}
− µ2x
Cuestión 3.4 Verdadero o falso. Jusitfique la respuesta.
La media muestral,̄x es una variable aleatoría
Cuestión 3.5 Verdadero o falso. Jusitfique la respuesta.
La varianza,σ2(x) es una variable aleatoría
Cuestión 3.6 Verdadero o falso. Jusitfique la respuesta.
La mediaµx y la varianzaσ2(x) son dos propiedas características de una variable aleatoria
Esperanza matemática de una magnitud aleatoria
Ejercicio 3.1 Dada la función de densidad de probabilidad
Sea la variable aleatoria X que tiene por función de densidad
f(x) =
dF (x)
dx

0 −∞ < x < 0
x 0 ≤ x < 1
2− x 1 ≤ x ≤ 2
0 x > 2
Calcular la media y la varianza de X.
Calculo de magnitudes muestrales
Ejercicio 3.2 Al realizar cinco medidas del indice de refracción de una mecla se obtuvieron los
siguientes valores:
1.591, 1.521,1.528,1.570,1.587
45
3.4 3.4. Ejercicios y problemas
Ejercicio 3.3 Los resultados de una serie de medidas de la temperatura con un termometro agrupa-
dos en clases de anchura 0.1 K son
T / K 298 298.1 298.2 298.3 298.4 298.5
Fi 0.2 0.2 0.3 0.1 0.1 0.1
Dibuje el histograma asociado a estos datos.
Ejercicio 3.4 En una serie de experimentos se determino la capacidad de absorber metales pesados
presentes en el medio natural de ciertas especies de pescado. Los siguientes datos corresponden a
medidas de la concentración promedio de cadmio (mg Cd por Kg de pez) para una especie en distintos
bancos del Atlántico.
13.1 8.4 16.9 2.7 9.6 4.5 12.5
5.5 12.7 17.1 10.8 18.9 27.0 18.0
6.4 13.1 8.5 7.5 12.1 8.0 11.4
5.1 5.6 5.5 5.0 10.1 4.5 7.9
7.9 8.9 3.7 9.5 14.1 7.7 5.7
6.5 10.8 14.7 14.4 5.1
Determine la media y la desviación típica de los datos. Dibuje el histograma correspondiente.
Ejercicio 3.5 Una medida de la eficiencia de una torre de destilación es la velocidad de producción
de vapor. En la tabla se recogen una serie de valores correspondientes a esta propiedad.
1170 1620 1495 1170 1710 1710 1530
1260 1440 1800 1170 1260 1170 1640
1800 1800 1530 1350 1800 1530 1170
1440 1530 1260 1350 1350 1350 1440
1170 1710 1620 1350 1730 1800 1800
1530 1440 1620
Determine la media y la desviación típica de los datos. Dibuje el histograma y diagrama de
frecuencias asociado a estos datos. ¿Por debajo de que valor se encuentra el 90 % de los datos?.
3.4.1. Soluciones a los ejercicios
Esperanza matemática de una magnitud aleatoria
Ejercicio 3.1 La media viene dada por (ecuación3.12)
µx = E {x} =
∫ +∞
−∞
x · f(x) dx
46
3 3.Teoría estadística de los errores(II). Esperanza matemática
µx =
∫ 1
0
x · x dx +
∫ 2
1
x · (2− x) dx
=
x3
3
∣∣∣∣1
0
+ x2 − x
3
3
∣∣∣∣2
1
=
1
3
+
2
3
= 1
La varianza viene dada por la ecuación3.14
σ2x = E
{
(x− µx)2
}
= E
{
x2
}
− µ2x
E
{
x2
}
=
∫ 1
0
x2 · x dx +
∫ 2
1
x2 · (2− x) dx
=
x4
4
∣∣∣∣1
0
+
2x3
3
− x
4
4
∣∣∣∣2
1
=
1
4
+
14
3
− 15
4
=
7
6
σ2x =
7
6
− (1)2 = 1
6
3.5. Lecturas recomendadas
Para completar la preparación de este tema recomendamos la lectura de:
☞ Capítulo 1. Magnitudes aleatorias y sus caracterísitcas.del textode Spiridonov y Lopatkin[7].
X
Revisa los contenidos del tema. Adecuado para revisar la teoría del tema.
☞ Capítulo 3. Esperanza matemáticadel libro de Spiegel y cols.[5].
En el capítulo recomendado los autores tratan temas no estudiados en esta asignatura como las
funciones generatrices, ... Se recomienda revisar las secciones cuyos contenidos coinciden con
los del curso.
Se recomienda revisar los ejercicios resueltos 3.1, 3.2, 3.19(a).X
☞ Tema 3.Esperanza matemática.del texto de Walpole y Myers[6].
Se recomienda la consulta de las secciones: 1. Media de una variable aleatoria, 2. Varianza y
covarianza.
47
4
Distribuciones de probabilidad de variables aleatorias discretas
Contenidos ✍ Distribución uniforme Descripción y propiedades.
✍ Distribución binomial Descripción y propiedades. Teorema de Moivre.
✍ Distribución de PoissonDescripción y propiedades. La distribución
de Poisson como límite de la distribución binomial. Convergencia de la
distribución de Poisson a la distribución de Gauss.
Objetivos ✓ Reconocer las características de la distribución uniforme de una variable
aleatoria discreta
✓ Reconocer las características de un experimento de Bernuilli
✓ Realizar calculos de probabilidades de variables aleatorias que siguen un
distribución binomial
✓ Calcularµ y σ de variables que siguen un distribución binomial
✓ Utilizar el teorema de Moivre para calcular probabilidades de resultados de
un experimento de Bernuilli utilizando una distribución normal
✓ Realizar calculos de probabilidades de variables aleatorias que siguen un
distribución de Poisson
✓ Calcularµ y σ de variables que siguen un distribución de Poisson
✓ Utilizar la distribución normal para calcular probabilidades de resultados
de un experimento de Poisson
✓ Utilizar la distribución de Poisson para calcular probabilidades de resul-
tados de un experimento de Bernuilli en el límite de probabilidades de exito
bajas y número de pruebas grande
49
4.2 4.1. Distribución uniforme
4.1. Distribución uniforme
¿Qué variables aleatorias siguen esta función de probabilidad?. Esta distribución de probabilidad
corresponde a variables aleatorias discretas que pueden tormar n valores, xi= x1, x2,..., xn y todos sus
posibles valores tienen la misma probabilidad.
La función de distribución de probabilidad es
f(x) = P (X = xi) =
1
n
dondei = 1, 2, . . . , n (4.1)
La media y la varianza de la distribución vienen dadas por
µ =
n + 1
2
(4.2)
σ2 =
n2 − 1
12
(4.3)
Ejemplo 1. Distribución de probabiblidad uniforme
Considere la variable aleatoriaX que corresponde a lanzar un dado y leer la cara superior del
dado. Si el dado no está trucado, todos los resultados tienen la misma probabilidad y la función
de distribución de probabilidad de esta variable aleatoria es
x 1 2 3 4 5 6
f(x) 1
6
1
6
1
6
1
6
1
6
1
6
El diagrama de barras muestra la función de distribución de probabilidad.
50
4 4. Distribuciones de probabilidad de variables aleatorias discretas
4.2. Distribución binomial
¿Qué variables aleatorias siguen esta función de probabilidad?. Las variables que siguen la distri-
bución binomial corresponden a los experimentos que cumplen
tenemos un número fijon de experimentos (pruebas)
el resultado de cada experimento sólo puede tener dos valores (exitoy fracaso)
el resultado de un experimento es independiente de los anteriores y no influye en los posteriores
Estos experimentos también son conocidos comopruebas de Bernuilli.
Seap (probabilidad de éxito) la probabilidad de que un suceso ocurra en una sola prueba de
Bernuilli y q = 1− p (probabilidad de fracaso) será la probabilidad de que ocurra el suceso opuesto
. La probabilidad de obtenerx éxitos enn ensayos (x éxitos,n− x fracasos) esta dada por la función
de probabilidad
f(x) = P (X = x) = PB(X = x; n, p) =
(
n
x
)
pxqn−x =
n!
x!(n− x)!
pxqn−x (4.4)
donde la variable aleatoria X denota el número de éxitos enn pruebas. Esta función de probabilidad
discreta se denominadistribución binomial o de Bernuilli. Una variable aleatoria con está distribu-
ción de probabilidad se dice que está distribuida binomialmente.
La media y la varianza de la distribución vienen dadas por
µ = np (4.5)
σ2 = npq = np(1− p) (4.6)
Ejemplo 2. Cálculo de probabiblidades de una variable binomial
Determine la probabilidad de obtener 2 caras en un seis lanzamientos de una moneda al aire.
¿Es este experimento una prueba de Bernuilli?
tenemos un número fijo de experimentosn = 6
el resultado de cada experimento sólo puede tener dos valores (cara, p = 0,5 y cruz,
q = 0,5)
el resultado de cada experimento (lanzar una moneda al aire) es independiente de los
anteriores y no influye en los posteriores
Utilizando la ecuación4.4calcularemos la probabildad del resultado
PB(X = 2; 6, 0,5) =
(
6
2
)
0,520,56−2 =
6!
2!4!
0,520,54 = 15× 0,25× 0,0625 = 0,235
51
4.2 4.2. Distribución binomial
Ejemplo 3. Cálculo de probabiblidades de una variable binomial (II)
Suponga que la probabilidad de que los resultados de un experimento sean aceptables es 0.6.
Si el experimento se repite 5 veces, obtenga la distribución de resultados útiles y determine la
probabilidad de obtener al menos dos resultados útiles.
¿Estamos ante una prueba de Bernuilli?.
tenemos un número fijo de experimentosn = 5
el resultado de cada experimento sólo puede tener dos valores (resultado aceptable,p =
0,6 y resultado no aceptable,q = 0,4). Tenga en cuenta que no nos estamos preguntando
por el valor de la propiedad que medimos, sino por la validez del experimento.
los resultado de cada experimento son independientes entre si
Para deteminar la función de distribución utilizaremos la ecuación4.4p = 0,6, q = 1−0,6 = 0,4
y n = 5
PB(X = 0; 5, 0,6) =
(
5
0
)
0,600,45 = 0,01024 PB(X = 1; 5, 0,6) =
(
5
1
)
0,610,44 = 0,07680
PB(X = 2; 5, 0,6) =
(
5
2
)
0,620,43 = 0,23040 PB(X = 3; 5, 0,6) =
(
5
3
)
0,630,42 = 0,34560
PB(X = 4; 5, 0,6) =
(
5
4
)
0,640,41 = 0,2592 PB(X = 5; 5, 0,6) =
(
5
5
)
0,650,40 = 0,07776
De modo que la función de distribución de probabilidad viene dada por
x 0 1 2 3 4 5
f(x) 0.01024 0.07680 0.23040 0.34560 0.2592 0.07776
El diagrama de barras muestra la función de distribución de probabilidad.
52
4 4. Distribuciones de probabilidad de variables aleatorias discretas
La probabilidad de realizar más de dos experimentos con resultados aceptables podemos calcu-
larla como
P (X > 2) = P (X = 3) + P (X = 4) + P (X = 5) = 0,6826
También podemos tener en cuenta que el suceso complementario del calculado es obtenerX ≤ 2
y utilizando la ecuación2.5podemos calcular la probabilidad
P (X > 2) = 1− P (X ≤ 2) = 1− (P (X = 2) + P (X = 1) + P (X = 0)) = 0,68256
los dos tratamientos que son equivalentes como esperabamos
Ejemplo 4. Cálculo de la varianza de una variable descrita por un distribución binomial
Un físico de partículas hace medidas de la distribución angular de mesones K. Los resultados de
la medida pueden serhacia delante o hacia atrás. Ambos procesos son igualmente probables.
En un experimento de calibrado se realizaron 1000 medidas y se obtuvieron 472 mesones en la
direcciónhacia delantey 528 mesones en la direcciónhacia atrás. ¿Cuál es la desviación típica
de los resultados?.
El experimento descrito cumple con las condiciones de un experimento de Bernouilli con una
probabilidad de éxitop = 0,5.
Para calcular la desviación típica del experimento utilizaremos la ecuación4.6
σ2 = npq = np(1− p) (4.7)
σ =
√
np(1− p) (4.8)
Sutituyendo,
σ =
√
1000× 0,5× 0,5 = 15,8 (4.9)
Ejemplo 5. Cálculo de patrones de intensidad en un espectro de masas
Considere un halocarburo trisustituidoRX3. Si el sustituyente es Br, éste presenta dos isótopos
de masas 79 y 81, con abundancias relativas 0.5069 y 0.4931.
Determine cuantos picos esperaría observar en el espectro de masas delRBr3 y que intensidad
relativa esperaría que tuvieran los picos del espectro.
En un espectro de masas se representa intensidad frente a masa de modo que la intensidad obte-
nida a una masa dada,M , es proporcional al númerode moléculas de masaM presentes en la
muestra.
53
4.2 4.2. Distribución binomial
Si X1 ≡ Br79 y X2 ≡ Br81, los isotopos de bromo pueden presentarse en la especieRBr3 en las
combinaciones
RX1X1X1, RX1X1X2 , RX1X2X2 y RX2X2X2
Es decir, aparecerán cuatro picos en el espectro de masas distintas.
La intensidad relativa de los picos depende de la frecuencia con la que se observe cada una de
las combinaciones. Como estamos trabajando con número de moléculas muy grandes� 1019,
podemos suponer que la intensidad relativa con la que observamos cada pico, que depende de
la frecuencia con la que observamos cada una de los halocarburos, es igual a la probailidad de
observar un halocarburo de la masa indicada.
La probabilidad de obtener cada halocarburo viene dada por una distribución binomial conn =
3, p = 0,5069 y q = 0,4931.
P (RBr793 ) = PB(X = 3; 3, 0,5069) =
(
3
3
)
0,506930,49310 = 0,1302
P (RBr792 Br
81) = PB(X = 2; 3, 0,5069) =
(
3
2
)
0,506920,49311 = 0,3801
P (RBr79Br812 ) = PB(X = 1; 3, 0,5069) =
(
3
1
)
0,506910,49312 = 0,3698
P (RBr813 ) = PB(X = 0; 3, 0,5069) =
(
3
0
)
0,506900,49313 = 0,1199
La distribución de intesidades de los picos puede representrase con un diagrama de barras donde
M es la masa de la especieRBr793 , M + 2 es la masa de la especieRBr
79
2 Br
81, M + 3 es la masa
de la especieRBr79Br812 , y M + 3 la masa de la especieRBr
81
3 .
54
4 4. Distribuciones de probabilidad de variables aleatorias discretas
4.2.1. Teorema de Moivre
Para tamaños de la muestra tales que los valores del producto npq>5 (tamaños de muestra gr-
nades), el comportamiento de la distribución binomial se asemeja al de una distribución normal con
mediaµ = np y varianzaσ2 = npq. Esta propiedad es conocida como teorema de Moivre.
Como la distribución binomial es una distribución de variables discretas, hay que hacer una correc-
ción de continuidad de modo que al utilizar la aproximación de la distribución binomial a una distri-
bución gaussiana las probabilidades se calculan como
PB(X = a; n, p) =PG(a− 0,5 ≤ X ≤ a + 0,5)
PB(a < X < b; n, p) =PG(a + 0,5 ≤ X ≤ b− 0,5)
PB(a ≤ X ≤ b; n, p) =PG(a− 0,5 ≤ X ≤ b + 0,5)
Este teorema permite calcular de una manera sencilla valores de la probabilidad de una distribu-
ción binomial en condiciones en las que es imposible evaluar esta magnitud utilizando la ecuación
4.4
PB(X = x; n, p) =
n!
x!(n− x)!
pxqn−x (4.10)
4.3. Distribución de Poisson
Esta distribución describe el número de sucesos que ocurren en un intervalo de tiempo fijo o
en un volumen del espacio o por unidad de producto dado cuando los elementos están distribuidos
aleatoriamente de acuerdo con una frecuencia de ocurrencia o densidad promedio. Es decir, el número
de éxitos que observamos en cada unidad de tiempo, área o producto es totalmente al azar (sólo
conocemos su valor medio) y que cada intervalo de tiempo es independiente de otro intervalo dado,
así como cada área es independiente de otra área dada y cada producto es independiente de otro
producto dado.
Esta definición es un tanto abstracta y se comprende mejor con algunos ejemplos de variables
que tienen este comportamiento: número de partículas emitidas por una fuente radiativa en un tiempo
definido, número de fotones emitidos por una molécula en su desexcitación fluorescente desde un
estado excitado, número de errores cometidos por página al transcribir un texto,número de bacterias
por cm2 de cultivo, etc.
El espacio muestral de la variable X distribuida de acuerdo con una distribución de Poisson son
los enteros {0,1,2, ...} y la función de distribución viene dada por:
f(x) = P (X = x) =
1
x!
λxe−λ x = 0, 1, 2, . . . (4.11)
dondeλ es una constante positiva.
La media y la varianza de esta distribución vienen dadas por
µ = λ (4.12)
55
4.3 4.3. Distribución de Poisson
σ2 = λ (4.13)
Ejemplo 6. Cálculo de la varianza de una variable que sigue una distribución de Poisson
Como parte de un experimento para determinar la vida media de dos isótopos radiactivos de
plata, se registraron simultáneamente el número de partículas emitidas en intervalos de dos se-
gundos en las cercanías de la plata. Los experimentos se repitieron 20 veces y se obtuvo un valor
medio de 1.69 partículas por segundo.
¿Cuál es la desviación típica de las medidas?.
La distribución de Poisson describe el número de sucesos que ocurren en un intervalo de tiempo
fijo cuando los elementos están distribuidos aleatoriamente de acuerdo con una frecuencia de
ocurrencia.
De modo queµ = λ = 1,69 y σ2 = λ = 1,69. La desviación típica viene dada por
σ =
√
λ =
√
1,69 = 1,30 partículas por segundo
Ejemplo 7. Cálculo de probabilidades de una variable que sigue una distribución de Poisson
En un experimento de detección de neutrinos se observaron 8 neutrinos coincidentes con la
observación óptica de la explosión de la supernova 1987A.
(a) Calcule la probabilidad de realizar esta observación si en promedio se detectan 2 neutrinos
por día.
(b) Calcule la probabilidad de la observación teniendo en cuenta que los ocho neutrinos se ob-
servaron en el espacio de 10 minutos.
(a)λ = 2 neutrinos.dia−1
Utilizando la ecuación4.11
P (X = x) =
1
x!
λxe−λ (4.14)
P (X = 8) =
1
8!
28e−2 = 9,0 10−4 (4.15)
La probabilidad es muy baja. Puede esperarse una correlación entre la explosión de la supernova
y la detección de los neutrinos.
(b) En este casoλ = 2
24∗6 = 0,014
Utilizando de nuevo la ecuación4.11
P (X = 8) =
1
8!
0,0148e−0,014 = 3,3 10−20 (4.16)
La ocurrencia del suceso obsevado es extremadamente improbable y posiblemente se correlacio-
ne con la explosión de la supernova u otro proceso no observado.
56
4 4. Distribuciones de probabilidad de variables aleatorias discretas
4.3.1. La distribución de Poisson como límite de la distribución binomial
La distribución de Poisson también representa el límite de la distribución binomial cuando el nú-
mero de éxitos es mucho menor que el número de ensayos (µ � n), es decirn grande y probabilidad
de un éxito muy baja (p � 1)
Ejemplo 8. Cálculo de probabilidades: comportamientos límite
La probabilidad de que un individuo sufra una reacción al inyectarle un suero es 0.001. Deter-
minar la probabilidad de que de un total de 2000 personas más de dos individuos sufran una
reacción
El caso descrito corresponde a un experimento de Bernouilli conµ = np = 2000 · 0,001 = 2.
Utilizar la ecuación4.4
PB(X = x; n, p) =
n!
x!(n− x)!
pxqn−x (4.17)
no es un método razonable para calcular probabilidades de ocurrencia.
Teniendo en cuenta queµ = λ = 2 � 2000 podemos utilizar en nuestros cálculos la ecuación
4.11
P (X = x) =
1
x!
λxe−λ (4.18)
La probabilidad de que más de dos individuos sufran reacción viene dada por
P (X > 2) =1− P (X ≤ 2) = P (0) + P (1) + P (2)
=
[
20 e−2
0!
+
21 e−2
1!
+
22 e−2
2!
]
= 0,323
57
4.3 4.3. Distribución de Poisson
4.3.2. La distribución de Gaussiana o normal como límite de la distribución
de Poisson
Para valores grandes deλ la función de distribución de Poisson puede aproximarse mediante una
distribución de probabilidad gaussiana conµ = λ y σ2 = λ.
Figura 4.1: Distribuciones de Poisson para distintos valores deλ. Observe como la forma de la distri-
bución se aproxima a distribución normal conforme aumenta el valor deλ.
58
4 4. Distribuciones de probabilidad de variables aleatorias discretas
Figura 4.2: Relación entre las distribuciones binomial, Poisson y Gauss o normal.
4.4. Ejercicios y problemas
Cuestión 4.1 Considere una distribución binomialPB(x; n, p) con n = 6, y p=0.5.
Calcule su media.
Cuestión 4.2 Considere una distribución binomialPB(x; n, p) con n = 6, y p=0.5.
Calcule la varianza.
Cuestión 4.3 Considere una distribución binomialPB(x; n, p) con n = 6, y p=0.25.
Calcule su media.
Cuestión 4.4 Considere una distribución binomialPB(x; n, p) con n = 6, y p=0.25.
Calcule la varianza.
Cuestión 4.5 En la realización de un programa informático el número de errores cometidos por
página sigue una distribución de Poisson de varianza 2.
¿Cuál es la probabilidad de

Continuar navegando

Materiales relacionados

20 pag.
Resúmen Probabilidad - Parcial 2

SIN SIGLA

User badge image

haydee_sisu_1

20 pag.
Variables - Luisa Rámirez

User badge image

Desafio PASSEI DIRETO

22 pag.
Semana5 _Variables aleatorias discretas

Escola Santa Afra

User badge image

Edgar Gallegos

133 pag.
Apuntes 2016 (1) (1)

SIN SIGLA

User badge image

lizethsalin748