Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Estadística y Programación aplicada a la Química Introducción al análisis de datos experimentales Dr. Pedro Alberto Enríquez Palma Área de Química Física Departamento de Química Licenciatura en Química, Universidad de La Rioja Índice general 1. Errores, incertidumbres, precision y exactidud. 5 1.1. Errores e incertidumbres. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.2. Cifras o digitos significativos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.3. Ejercicios y problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.1. Soluciones a los ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.4. Lecturas recomendadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2. Teoría estadística de los errores(I). Probabilidad 15 2.1. Definición de probabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.1.1. El espacio muestral. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.1.2. Definición empírica de probabilidad. . . . . . . . . . . . . . . . . . . . . . 16 2.1.3. Definición aximática de probabilidad. . . . . . . . . . . . . . . . . . . . . 18 2.1.4. Probabilidad condicional. . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.2. Funciones de distribución de probabilidad.. . . . . . . . . . . . . . . . . . . . . . . 20 2.2.1. Distribuciones de probabilidad de variables aleatorias discretas.. . . . . . . 21 2.2.2. Distribuciones de probabilidad de variables aleatorias continuas. . . . . . . 24 2.3. Ejercicios y problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.3.1. Soluciones a los ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.4. Lecturas recomendadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3. Teoría estadística de los errores(II). Esperanza matemática 33 3.1. Esperanza matemática de una magnitud aleatoria. . . . . . . . . . . . . . . . . . . 34 3.1.1. Magnitudes aleatorias discretas. . . . . . . . . . . . . . . . . . . . . . . . 34 3.1.2. Magnitudes aleatorias continuas. . . . . . . . . . . . . . . . . . . . . . . . 34 3.1.3. Propiedades de la esperanza matemática. . . . . . . . . . . . . . . . . . . . 34 3.1.4. Momentos de una distribución.. . . . . . . . . . . . . . . . . . . . . . . . . 35 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria. . . . . . 38 3.2.1. Media general de una magnitud aleatoria. . . . . . . . . . . . . . . . . . . 39 3.2.2. Media muestral de una magnitud aleatoria. . . . . . . . . . . . . . . . . . . 39 1 0.0 Índice general 3.2.3. Varianza de una magnitud aleatoria.. . . . . . . . . . . . . . . . . . . . . . 39 3.2.4. Dispersion o varinza muestral de una magnitud aleatoria. . . . . . . . . . . 42 3.3. Mediana y moda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.4. Ejercicios y problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.4.1. Soluciones a los ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.5. Lecturas recomendadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 4. Distribuciones de probabilidad de variables aleatorias discretas 49 4.1. Distribución uniforme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.2. Distribución binomial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.2.1. Teorema de Moivre. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.3. Distribución de Poisson. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.3.1. La distribución de Poisson como límite de la distribución binomial. . . . . . 57 4.3.2. La distribución de Gaussiana o normal como límite de la distribución de Poisson58 4.4. Ejercicios y problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 4.4.1. Soluciones a los ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . 62 4.5. Lecturas recomendadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 5. Distribuciones de probabilidad de variables aleatorias continuas 67 5.1. Distribución uniforme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 5.2. Distribución normal o Gaussiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.2.1. ¿Qué variables aleatorias siguen una distribución normal?. . . . . . . . . . 75 5.3. La distribución t de Student. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 5.3.1. ¿Qué variables aleatorias siguen una distribución t de Student?. . . . . . . . 81 5.4. La distribuciónχ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 5.4.1. ¿Qué variables aleatorias siguen una distribuciónχ2 ? . . . . . . . . . . . . 84 5.4.2. Relación entre la distribuciónχ2 y la distribución normal. . . . . . . . . . . 87 5.5. La distribución F de Fisher. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 5.5.1. ¿Qué variables aleatorias de interés siguen una distribución F de Fisher?. . . 88 5.6. Ejercicios y problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.6.1. Soluciones a las cuestiones. . . . . . . . . . . . . . . . . . . . . . . . . . . 95 5.6.2. Soluciones a los ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . 96 5.7. Lecturas recomendadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .103 6. Intervalos de probabilidad e intervalos de confianza 105 6.1. Distribución de probabilidad del error aleatorio.. . . . . . . . . . . . . . . . . . . . 106 6.2. Intervalos de probabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .106 6.2.1. Definición. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .106 6.2.2. Intervalos de probabilidad de las medidas. . . . . . . . . . . . . . . . . . . 107 6.2.3. Intervalos de probabilidad de las medias. . . . . . . . . . . . . . . . . . . . 108 6.2.4. Intervalos de probabilidad de las varianzas. . . . . . . . . . . . . . . . . . 108 6.3. Intervalos de confianza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .109 6.3.1. Definición. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .109 6.4. Calculo de intervalos de confianza para la media. . . . . . . . . . . . . . . . . . . . 113 6.4.1. Datos distribuidos normalmente con varianzaσ2(x) conocida . . . . . . . . 113 2 0 Índice general 6.4.2. Datos distribuidos normalmente con varianza finita y con n grande. . . . . . 113 6.4.3. Datos distribuidos normalmente con varianzaσ2(x) desconocida. . . . . . . 114 6.4.4. Datos que siguen una distribución desconocida con varianza finita y con n pequeña. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .116 6.5. Calculo de intervalos de confianza para la varianza. . . . . . . . . . . . . . . . . . 116 6.6. Cálculo de intervalos de confianza para la diferencia de las medias. . . . . . . . . . 117 6.6.1. Datos distribuidos normalmente con varianzasσ21(x) y σ 2 2(y) conocidas . . . 118 6.6.2. Datos distribuidos normalmente con varianzasσ21(x) y σ 2 2(y) desconocidas pero iguales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .118 6.6.3. Datos que siguen cualquier distribución con varianza finita y conn1 y n2 grandes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .119 6.6.4. Datos distribuidos normalmente con varianzasσ21(x) y σ 2 2(y) desconocidas y distintas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .120 6.7. Análisis de datos emparejados. . . . . . . . . . . . . . . . . . . . . . . . . . . . .120 6.8. Ejercicios y problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .123 6.9. Lecturas recomendadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .130 7. Cálculo de errores 131 7.1. Cálculo de errores en medidas directas. . . . . .. . . . . . . . . . . . . . . . . . .132 7.1.1. Errores de escala. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .132 7.1.2. Errores de sistemáticos. . . . . . . . . . . . . . . . . . . . . . . . . . . .132 7.1.3. Errores accidentales o aleatorios. . . . . . . . . . . . . . . . . . . . . . . . 132 7.2. Desestimación de medidas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .135 7.2.1. El ensayo de la Q de Dixon. . . . . . . . . . . . . . . . . . . . . . . . . . .135 7.2.2. La técnica de laτ de Thompson modificada. . . . . . . . . . . . . . . . . . 136 7.3. Cálculo de errores de medidas indirectas. . . . . . . . . . . . . . . . . . . . . . . . 138 I Apéndices 141 A. Tablas estadísticas 143 A.1. Área bajo la curva normal tipificada. . . . . . . . . . . . . . . . . . . . . . . . . .143 A.2. Valores de las percentilastp para un distribución t de Student conν grados de lbertad 145 A.3. Valores de las percentilasχ2p para un distribuciónχ 2 de Student conν grados de lbertad146 A.4. Valores de las percentilasF0,95(ν1, ν2) para un distribución F. . . . . . . . . . . . . 147 A.5. Valores de las percentilasF0,99(ν1, ν2) para un distribución F. . . . . . . . . . . . . 148 3 0.0 Índice general 4 1 Errores, incertidumbres, precision y exactidud. Contenidos ✍ Errores e incertidumbres. Concepto de error. Tipos de errores. Error de escala y resolución. Exactitud y precisión. ✍ Cifras y dígitos significativos.Normas de redondeo y truncamiento. Objetivos ✓ Errores e incertidumbre ☞ Comprender el concepto de error ☞ Distinguir entre los errores sistemáticos y aleatorios ☞ Reconocer el error de escala ☞ Comprender los conceptos de precisión, exactitud y sesgo ✓ Cifras significativas ☞ Determinar el número de cifras significativas de un número ☞ Escribir correctamente un número en notación científica ☞ Redondear correctamente un resultado 5 1.1 1.1. Errores e incertidumbres 1.1. Errores e incertidumbres En la determinación experimental de una magnitud no podemos definirerror como la diferencia entre el valorobservadode la magnitud y su valorreal: no conocemos este supuesto valor real sólo disponemos de aproximaciones a ese valor obtenidas en otros experimentos o a partir de predicciones teóricas. Sin embargo, podemos acotar el intervalo de valores que puede asumir esa magnitud al realizar la medida. Suponga que conocemos el valor real del observable1, A. A la diferencia entre el valor del obser- vableA y el valor obtenido en la medida,ai, la denominaremos error absoluto,ei: ei = |A − ai| (1.1) Como es imposible determinarA, no podemos determinarei. Lo que si podemos hacer es estimar el intervalo de valores en que esperamos encontrarA de modo que la diferencia entre la medida,ai, y A sea menor o igual que un cierto error,εi: εi = |A − ai| (1.2) A − ai ≤ εi ≥ A + ai (1.3) Así, es conveniente representar el valor real que intentamos aproximar (y no conocemos) con un intervalo centrado en la medidaai: A = ai ± εi (1.4) εi es elerror absoluto o incertidumbre de la medida. Podemos distinguir tres tipos de contribuciones a la disparidad entre las observaciones experimen- tales y el valor real: errores ilegítimos errores sistemáticos errores aleatorios Los errores ilegítimos2 son aquellos causados por errores de cálculo o en la realización del expe- rimento. Afortunadamente estos son fácilmente detectables, ya sea porque el resultado de la medida es un valor físicamente improbable o porque los resultados difieren considerablemente de otras deter- minaciones. Estos errores se corrigen repitiendo las operaciones erroneas o el experimento. Los errores sistemáticos (o determinados) son aquellos que afectan a las distintas medidas de un modo previsible. Su determinación no es siempre fácil, puesto que no siempre es posible estimar su efecto y sólo pueden detectarse mediante un análisis detallado del procedimiento experimental. Si el tipo y magnitud de este error es conocido, la medida puede ser corregida para compensar por este 1observable: propiedad que puede medirse experimentalmente 2También llamados errores groseros o accidentales 6 1 1.Errores, incertidumbres, precision y exactidud. error. En otros casos la incertidumbre asociada a este efecto ha de ser estimada y combinada con aquella asociada a los errores aleatorios. Un caso particular de error sistemático es elerror de escala. Este resulta de la capacidad limitada, resolución, para distinguir dos valores muy próximos de la magnitud medida. La resolución es por tanto una característica del instrumento y siempre tiene un valor distinto de cero. Salvo que el cons- tructor indique lo contrario, su valor puede estimarse como un medio de la unidad que corresponde a las divisiones más próximas de la escala (lectura analógica) o a los cambios más pequeños de un contador (lectura digital). Ejemplo 1. Error de escala Considere un termómetro con una graduación en divisiones de decimas de grado. El error de escala puede estimarse como en 0.05o C. Este error es constante y afecta a todos las medidas efectuadas. Así, si leemos una temperatura de 36.5oC, al tener en cuenta la resolución del termómetro, podemos expresar el valor de la temperatura como 36.50± 0.05 oC. Es decir, la temperatura está comprendida entre 36.45 y 36.55oC. Ejemplo 2. Error sistemático Para una determinación de una longuitud se utilizó un metro de aluminio. Las medidas fueron realizadas a una temperatura de 20oC, obteniendose una media de las me- didas de 1.982 m. Tras completar el experimento se advirtió que el metro se habia calibrado a 25oC y que el aluminio utilizado tenia un coeficiente de expansión lineal de 0.005 m.oC−1. Es decir, las lecturas del metro a 20oC no son correctas. 7 1.2 1.1. Errores e incertidumbres ¿Pueden corregirse el resultado obtenido?. Para corregir el error tendemos en cuenta como afecta la temperatura a las medidas del metro: l(T ) = l(25oC)× (1 − 0,005T ) dondel(T ) es la longitud del metro a distintas temperaturas, yT la temperatura en grados Cel- sius. Utilizando esta ecuación se obtiene que el valor de la longitud es 1.977± 0.005 m. Este valor difiere del valor sin corregir. Los errores aleatorios (accidentales o indeterminados) son debidos a factores que sufren pequeñas variaciones durante la medida y que hacen que medidas sucesivas de la misma magnitud difieran. Por ejemplo, el resultado de una pesada en una balanza de precisión puede verse afectado por las vibraciones del platillo, las vibraciones producidas por otros aparatos presentes en el laboratorio, etc. En general la fuente de estos errores no es conocida y por su carácter aleatorio pueden tratarse estadísticamente. La figura 1.1. muestra el efecto de errores sistemáticos y accidentales sobre el resultado de una medida. Algunas definiciones relacionadas con los errores son: exactitud segun la ISO [3] se define como "grado de concordancia entre el resultado de un ensayo y el valor de referencia aceptado". Tiene en cuenta todas las fuentes de error del experimento. precisión propiedad relacionada con la magnitud de los errores aleatorios. Cuanto mayor es la preci- sión, menor es la magnitud de los errores aleatorios. sesgomedida del error sistemático. Unas medidas sesgadas tienden a ser mayores o menores que el valor de referencia. Ejemplo 3. Precisión y sesgo La tabla recoge los resultados de volumetrías de 10 ml de NaOH 0.1 M con HCl 0.1 M realizadas por distintos experimentadores. Teniendo en cuenta, la media, desviación típica y la distribución de los datos podemos describir la exactitud, precisión y sesgo de los datos [3, tabla 1.1]. experimentador volumen (ml) precisión y sesgo A 10.08 10.11 10.09 10.10 10.12 preciso sesgado B 9.88 10.14 10.02 9.80 10.21 impreciso insesgado C 10.19 9.79 9.69 10.05 9.78 impreciso sesgado D 10.04 9.98 10.02 9.97 10.04 preciso insesgado En general, los errores sistemáticos y accidentales tienen distinta fuentes y pueden ser tratados independientemente, la incertidumbre de una medida puedeexpresarse como εtotal = εsistematica + εaleatorio (1.5) 8 1 1.Errores, incertidumbres, precision y exactidud. Figura 1.1: Comparación de errores sistemáticos y accidentales. Los errores sistemáticos están asocia- dos con la exactitud de la medida mientras que los errores accidentales o aleatorios con su precisión. Figura 1.2: Distribución de las medidas de la tabla del ejemplo 3 [3, figura1] 9 1.2 1.2. Cifras o digitos significativos 1.2. Cifras o digitos significativos Para indicar el valor de una magnitud experimental se han de proporcionar el máximo número de cifras significativas que permita la precisión del experimento. Cualquier número en valor absoluto puede expresarse como una serie de potencias |x| = ∞∑ m=i αi 10 m (1.6) dondeαm es un dígito del 0 al 9, e i es un entero tal que 1 ≤ |x| 10i ≤ 10 (1.7) Las cifras significativas se definen como: 1. el dígito menos significativo es aquel no nulo más a la izquierda 2. el dígito más significativo es aquel más a la derecha que tenga el mismo orden de magnitud que la incertidumbre del experimento 3. el número total de dígitos significativas comprende todos aquellos que van del dígito más al menos significativo Ejemplo 4. Número de cifras significativas ¿Cuantas cifras significativas tiene el número0, 00370?. En el número0, 00370 los tres primeros dígitos no son significativos puesto que sólo sirven para indicar el orden de magnitud de la medida. El último cero si es significativo puesto que el número0,00370 es diferente a0, 00369, 0, 00371, 0, 00372, . . . . El número tiene3 cifras significativas. Note que0,00370 es diferente a0,0037 porque este número sólo tiene dos cifras significativas. Una consecuencia del resultado del ejemplo anterior es que hay que tener cuidado cuando escribi- mos el resultado de una medida en distintas unidades. Hay que tener cuidado con el número de cifras significativas. Por ejemplo, el equivalente en gramos de3,2 Kg es3,2 103g no3200 g. Esta número no es correcto puesto que supondría que el resultado del peso en Kg lo conocemos con cuatro cifras significativas. Un método que evita ambigüedades a la hora de determinar que cifras son significativas es expre- sar los números en notación científica. En esta notación el número se expresa como el producto de otro número (mantisa) que contiene las cifras significativas, la primera de las cuales ocupa la columna de las unidades, por una potencia de diez. 10 1 1.Errores, incertidumbres, precision y exactidud. Ejemplo 5. Notación científica El número 150000 puede expresarse en notación científica como 1.5 105→ si tiene dos cifras significativas. 1.50 105→ si tiene tres cifras significativas. 1.500 105→ si tiene cuatro cifras significativas. Cuando una magnitud se calcula con un número de cifras superior al de cifras significativas con- viene suprimir las no significativas. A este procedimiento se le denomina redondeo. Al suprimir estas se introduce un error (error de truncamiento) que afectará a las operaciones en las que se incluya esta magnitud. Este error ha de minimizarse, e intentar mantenerlo por debajo de la incertidumbre de la medida. Para ello seguiremos las reglas siguientes: 1. Si el primer dígito despreciado esmenor que 5no se modifica el dígito más significativo. 2. Si el primer dígito despreciado esmayor que 5se suma uno al dígito más significativo. 3. Si el primer dígito despreciado es 5, suma uno al dígito más significativo si éste es impar; no se modifica en caso contrario. Aunque esta regla parezca arbitraria, se puede demostrar que de no usarse esta u otra similar, induciríamos un error sistemático. Otra regla a tener en cuenta al determinar las cifras significativas supone que si no se proporciona ningún dato relativo a la incertidumbre de la medida consideramos que todas sus cifras son signi- ficativas y que estas son el mayor número que se puede leer con la escala del aparato usado en la medida. Ejemplo 6. Redondeo y truncamiento Redondee los siguientes número al número de cifras significativas adecuado: 7,56128± 0,02 →7,56± 0,02 7,56128± 0,1 →7,6± 0,1 1,2451± 0,01 →1,24± 0,01 1,245± 0,01 →1,24± 0,01 1,235± 0,01 →1,24± 0,01 413,73500± 0,05 →(4,1374± 0,0005)102 11 1.3 1.3. Ejercicios y problemas 1.3. Ejercicios y problemas Errores Cuestión 1.1 Verdadero o falso. Los errores aleatorios de una medida son impredecibles. Sin embargo, la media de estos errores es cero. Cuestión 1.2 Verdadero o falso. Los errores sistemáticos de una medida pueden permanecer constantes o variar de una manera predecible (aunque no conozcamos la forma de esa variación). Cuestión 1.3 Verdadero o falso. Los errores sistemáticos no pueden eliminarse calculando la media de un conjunto de medidas. Cuestión 1.4 Eliga la respuesta adecuada Cuando se resta el blanco a una serie de medidas se intenta eliminar una fuente de error aleato- rio|sistemático|escala. Ejercicio 1.1 Una muestra patrón de suero sanguíneo humano contiene 42.0 g de albúmina por litro. Cinco laboratorios (A-E) realizan cada uno seis determinaciones (en el mismo día) de la concentra- ción de albúmina, con los siguientes resultados (en gl−1): laboratorio concentración de albumina, gl−1 A 42.5 41.6 42.1 41.9 41.1 42.2 B 39.8 43.6 42.1 40.1 43.9 41.9 C 43.5 42.8 43.8 43.1 42.7 43.3 D 35.0 43.0 37.1 40.5 36.8 42.2 E 42.2 41.6 42.0 41.8 42.6 39.0 Comentar el sesgo, precisión y exactitud de cada uno de estos conjuntos de resultados. [3, Ejercicio 1] Ejercicio 1.2 Utilizando la misma muestra y el método del ejercicio anterior, el laboratorio A rea- liza otras seis determinaciones posteriores de la concentración de albúmina, esta vez en seis días sucesivos. Los valores obtenidos son 41.5, 40.8, 43.3, 41.9, y 41.7 g.l−1. Comentar estos resultados. [3, Ejercicio 2] Ejercicio 1.3 Se ha determinado cuatro veces el número de lugares de unión por molécula en una muestra de anticuerpos monoclonados, con resultados de 1.95, 1.95, 1.92 y 1.97. Comentar el sesgo, precisión y exactidud de estos resultados [3, Ejercicio 3] 12 1 1.Errores, incertidumbres, precision y exactidud. Cifras significativas Cuestión 1.5 Explique la diferencia entre redondeo y trncamiento Ejercicio 1.4 Indique el número de cifras significativas y exprese en notación cientifica las siguientes magnitudes: (a) 12.08 m. (b) 5.43 1012 s−1 (c) 0.12 10−3cal (d) 0.0250 g (e) 2500.2 Å (f) 10.5 102 eV Ejercicio 1.5 A partir de los resultados de un experimento se calculo que el valor de la energía de ionización del rubidio es de 403.028 kJ mol−1. Por otra parte se estimo que la incertidumbre de dicho calculo en 0.2 kJmol−1. Indique el resultado con el número correcto de cifras significativas. 1.3.1. Soluciones a los ejercicios Errores Ejercicio 1.1 Los resultados de la media g.l−1 para los laboratorios A-E son: 41.9, 41.9, 43.2, 39.1, 41.5. De aquí: A - preciso, poco sesgo, media exacta B - precisión pobre, poco sesgo, media exacta pero no muy fiable C - preciso pero sesgado a valores altos, exactitud pobre D - precisión pobre, sesgado a valores bajos, pobre exactitud E -similar a A, pero el último resultado podría ser un valor anómalo Ejercicio 1.2 El laboratorio A aún muestra poco sesgo, pero la precisión es más pobre, reflejando reproducibilidad (es decir, precisión entre días) pero no repetibilidad (precisión dentro de días). Ejercicio 1.3 El número de posiciones de enlace debe ser un número entero, 2 en este caso, de manera que los resultados son precisos, pero sesgados a valores bajos. El sesgo no es importante, ya que pueden de ducirse dos posiciones de enlace. Cifras significativas Ejercicio 1.4 (a) Cuatro cifras significativas.→ 1.208 101 m. (b) Tres cifras significativas.→ 5.43 1012 s−1. (c) Dos cifras significativas.→ 1.2 10−4 cal. (d) Tres cifras significativas.→ 2.50 10−2 g. (e) Cinco cifras significativas.→ 2.5002 103 Å. (f) Tres cifras significativas.→ 1.05 103 eV. Ejercicio 1.5 4,03± 0,20 kJ.mol−1 13 1.4 1.4. Lecturas recomendadas 1.4. Lecturas recomendadas Para completarla preparación de este tema recomendamos la lectura de: ☞ Capítulo 1. Introduccióndel libro de Miller y Miller[3]. X El texto es claro y del mismo nivel que el del curso. Aunque el libro está orientado hacia las aplicaciones de la Quimiometría en Química Analítica, los contenidos son de carácter general. ☞ Introduccióndel texto de Spiridonov y Lopatkin[7]. ☞ Chapter 1. Uncertainties in measurementsdel libro de Bevington y Robinson[1] 14 2 Teoría estadística de los errores(I). Probabilidad Contenidos ✍ Introducción . Error aleatorio y probabilidad. ✍ Definición de probabilidad. Espacio muestral y sucesos. Magnitud aleatoria discreta y continua. Definición empírica de probabilidad. Defini- ción axiomática de probabilidad. ✍ Funciones de distribución de probabilidad: variables aleatorias dis- cretas.Función de probabilidad o función de frecuencia. Función de dis- tribución de probabilidad acumulada. ✍ Funciones de distribución de probabilidad: variables aleatorias continuas.Función de distribución de probabilidad o de densidad de pro- babilidad. Función de distribución de probabilidad integrada. Objetivos ✓ Definición de probabilidadErrores e incertidumbre ☞ Comprender la relación entre el error aleatorio y la probabilidad ☞ Conocer la definición axiomática de probabilidad y las consecuencias que se derivan de ésta ☞ Comprender la relación entre frecuencia de un suceso y probabilidad de que este se produzca ✓ Funciones de distribución de probabilidad ☞ Realizar cálculos básicos de probabilidad para variables aleatorias dis- cretas ☞ Realizar cálculos básicos de probabilidad para variables aleatorias con- tinuas 15 2.1 2.1. Definición de probabilidad Como vimos en el tema 1, los errores accidentales son debidos a las fluctuaciones de las distintas variables que influyen sobre el experimento. Esto se manifiesta en que medidas repetidas en condi- ciones aparentemente idénticas difieren. Por este carácter aleatorio, los errores accidentales pueden tratarse estadísticamente. El objetivo de la teoría estadística de los errores es múltiple: obtener una apreciación óptima del valor de la magnitud medida, estimar el error accidental en su determinación, verificar si el resultado es compatible con determinadas hipótesis que puedan establecerse sobre la magnitud que se mide, etc. Toda teoría estadística de los errores se basa en dos postulados generales: (a) la medida experimental de una magnitud es una variable aleatoria que cumple la ley de estabi- lidad estadística o de los grandes números según la cual las medidas se concentran en torno a un valor medio, que cuando el número de observaciones es grande (en el límite de infinito) se convierte en un valor constante, independiente del número de observaciones. (b) la probabilidad de que observemos un valor distinto del valor medio puede caracterizarse mediante una función(función de distribución de probabilidad). La forma concreta de la función de distribución de probabilidad puede ser establecida a partir de medidas experimentales o, postulada y posteriormente contrastada con los experimentos. Al postular distintas distribuciones de probabilidad se tendrá una determinada teoría estadística y la interpola- ción de los resultados experimentales será diferente. Generalmente consideraremos que la función de distribución que caracteriza nuestras medidas es una función de distribución normal o Gaussiana1. 2.1. Definición de probabilidad 2.1.1. El espacio muestral En teoría estadística al conjunto de todos los posibles resultados de una medida se le denomina espacio muestral, S.Por ejemplo, (i) En un experimento se miden el número de partículas emitidas por una fuente radiactiva. El espacio muestral está formado por los números 0, 1, 2, ... Puesto que la magnitud determinada en el experimento es unamagnitud aleatoria discreta, el espacio muestral es un conjunto contable. (ii) En un experimento se determina el volumen necesario de ácido que hay que utilizar para alcanzar el punto de equivalencia en una valoración ácido-base. El volumen puede tomar cualquier valor, tal que V> 0. La magnitud estudiada es unamagnitud aleatoria continuay el espacio muestral puede ser cualquier número real positivo (V> 0) y el espacio muestral es unconjunto no contable. Cada posible subconjunto del espacio muestral se le denominasuceso, A. Un suceso que corres- ponde al resultado de una medida constituye unsuceso elemental o simple. 2.1.2. Definición empírica de probabilidad Intuitivamente identificamos la probabilidad de un suceso con la frecuencia con la que esperamos que este ocurra. Podeamos definir la probabilidad de sucesoA, P(A), como la frecuencia con que este 1Estudiaremos esta función de distribución de probabilidad en el tema 5Distribuciones de probabilidad de variables aleatorias continuas 16 2 2.Teoría estadística de los errores(I). Probabilidad se produce en un experimento. De acuerdo con esta definición P (A) = nA N (2.1) dondenA es el número de veces que se repite el suceso A, yN es el número total de experimentos. Aunque esta definición sea suficiente para satisfacer nuestra intuición tiene serias limitaciones. Entre otras: P(A) depende del número total de medidas. P(A) depende del experimento: al repetir el experimento el valor de P(A) puede variar. Ejemplo 1. Limitaciones de la definición empírica de probabilidad Para demostrar las limitaciones de la definición empírica de probabilidad examinaremos un ex- perimento consistente en contar el número de caras que aparecen al lanzar cuatro monedas al aire. Para estimar la frecuencia esperada para cada suseso calcularemos el número de veces que espe- ramos observar un evento,nA, (contar dos caras) frente al número total posibles combinaciones de caras y cruces. Número de caras combinaciones nA P (A) 0 XXXX 1 1 16 1 CXXX, XCXX 4 4 16 XXCX, XXXC 2 CCXX, CXCX, CXXC 6 6 16 XCCX, XCXX, XXCC 3 CCCX, CXCC, 4 4 16 CXCC, XCCC 4 CCCC 1 1 16 Utilizando un programa de ordenador se simuló el experimento de lanzar cuatro monedas al aire un gran número de veces. Para calcular el número de caras que se espera observar en cada experimento se calculo este comoN × P (A). 17 2.1 2.1. Definición de probabilidad Número de caras 0 1 2 3 4 16 lanzamientos Esperado 1 4 6 4 1 Experimento 1 2 7 2 4 1 Experimento 2 3 4 4 5 0 160 lanzamientos Esperado 10 40 60 40 10 Experimento 3 9 40 61 38 12 1600 lanzamientos Esperado 100 400 600 400 100 Experimento 3 125 403 567 409 96 16000 lanzamientos Esperado 1000 4000 6000 4000 1000 Experimento 3 1009 3946 5992 4047 1006 En el ejemplo anterior se observa que el acuerdo entre la predicción teórica (número de obser- vaciones esperadas) y el resultado experimental mejora con el número de ensayos. Esto indica que conforme el número de experimentos aumenta la frecuencia muestral o experimental se aproxima a la frecuencia teórica. Este observación ilustra laley de los grandes números: para valores suficiente- mente grandes del número de medidas, N, las frecuencias muestrales se aproximan a la probabilidad conforme aumenta de N. 2.1.3. Definición aximática de probabilidad Supongamos que tenemos un espacio muestralS. Para cada sucesoA de este espacio muestral, asociamos un número real P(A). Entonces P es una función real que se denominafunción de proba- bilidad y P(A) la probabilidad del sucesoA, si se cumplen los axiomas siguientes: Axioma 1. Para cada sucesoA, P (A) ≥ 0. Axioma 2. Para el suceso cierto o seguro:P (S) = 1. Axioma 3. Para dos sucesos cualesquiera, A y B, la probabilidad del sucesoque se obtenga A o se obtenga B, P (A ∪B), viene dada por P (A ∪ B) = P (A) + P (B)− P (A ∩ B) (2.2) que se simplifica cuando los sucesos son mutuamente excluyentes (P (A ∩ B) = 0) P (A ∪ B) = P (A) + P (B) (2.3) como se ilustra en el diagramas de Venn de la figura2.1. Esta propiedad puede generalizarse a cualquier número de sucesos. 18 2 2.Teoría estadística de los errores(I). Probabilidad Figura 2.1: Diagrama de Venn que ilustra el significado deP (A∩ B). Algunas consecuencias de estos axiomas son: ☞Para cada suceso P(A): 0 ≤ P (A) ≤ 1 (2.4) es decir la probabilidad de un suceso está entre cero y uno. ☞El suceso imposible tiene probabilidad nula,P (∅) = 0. ☞Si A’ es el suceso complemento de A entonces: P (A′) = 1− P (A) (2.5) 2.1.4. Probabilidad condicional La probabilidad de que dos sucesos A y B ocurran simultáneamente,P (A ∩B), viene dada por P (A ∩B) = P (A)P (B|A) = P (B)P (A|B) (2.6) dondeP (B|A) es la probabilidad condicional de que suceda B si ha ocurrido A. Si A y B son sucesos independientes,P (B|A) = P (B), P (A ∩B) = P (A)× P (B) (2.7) 19 2.2 2.2. Funciones de distribución de probabilidad. Ejemplo 2. Calculos con probabilidades condicionales Suponga que dispone de una bolsa con tres bolas rojas y cuatro bolas azules. Calcule la proba- bilidad de extraer una bola roja y después una azul, si (a) no reemplaza la bola extraída, y (b) se reemplaza la bola extraída. (a) P (R1 ∩ A2) = P (R) P (A|R) = 3 7 × 4 6 = 0,29 P (R) = bolas rojas bolas = 3 7 P (A|R) = bolas azules bolas = 4 6 (b) P (R1 ∩ A2) = P (R) P (A|R) = = P (R) P (A) = 3 7 × 4 7 = 0,24 P (R) = bolas rojas bolas = 3 7 P (A|R) = bolas azules bolas = 4 7 2.2. Funciones de distribución de probabilidad. Debido a los errores aleatorios los resultados de medidas realizadas en idénticas condiciones pro- ducen valores distintos. Esto supone que las medidas experimentales sonmagnitudes aleatorias. De acuerdo con los posibles resultados de la medida podemos tener: Magnitudes discretas: pueden tomar valores discretos y corresponden avariables aleatorias discretas. Magnitudes continuas pueden tomar cualquiera de los valores de un intervalo finito o infinito y corresponden avariables aleatorias continuas.. En la primera categoría entra un experimento de conteo de fotones. En este se mide el número de fotones que cuenta un fotomultiplicador en la unidad de tiempo. Este sólo puede ser un número natural: 0,1,2,..., 200, . . . , puesto que no podemos contar fracciones de fotón. A la segunda categoría pertenecen las medidas de conductividad de una disolución de electrolitos que pueden tomar cualquier valor dentro de un intervalo: el resultado de la medida es un número real. En adelante para hacer referencia a la magnitud aleatoria utilizaremos letras mayúsculas, mientras que para los resultados de un experimento utilizaremos letras minúsculas. 20 2 2.Teoría estadística de los errores(I). Probabilidad 2.2.1. Distribuciones de probabilidad de variables aleatorias discretas. Sea X una variable aleatoria discreta. Supongamos que los valores que puede tomar estan dados por x1, x2, x3, . . . ordenados en orden creciente de valor. La probabilidad de obtener el valorxi, P (xi), viene dada por P (xi) = f(xi) (2.8) dondef(xi) es lafunción de probabilidad o función de frecuencia de X. De acuerdo con la definición axiomática de probabilidad,f(xi) cumple: f(xi) ≥ 0 (2.9) N∑ i=1 f(xi) = 1 (2.10) donde N es el número total de posibles valores que puede tomar xi. Se define como función de distribución probabilidad acumulada o función de distribución de X, F (xk) a la probabilidad de que la variable aleatoria tome un valor x tal quex ≤ xk, F (xk) = P (X ≤ xk) (2.11) donde xk es cualquier número real en el intervalo -∞ < x < +∞. Es importante que tenga en cuenta que cuando trabajamos conmagnitudes aleatorias discretas: f(xi), función de probabilidad o función de frecuencia de X. Probabilidad de que la variable aleatoriaX tome el valorxi F (xi): función de distribución probabilidad acumulada. Probabilidad de que la variable alea- toriaX tome cualquier valor,xj que cumplaxj ≤ xi ¿Cómo se calculaF (xk)? F(xk) se puede calcular a partir de f(x) como F (xk) = ∑ xi≤xk f(xi) (2.12) F (xk) es una función monótona creciente. 21 2.2 2.2. Funciones de distribución de probabilidad. Si X toma únicamente un número finito de valores x1, x2, x3, . . . xk entonces la función de distri- bución acumulada viene dada por: F (xk) = 0 −∞ < xk < x1 f(x1) −∞ < xk < x2 f(x1) + f(x2) −∞ < xk < x3 . . . . . . f(x1) + f(x2) + · · ·+ f(xn) −∞ < xk < xn+1 . . . . . . 1 xk < +∞ (2.13) Ejemplo 3. Cálculo de la función de distribución de probabilidad acumulada,F (xk), de una variable aleatoria discreta Considere la variable aleatoria X="número de caras que se obtiene al lanzar cuatro monedas al aire". Determinar las funciones de probabilidad y de distribución de X. x 0 1 2 3 4 f(x) 1 16 4 16 6 16 4 16 1 16 F (xk) puede obtenerse a partir def(x) utilizando la ecuación2.12 F (xk) = ∑ xi≤xk f(xi) x < 0 x < 1 x < 2 x < 3 x < 4 x ≥ 0 F (x) 0 1 16 5 16 11 16 15 16 1 22 2 2.Teoría estadística de los errores(I). Probabilidad Figura 2.2: Funciones de probabilidad,f(xi) y de distribución de probabilidad acumulada,F (xk) para el ejemplo 3. 23 2.2 2.2. Funciones de distribución de probabilidad. 2.2.2. Distribuciones de probabilidad de variables aleatorias continuas Sea una variable continua X. La función de distribución de probabilidad o función de densidad de probabilidad ,f(x), proporciona la probabilidad de que la magnitud aleatoria se encuente en el intervalo[x, x + dx] P (x ≤ X ≤ x + dx) = f(x) (2.14) De acuerdo con la definición axiomática de probabilidad,f(x) cumple: f(x) ≥ 0 (2.15) ∫ +∞ −∞ f(x)dx = 1 (2.16) La probabilidad de que X se encuentre en el intervalor[a, b] viene dada por P (a ≤ X ≤ b) = ∫ b a f(x)dx (2.17) Es importante tener en cuenta que para una variable aleatoria continua,P (X = xi) = 0, P (a ≤ X ≤ b) = P (a ≤ X < b) = P (a < X ≤ b) = P (a < X < b) (2.18) Figura 2.3: Funciones de densidad de probabilidad,f(x) de una variable aleatoria continua. Signifi- cado deP (a ≤ x ≤ b) = ∫ b a f(x)dx. 24 2 2.Teoría estadística de los errores(I). Probabilidad Por analogía con las funciones de distribución de probabilidad discretas se puede definir lafunción de distribución de probabilidad integrada de una variable aleatoria continua, F (xi), continua como: F (xi) = P (X ≤ xi) = P (−∞ ≤ X ≤ xi) = ∫ xi −∞ f(u)du (2.19) A partir de esta definición se pueden obtener las siguientes relaciones: P (a ≤ X ≤ b) = ∫ b a f(x)dx = ∫ b −∞ f(x)dx − ∫ a −∞ f(x)dx = F (b)− F (a) (2.20) P (X > a) = 1− P (X ≤ a) = 1− F (a) (2.21) ya que x>a es el suceso complementario a x≤ a. Algunas propiedades de F(x) son: En todo el intervalo en que f(x) es continua, f(x) = dF (x) dx Si x2 >x1 tendremos que F(x2) >F(x1). Es decir F(x) es monótona creciente. F (−∞) = 0 y F (+∞) = 1 Figura 2.4: Funciones de distibución de probabilidad,F (x). Significado deP (a ≤ x ≤ b) = F (b)− F (a) 25 2.2 2.2. Funciones de distribución de probabilidad. Ejemplo 4. Cálculo de la constante de normalización de una función de distribución de probabilidad, f(x), de una variable aleatoria continua Hallar la constante c para que la función de densidad de probabilidad f(x) = 0 x < 0 cx2 0 ≤ x ≤ 3 0 x > 3 sea una función de distribución de probabilidad y calcular P(1<x<2). Para que f(x) sea una función de distribución de probabilidad debe cumplir la condición (ver ecuación2.16) ∫ +∞ −∞ f(x)dx = 1 Sustituyendo en la ecuación2.16∫ +∞ −∞ f(x)dx = ∫ 3 0 c x2dx = 1 3 cx3 ∣∣∣∣3 0 = 9 c = 1 se obtiene quec = 1/9. Utilizando la ecuación2.17 P (a ≤ X ≤ b) = ∫ b a f(x)dx se obtiene P (1 ≤ X ≤ 2) = ∫ 2 1 1 9 x2dx = 1 27 x3 ∣∣∣∣2 1 = 7 27 Ejemplo 5. Cálculo de la función de distribución de probabilidad integrada,F (x), de una variable aleatoria continua Sea x una variable aleatoria con función de densidad de probabilidad normalizada f(x) = 0 x < 0 1− x 0 ≤ x ≤ 1 x− 1 1 ≤ x ≤ 2 0 x > 2 (a) Determine F(x), (b) calculeP (0 ≤ X ≤ 1) y (c) P (x = 0, 1/2, 1, 3/2, 2). 26 2 2.Teoría estadística de los errores(I). Probabilidad (a) Para calcular F(x) utilizaremos la ecuación2.19 F (x) = ∫ x −∞ f(u)du Parax < 0, F (x) = 0. En el intervalo0 ≤ x ≤ 1, F (x) = ∫ x −∞ f(u)du = ∫ x −∞ (1− u) du = t− 1 2 t2 ∣∣∣∣x0 = x− 1 2 x2 En el intervalo1 ≤ x ≤ 2, F (x) = ∫ x −∞ f(u)du = ∫ 1 −∞ (1− u) du + ∫ 2 1 (u− 1) du = t− 1 2 t2 ∣∣∣∣1 0 + 1 2 t2 − t ∣∣∣∣x 1 = 1 2 x2 − x + 1 En el intervalox > 2,F (x) = 1, ya que la función de densidad de probabilidad está normalizada. F (x) = 0 x < 0 x− 1 2 x2 0 ≤ x ≤ 1 1 2 x2 − x + 1 1 ≤ x ≤ 2 1 x > 2 (b) Teniendo en cuenta que - ecuación2.20 P (a ≤ X ≤ b) = F (b)− F (a) P (0 ≤ X ≤ 1) = F (1)− F (0) = 0,5 (c) P (x = 0, 1/2, 1, 3/2, 2) = P (0) + P (1/2) + P (3/2) + P (2) = 0, por ser la variable x una variable continua. 27 2.2 2.2. Funciones de distribución de probabilidad. Ejemplo 6. Cálculof(x) a partir de F (x) Sea x una variable aleatoria con función de distribución de probabilidad F (x) = 0 x < 0 1 2 x2 0 ≤ x ≤ 1 2x− 1 2 x2 − 1 1 ≤ x ≤ 2 1 x > 2 Hallar f(x) f(x) = dF (x) dx 0 x < 0 x 0 ≤ x ≤ 1 2− x 1 ≤ x ≤ 2 0 x > 2 Concepto de cuantila Finalmente, se define como laβ cuantila,xβ, el valor de la variable aleatoria X para el que se cumple F (xβ) = P (x ≤ xβ) = β (2.22) Habitualmente se utilizan las 100β percentila. Por ejemplo, la cuantila 0.1 (o la percentila 10) corresponde al valor de la variable aleatoria,x0,1, tal queF (x0,1) = 0,1. 28 2 2.Teoría estadística de los errores(I). Probabilidad 2.3. Ejercicios y problemas Funciones de distribución de probabilidad Cuestión 2.1 Elija la mejor respuesta. Considere una variable alatoria continua X. La función de distribución o densidad de probabilidad,f(x), proporciona: (a) f(x) = P (X = x) (b) f(x) = P (x < X < x + dx) (c) f(x) = P (x ≤ X < x + dx) (d) f(x) = P (x < X ≤ x + dx) (e)f(x) = P (x ≤ X ≤ x + dx) (e)f(x) = P (x ≤ X) (f) Las respuestas b,c,d,e son correctas, ya que son equivalentes (g) Ninguna de las anteriores. La respuesta correcta es ......... Cuestión 2.2 Verdadero o falso. Jusitfique la respuesta. Para una variable alatoria continua X,P (X = xi) = 0 Cuestión 2.3 Indique las respuesta o respuestas correctas. Considere una variable alatoria continua X con función de densidad de probabilidadf(x), P(X<a) viene dado por (a) ∫ a −∞ f(x)dx (b) 1− ∫ a −∞ f(x)dx (c) ∫∞ a f(x)dx (d) 1− ∫∞ a f(x)dx (e)F (a) (e)1− F (a) (f) Ninguna de las anteriores. Ejercicio 2.1 Dada la función de densidad de probabilidad f(x) = 0 x < 0 1 9 x2 0 ≤ x ≤ 3 0 x > 3 (a) Encuentre la función de distribución, F(x), correspondiente. (b) Utilice este resultatado para calcularP (1 ≤ x ≤ 2). Ejercicio 2.2 La función de distribución de la variable aleatoria X es F (x) = { 0 x < 0 1− e−2x x ≥ 0 (a) Encuentre la función de densidad, f(x), correspondiente. (b) Utilice las funciones de distribución y densidad para calcular la probabilidad de que X>2. (c) Utilice las funciones de distribución y densidad para calcular la probabilidad de que−3 ≤ X ≤ 4. 29 2.3 2.3. Ejercicios y problemas Ejercicio 2.3 Una variable aleatoria X tiene una función de densidad f(x) = c x2 + 1 donde−∞ < x < ∞ (a) Encuentre el valor de la constante c. (b) Encuentre la probabilidad de queX2 se encuentre entre 1/3 y 1. Ejercicio 2.4 Dada la función de distribución de probabilidad f(x) = 0 x < a k a ≤ x ≤ b 0 x > b Determine el valor de k. ¿Qué valor tendrán esta magnitud si a = -e y b = e?. 2.3.1. Soluciones a los ejercicios Funciones de distribución de probabilidad Ejercicio 2.1 (a) F (x) = 0 x < 0 x3 27 0 ≤ x ≤ 3 1 x > 3 (b) 7 27 Ejercicio 2.2 (a) f(x) = { 0 x < 0 2e−2x x ≥ 0 (b) e−4. (c) 1 − e−8 Ejercicio 2.3 (a) De acuerdo con la ecuación2.16∫ +∞ −∞ f(x)dx = 1 ∫ +∞ −∞ c x2 + 1 dx = c tan−1 x ∣∣∞ −∞ = c [π 2 − ( −π 2 )] = 1 c = 1/π (b) Si 1 3 ≤ X2 ≤ 1, los valores de X pueden estar en los intervalos− √ 3 3 ≤ X ≤ −1 y √ 3 3 ≤ X ≤ 1. Por lo tanto la probabilidad requerida es 30 2 2.Teoría estadística de los errores(I). Probabilidad 1 π ∫ −√3 3 −1 dx x2 + 1 1 π ∫ √3 3 1 dx x2 + 1 = 2 π ∫ √3 3 1 dx x2 + 1 = 2 π [ tan−1(1)− tan−1( √ 3 3 ) ] = 2 π [π 4 − π 6 ] = 1 6 2.4. Lecturas recomendadas Para completar la preparación de este tema recomendamos la lectura de: ☞ Capítulo 1. Magnitudes aleatorias y sus caracterísitcas.del texto de Spiridonov y Lopatkin[7]. X Repasa los conceptos básicos de probabilidad y función de distribución de propabilidad. Ade- cuado para revisar la teoría del tema. ☞ Capítulo 2. Variables aleatorias y distribución de probabilidaddel libro de Spiegel y cols.[5]. En el capítulo recomendado los autores tratan temas no estudiados en esta asignatura como las distribuciones de probabilidad conjunta, ... Se recomienda revisar las secciones cuyos conteni- dos coinciden con los del curso: Variables aleatorias. Distribuciones de probabilidad discreta. Funciones de distribución para variables aleatorias. Funciones de distribución para variables aleatorias discretas. Funciones de distribución para variables aleatorias continuas. Interpreta- ciones gráficas. También se recomienda la realización de los ejercicios suplementarios 2.47 a 2.53.X ☞ Tema 2. Variables aleatorias y distribuciones de probabilidad.del texto de Walpole y Myers[6]. Se recomienda la consulta de las secciones: 1.Concepto de variable aleatoria; 2. Distribución discreta de probabilidad; 3. Distribución continua de probabilidad; y 4. Distribuciones empíri- cas. 31 3 Teoría estadística de los errores(II). Esperanza matemática Contenidos ✍ Esperanza matemática de una magnitud aleatoriaDefinición de es- peranza matemática. Propiedades de la esperanza matemática Momentos de una distribución. Media y varianza. ✍ Propiedades generales y propiedades muestrales de una magnitud aleatoria Media general de una magnitud aleatoria,µ. Media muestral de una magnitud aleatoria,x̄. Varianza de una magnitud aleatoria,σ2(x). Dispersion o varinza muestral de una magnitud aleatoria,s2(x). Objetivos ✓ Comprender el concepto de esperanza matemática ✓ Calcular la esperanza matemática ,E {y(x)}, de una funcióny(x) de una variable aleatoria discreta conocida f(x) ✓ Calcular la esperanza matemática ,E {y(x)}, de una funcióny(x) de una variable aleatoria continua conocida f(x) ✓ Conocer y utilizar las propiedades de la esperanza matemática ✓ Calcular los momentos de orden k respecto del parámetroc, Mk de una variable aleatoria discreta o continua ✓ Distinguir entre magnitudes generales y mmuestrales ✓ Comprender la diferencia entremux y x̄ ✓ Comprender la diferencia entreσ2(x) y s2(x) ✓ Evaluarmux y σ2(x) de una magnitud aleatoria ✓ Calcularla media y la varianza muestral de un conjunto de medidas 33 3.1 3.1. Esperanza matemática de una magnitud aleatoria 3.1. Esperanza matemática de una magnitud aleatoria 3.1.1. Magnitudes aleatorias discretas Sea una magnitud aleatoria discreta,x, y una funcióny(x). Si f(x) es la función de distribución de probabilidad de la variablex, se define comoesperanza matemáticade la funcióny(x), E {y(x)} = k∑ i=1 y(xi) · f(xi) (3.1) donde la suma se extiende a todos los posibles valores de x. 3.1.2. Magnitudes aleatorias continuas Sea una magnitud aleatoria continua,x, y una funcióny(x). Si f(x) es la función de densidad de probabilidad de la variablex, se define comoesperanza matemáticade la funcióny(x), E {y(x)} = ∫ ∞ −∞ y(x) · f(x) dx (3.2) donde la suma se extiende a todos los posibles valores de x. 3.1.3. Propiedades de la esperanza matemática Algunas propiedades de la esperanza matemática son: Si c es una constante (magnitud no aleatoria) tendremos que E {c} = c (3.3) E {c y(x)} = c · E {y(x)} (3.4) Si la magnitud aleatoriax es la suma de n magnitudes aleatorias independientes x = x1 + x2 + . . . + xn (3.5) su esperanza matemática es la suma de la esperanza matemática las n magnitudes sumadas E {x} = E {x1} + E {x2} + . . . + E {xn} (3.6) 34 3 3.Teoría estadística de los errores(II). Esperanza matemática Si la magnitud aleatoriay es una función no lineal de n magnitudes aleatorias independientes y = f(x1, x2, . . . , xn) (3.7) que varia poco en intervalos pequeños de variación delos argumentos, el valor deE {y} es aproximadamente E {y} = f (E {x1} , E {x2} , . . . E {xn}) (3.8) 3.1.4. Momentos de una distribución. Dada una variable aleatoria, x, discreta o continua, se llamamomento de orden k respecto del parámetro c, Mk a las esperanza matemática de la variable(x− c)k Mk = E { (x− c)k } (3.9) Si c = 0 tenemos losmomentos respecto del origena los que suele representarse porαk αk = E { (x)k } (3.10) Dos momentos de importantes sonα0 = 1 y α1 = µX (valor medio de x o media de x). α0 = E { (x)0 } = E {1} = 1 (3.11) α1 = E { (x)1 } = E {x} = µx (3.12) Si c = µX hablamos demomentos centraleso momentos respecto de la media. Suele represetarse porµk y vienen dados por µk = E { (x− µx)k } (3.13) Momentos de importantes sonµ0 = 1, µ1 = 0 y µ2 = σ2x (varianza de x). µ2 = E { (x− µx)2 } = σ2x (3.14) 35 3.1 3.1. Esperanza matemática de una magnitud aleatoria Ejemplo 1. Cálculo de la media y la varianza de una variable aleatoria discreta Considere la variable aleatoriaX que tiene la siguiente función de distribución de probabilidad x 8 12 16 20 24 f(x) 1 8 1 6 3 8 1 4 1 12 Cálcule la media y la varianza de X. La media viene dada por la ecuación3.12 µx = E {x} Sustituyendo µx = ∑ x · f(x) = 8 · 1 8 + 12 · 1 6 + 16 · 3 8 + 20 · 1 4 + 24 · 1 12 = 16 La varianza viene dada por la ecuación3.14 σ2x = E { (x− µx)2 } σ2x = E { (x− µx)2 } = ∑ (x− 16)2 · f(x) = (8− 16)2 · 1 8 + (16− 12)2 · 1 6 + (16− 16)2 · 3 8 + (20− 16)2 · 1 4 + (24− 16)2 · 1 12 = 64 · 1 8 + 16 · 1 6 + 0 · 3 8 + 16 · 1 4 + 64 · 1 12 = 20 La varianza también viene dada por σ2x = E { (x2) } − µ2x E { x2 } = ∑ x2 · f(x) = 64 · 1 8 + 144 · 1 6 + 256 · 3 8 + 400 · 1 4 + 24 · 1 12 = 276 σ2x = E { (x− µx)2 } = 276− (16)2 = 276− 256 = 20 Como muestran los resultados los dos métodos utilizados para calcular la varianza son equiva- lentes. 36 3 3.Teoría estadística de los errores(II). Esperanza matemática Ejemplo 2. Cálculo de la media y la varianza de una variable aleatoria continua Sea la variable aleatoria X que tiene por función de densidad f(x) = dF (x) dx 0 −∞ < a < x k a < x < b 0 x < b Calcular la media y la varianza de X. Antes de poder calcular la media y la varianza tenemos que determinar el valor de k. Para que f(x) sea una función de densidad de probabilidad debe cumplir (ver ecuación2.16)∫ +∞ −∞ f(x)dx = 1 Es decir, ∫ b a kdx = k · (b− a) = 1 por tantok = 1/(b− a) La media viene dada por (ecuación3.12) µx = E {x} = ∫ +∞ −∞ x · f(x) dx µx = ∫ b a x b− a dx = b + a 2 La varianza viene dada por la ecuación3.14 σ2x = E { (x− µx)2 } que es equivalente a σ2x = E { x2 } − µ2x E { x2 } = ∫ +∞ −∞ x2 · f(x) dx = ∫ b a x2 b− a dx = 1 3 x3 b− a ∣∣∣∣b a = 1 3 b3 − a3 b− a σ2x = 1 12 (b − a)2 37 3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria 3.2. Propiedades generales y propiedades muestrales de una mag- nitud aleatoria De acuerdo con los postulados de la teoría estadística de los errores tras un número suficiente- mente grande de experimentos, lo valores obtenidos para la magnitud medida tienden a agruparse alrededor de un valor, y su dispersión alrededor de este valor está caracterizada por una función de distribución de probabilidad. En general, una vez conocida la forma de la distribución de probabili- dad, basta para caracterizarla un número limitado deconstantes. Estos parámetros que caracterizan al conjunto de todas las medidas que puedan obtenerse de un experimento en ciertas condiciones se denominanparámetros poblacionales. El conjunto de medidas obtenidas en una serie experimentos se denominamuestra. Como el nú- mero de medidas que componen la muestra normalmente es pequeño, los parámetros que caracterizan la muestra,propiedades o parámetros muestrales. En general los parámetros muestrales no coinciden con los parámetros poblacionales. Sin embargo, podemos obtener valores aproximados de losparáme- tros poblacionales a partir de los parámetros muestrales (estimas) 1. Una propiedad de las estimas es que sonvariables aleatoriasmientras que losparámetros po- blacionalesson valores constantes y característicos de la función de distribución de probabilidad asociada a los errores aleatorios. Finalmente, una cuestión de notación. En esta sección designaremos las propiedades poblaciona- les utilizando el alfabeto griego, mientras que utilizaremos el alfabeto latino para propiedades mues- trales. Propiedades generales de las estimas Si T es una estima del parámetro poblacionalθ, T debe cumplir entre otros criterios que E {T} = µT = θ. Esto equivale a decir que la estima T no es una estima sesgada. La estima es consistente. Es decir, cuanto mayor es el número de medidas utilizadas para cal- cularT , mayor es la proximidad entre los valores deT y θ Propiedades muestrales de uso frecuente Para describir nuestras medidas haremos referencia a dos tipos de propiedades muestrales: un número alrededor del que las medidas se agrupan:media muestral, x. un número que da una medida de la dispersión de los valores alrededor de la media:la desvia- ción típica muestral, s(x). Utilizaremos la media muestral,x̄ como estima del valor real. Como medida de la incertidumbre de cada medida utilizaremos la desviación típica de nuestros datos,s(x), mientras que para acotar la incertidumbre de la estima de la media utilizaremos la desviación típica muestral de la media,s(x̄). 1Existen distintos métodos para obtener estimas. Algunos de ellos son el método de máxima verosimilitud, el método de mínimos cuadrados, el método de los momentos y el método Bayesiano. La descripción de estos métodos excede los objetivos del curso 38 3 3.Teoría estadística de los errores(II). Esperanza matemática 3.2.1. Media general de una magnitud aleatoria El valor medio de la magnitud aleatoria x para el conjunto general es la esperanza matemática de la magnitud aleatoria µx = E {x} (3.15) 3.2.2. Media muestral de una magnitud aleatoria La media muestral de la magnitud aleatoria x se define como el valor medio de los valores obser- vados x1,x2, . . . ,xn, x̄ = x1 + x2 + . . . + xn n = 1 n · n∑ j=1 xj (3.16) 3.2.3. Varianza de una magnitud aleatoria. La varianza o dispersión de una magnitud aleatoria x se define como la esperanza matemática de las desviaciones respecto a la media general: σ2x = E { (x− µx)2 } (3.17) Al valor positivo de la raíz cuadrada de la varianza,σ(x), se le llama desviación cuadrática media, desviación típica o desviación normal. Algunas propiedades de la varianza son: Si c es una constante (magnitud no aleatoria) tendremos que: σ2(c) = 0 (3.18) σ2(c x) = c2 σ2(x) (3.19) Si la magnitud aleatoriax es la suma de n magnitudes aleatorias independientes x = x1 + x2 + . . . + xn (3.20) la varianza dex es la suma de las varianzas de las n magnitudes sumadas σ2(x) = σ2(x1) + σ 2(x2) + . . . + σ 2(xn) (3.21) 39 3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria Sin embargo,σ(x) viene dado por σ(x) = √ σ2(x1) + σ2(x2) + . . . + σ2(xn) (3.22) La varianza se puede calcular a partir de los momentos respecto del origenα1 y α2: σ2(x) = E { x2 } − µ2x (3.23) Si la magnitud aleatoriay es una función no lineal de n magnitudes aleatorias independientes y = f(x1, x2, . . . , xn) (3.24) que varia poco en intervalos pequeños de variación de los argumentos, el valor deσ2(y) es aproximadamente σ2(y) = ( ∂f ∂x1 )2 σ2(x1) + ( ∂f ∂x2 )2 σ2(x2) + . . . ( ∂f ∂xn )2 σ2(xn) (3.25) Esta propiedad es útil para el cálculo de la incertidumbre de magnitudes complejas. Ejemplo 3. Varianza de una magnitud indirecta Utilizando un puente de Wheatstone, la resistencia de una disolución de electrolitos,W , puede calcularse mediante la ecuación W = R · 1000− a a = R · ( 1000 a − 1 ) dondeR es el valor de una resistencia patrón conocida ya es la lectura de la resistencia que se obtiene experimentalmente cuando se equilibra el puente de Wheatstone.Calcule la incertidumbre deW . Considere que la incertidumbre deR es despreciable. De acuerdo con la ecuación3.30 σ2(y) = ( ∂f ∂x1 )2 σ2(x1) + ( ∂f ∂x2 )2 σ2(x2) + . . . ( ∂f ∂xn )2 σ2(xn) que en nuestro caso se reduce a σ2(W ) = ( ∂W ∂a )2 σ2(a) 40 3 3.Teoría estadística de los errores(II). Esperanza matemática ( ∂W ∂a ) = −R · 1000 a2 σ2(W ) = R2 · 10 6 a4 σ2(a) Ejemplo 4. Varianza de una magnitud indirecta (II) Determine la incertidumbre en la medida de la entalpia para la reacción NH3(g) + 5 4 O2(g) � O(g) + 32H2O(g) ∆Hr R.1 Considere las reacciones: H2O(g) � H2O(l) ∆H2 R.2 1 2 N2(g) + 3 2 H2(g) � NH3(g) ∆H3 R.3 1 2 H2(g) + 1 2 O2(g) � H2O(g) ∆H4 R.4 1 2 NO(g) � 1 2 N2(g) + 1 2 O2(g) ∆H5 R.5 Utilizando la ley de Hess podemos expresar∆Hr en función de las entalpias de las reacciones R.2 a R.5 ∆Hr = − 3 2 ∆H2 − ∆H3 + 3 2 ∆H4 − ∆H5 y de acuerdo con las propiedades de la dispersión muestral, ecuación3.30, la incertidumbre en ∆Hr es σ2(∆Hr) = ( 3 2 )2σ2(∆H2) + σ 2(∆H3) + ( 3 2 )2σ2(∆H4) + σ 2(∆H5) 41 3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria 3.2.4. Dispersion o varinza muestral de una magnitud aleatoria La dispersión muestral de una magnitud aleatoria prodría definirse como s∗2 = 1 n n∑ j=1 (xj − µx)2 (3.26) Esta expresión presupone que conocemos el valor deµx. Como sólo disponemos de una estima de esta magnitud, la media muestral,x̄. Si sustituimos la media muestral por la media poblacional con lo que tendriamos: s∗2 = 1 n n∑ j=1 (xj − x̄)2 (3.27) Sin embargo cuando comprobamos la propiedades de esta estma observamos que la estima deσ(x)2 que obtenemos,s∗2 es una estima sesgada:E{s∗2} < σ2(x). Podemos obtener una buena estima sustituiyendo N en el cociente en la expresión de s2∗ por el número de grados de libertad. El número grados de libertad es el número de observaciones indepen- dientes, es decir aquellas en exceso a las necesarias para determinar los parametros que aparecen en la ecuación. En este caso, el número de grados de libertad es N-1 pues al menos necesitamos 1 dato para determinar la media muestral. s2(x) = 1 n− 1 n∑ j=1 (xj − x̄)2 (3.28) En este casoE{s2(x)} = σ2(x). s2(x) es la varianza muestral de x. Como en el caso de la varianza, si la magnitud aleatoriay es una función no lineal de n magnitudes aleatorias independientes y = f(x1, x2, . . . , xn) (3.29) que varia poco en intervalos pequeños de variación de los argumentos, el valor des2(y) es aproxima- damente s2(y) ≈ ( ∂f ∂x1 )2 s2(x1) + ( ∂f ∂x2 )2 s2(x2) + . . . ( ∂f ∂xn )2 s2(xn) (3.30) Esta propiedad es útil para el cálculo de la incertidumbre de magnitudes complejas o indirectas2. 2Cálculos de propagación de errores 42 3 3.Teoría estadística de los errores(II). Esperanza matemática Ejemplo 5. Calculo de la media y la varianza muestral En una serie de experimentos para determinar la entalpia neutralización del HCl y NaOH a 300 K se obtuvieron los siguientes valores: ∆H(kcal/mol) : 54,4, 56,4, 57,5, 56,6, 57,0, 56,5, 58,4, 57,0, 55,2 Determine el valor de media y la desviación típica de las medidas. La media muestral viene dada por la ecuación3.16 x̄ = x1 + x2 + . . . + xn n = 1 n · n∑ j=1 xj mientras que la varianza muestral se calcula utilizando la ecuación3.28 s2(x) = 1 n− 1 n∑ j=1 (xj − x̄)2 Medida xi xi − x̄ (xi − x̄)2 1 54.4 -2.15 4.6225 2 56.4 -0.16 0.0256 3 57.5 0.94 0.8836 4 56.6 -0.04 0.0016 5 57.0 0.44 0.1936 6 56.5 -0.06 0.0036 7 58.4 1.84 3.3856 8 57.0 0.44 0.1936 9 55.2 -1.36 1.8496 SUMA 509.0 0.0 11.593 Sustituyendo en las ecuaciones3.16y 3.28se obtienēx = 509,0/9 = 56,56 kcal.mol−1. s2 = 11,1593/8 = 1,3949( kcal.mol−1)2 y s = 1,18 kcal.mol−1. El resultado final∆H = 56,6± 1,2 kcal.mol−1. 43 3.3 3.3. Mediana y moda 3.3. Mediana y moda La media, o esperanza, de una variable aleatoria X proporcion una medida de la tendencia central para los valores de una distribución. Otras medidas de la tendencia central frecuentemente usadas son: Moda Para una variable aleatoria discreta es el valor que ocurre con más frecuencia o, en el que tiene la mayor probabilidad de ocurrencia. Algunas veces tenemos dos, tres o más len probabilidades relativamente grandes de ocurrencia. En tales casos, decimos que la bimodal, trimodal o multi- modal, respectivamente. En el caso de una variable aleatoria continua X es el valor o valores de X donde la función de densidad de probabilidad tiene un máximo relativo. Mediana Valor de x para el cualP (X < x) = 1 2 y P (X > x) ≤ 1 2 . En el caso de una variable continua tenemosP (X < x) = 1 2 = P (X > x), y la mediana separa la curva de densidad en dospartes con áreas iguales de 1/2 cada una. En el caso de una distribución discreta, no existe una mediana única 44 3 3.Teoría estadística de los errores(II). Esperanza matemática 3.4. Ejercicios y problemas Cuestión 3.1 Demuestre µ0 = 1 Cuestión 3.2 Demuestre µ1 = 0 Cuestión 3.3 Demuestre σ2x = E { x2 } − µ2x Cuestión 3.4 Verdadero o falso. Jusitfique la respuesta. La media muestral,̄x es una variable aleatoría Cuestión 3.5 Verdadero o falso. Jusitfique la respuesta. La varianza,σ2(x) es una variable aleatoría Cuestión 3.6 Verdadero o falso. Jusitfique la respuesta. La mediaµx y la varianzaσ2(x) son dos propiedas características de una variable aleatoria Esperanza matemática de una magnitud aleatoria Ejercicio 3.1 Dada la función de densidad de probabilidad Sea la variable aleatoria X que tiene por función de densidad f(x) = dF (x) dx 0 −∞ < x < 0 x 0 ≤ x < 1 2− x 1 ≤ x ≤ 2 0 x > 2 Calcular la media y la varianza de X. Calculo de magnitudes muestrales Ejercicio 3.2 Al realizar cinco medidas del indice de refracción de una mecla se obtuvieron los siguientes valores: 1.591, 1.521,1.528,1.570,1.587 45 3.4 3.4. Ejercicios y problemas Ejercicio 3.3 Los resultados de una serie de medidas de la temperatura con un termometro agrupa- dos en clases de anchura 0.1 K son T / K 298 298.1 298.2 298.3 298.4 298.5 Fi 0.2 0.2 0.3 0.1 0.1 0.1 Dibuje el histograma asociado a estos datos. Ejercicio 3.4 En una serie de experimentos se determino la capacidad de absorber metales pesados presentes en el medio natural de ciertas especies de pescado. Los siguientes datos corresponden a medidas de la concentración promedio de cadmio (mg Cd por Kg de pez) para una especie en distintos bancos del Atlántico. 13.1 8.4 16.9 2.7 9.6 4.5 12.5 5.5 12.7 17.1 10.8 18.9 27.0 18.0 6.4 13.1 8.5 7.5 12.1 8.0 11.4 5.1 5.6 5.5 5.0 10.1 4.5 7.9 7.9 8.9 3.7 9.5 14.1 7.7 5.7 6.5 10.8 14.7 14.4 5.1 Determine la media y la desviación típica de los datos. Dibuje el histograma correspondiente. Ejercicio 3.5 Una medida de la eficiencia de una torre de destilación es la velocidad de producción de vapor. En la tabla se recogen una serie de valores correspondientes a esta propiedad. 1170 1620 1495 1170 1710 1710 1530 1260 1440 1800 1170 1260 1170 1640 1800 1800 1530 1350 1800 1530 1170 1440 1530 1260 1350 1350 1350 1440 1170 1710 1620 1350 1730 1800 1800 1530 1440 1620 Determine la media y la desviación típica de los datos. Dibuje el histograma y diagrama de frecuencias asociado a estos datos. ¿Por debajo de que valor se encuentra el 90 % de los datos?. 3.4.1. Soluciones a los ejercicios Esperanza matemática de una magnitud aleatoria Ejercicio 3.1 La media viene dada por (ecuación3.12) µx = E {x} = ∫ +∞ −∞ x · f(x) dx 46 3 3.Teoría estadística de los errores(II). Esperanza matemática µx = ∫ 1 0 x · x dx + ∫ 2 1 x · (2− x) dx = x3 3 ∣∣∣∣1 0 + x2 − x 3 3 ∣∣∣∣2 1 = 1 3 + 2 3 = 1 La varianza viene dada por la ecuación3.14 σ2x = E { (x− µx)2 } = E { x2 } − µ2x E { x2 } = ∫ 1 0 x2 · x dx + ∫ 2 1 x2 · (2− x) dx = x4 4 ∣∣∣∣1 0 + 2x3 3 − x 4 4 ∣∣∣∣2 1 = 1 4 + 14 3 − 15 4 = 7 6 σ2x = 7 6 − (1)2 = 1 6 3.5. Lecturas recomendadas Para completar la preparación de este tema recomendamos la lectura de: ☞ Capítulo 1. Magnitudes aleatorias y sus caracterísitcas.del textode Spiridonov y Lopatkin[7]. X Revisa los contenidos del tema. Adecuado para revisar la teoría del tema. ☞ Capítulo 3. Esperanza matemáticadel libro de Spiegel y cols.[5]. En el capítulo recomendado los autores tratan temas no estudiados en esta asignatura como las funciones generatrices, ... Se recomienda revisar las secciones cuyos contenidos coinciden con los del curso. Se recomienda revisar los ejercicios resueltos 3.1, 3.2, 3.19(a).X ☞ Tema 3.Esperanza matemática.del texto de Walpole y Myers[6]. Se recomienda la consulta de las secciones: 1. Media de una variable aleatoria, 2. Varianza y covarianza. 47 4 Distribuciones de probabilidad de variables aleatorias discretas Contenidos ✍ Distribución uniforme Descripción y propiedades. ✍ Distribución binomial Descripción y propiedades. Teorema de Moivre. ✍ Distribución de PoissonDescripción y propiedades. La distribución de Poisson como límite de la distribución binomial. Convergencia de la distribución de Poisson a la distribución de Gauss. Objetivos ✓ Reconocer las características de la distribución uniforme de una variable aleatoria discreta ✓ Reconocer las características de un experimento de Bernuilli ✓ Realizar calculos de probabilidades de variables aleatorias que siguen un distribución binomial ✓ Calcularµ y σ de variables que siguen un distribución binomial ✓ Utilizar el teorema de Moivre para calcular probabilidades de resultados de un experimento de Bernuilli utilizando una distribución normal ✓ Realizar calculos de probabilidades de variables aleatorias que siguen un distribución de Poisson ✓ Calcularµ y σ de variables que siguen un distribución de Poisson ✓ Utilizar la distribución normal para calcular probabilidades de resultados de un experimento de Poisson ✓ Utilizar la distribución de Poisson para calcular probabilidades de resul- tados de un experimento de Bernuilli en el límite de probabilidades de exito bajas y número de pruebas grande 49 4.2 4.1. Distribución uniforme 4.1. Distribución uniforme ¿Qué variables aleatorias siguen esta función de probabilidad?. Esta distribución de probabilidad corresponde a variables aleatorias discretas que pueden tormar n valores, xi= x1, x2,..., xn y todos sus posibles valores tienen la misma probabilidad. La función de distribución de probabilidad es f(x) = P (X = xi) = 1 n dondei = 1, 2, . . . , n (4.1) La media y la varianza de la distribución vienen dadas por µ = n + 1 2 (4.2) σ2 = n2 − 1 12 (4.3) Ejemplo 1. Distribución de probabiblidad uniforme Considere la variable aleatoriaX que corresponde a lanzar un dado y leer la cara superior del dado. Si el dado no está trucado, todos los resultados tienen la misma probabilidad y la función de distribución de probabilidad de esta variable aleatoria es x 1 2 3 4 5 6 f(x) 1 6 1 6 1 6 1 6 1 6 1 6 El diagrama de barras muestra la función de distribución de probabilidad. 50 4 4. Distribuciones de probabilidad de variables aleatorias discretas 4.2. Distribución binomial ¿Qué variables aleatorias siguen esta función de probabilidad?. Las variables que siguen la distri- bución binomial corresponden a los experimentos que cumplen tenemos un número fijon de experimentos (pruebas) el resultado de cada experimento sólo puede tener dos valores (exitoy fracaso) el resultado de un experimento es independiente de los anteriores y no influye en los posteriores Estos experimentos también son conocidos comopruebas de Bernuilli. Seap (probabilidad de éxito) la probabilidad de que un suceso ocurra en una sola prueba de Bernuilli y q = 1− p (probabilidad de fracaso) será la probabilidad de que ocurra el suceso opuesto . La probabilidad de obtenerx éxitos enn ensayos (x éxitos,n− x fracasos) esta dada por la función de probabilidad f(x) = P (X = x) = PB(X = x; n, p) = ( n x ) pxqn−x = n! x!(n− x)! pxqn−x (4.4) donde la variable aleatoria X denota el número de éxitos enn pruebas. Esta función de probabilidad discreta se denominadistribución binomial o de Bernuilli. Una variable aleatoria con está distribu- ción de probabilidad se dice que está distribuida binomialmente. La media y la varianza de la distribución vienen dadas por µ = np (4.5) σ2 = npq = np(1− p) (4.6) Ejemplo 2. Cálculo de probabiblidades de una variable binomial Determine la probabilidad de obtener 2 caras en un seis lanzamientos de una moneda al aire. ¿Es este experimento una prueba de Bernuilli? tenemos un número fijo de experimentosn = 6 el resultado de cada experimento sólo puede tener dos valores (cara, p = 0,5 y cruz, q = 0,5) el resultado de cada experimento (lanzar una moneda al aire) es independiente de los anteriores y no influye en los posteriores Utilizando la ecuación4.4calcularemos la probabildad del resultado PB(X = 2; 6, 0,5) = ( 6 2 ) 0,520,56−2 = 6! 2!4! 0,520,54 = 15× 0,25× 0,0625 = 0,235 51 4.2 4.2. Distribución binomial Ejemplo 3. Cálculo de probabiblidades de una variable binomial (II) Suponga que la probabilidad de que los resultados de un experimento sean aceptables es 0.6. Si el experimento se repite 5 veces, obtenga la distribución de resultados útiles y determine la probabilidad de obtener al menos dos resultados útiles. ¿Estamos ante una prueba de Bernuilli?. tenemos un número fijo de experimentosn = 5 el resultado de cada experimento sólo puede tener dos valores (resultado aceptable,p = 0,6 y resultado no aceptable,q = 0,4). Tenga en cuenta que no nos estamos preguntando por el valor de la propiedad que medimos, sino por la validez del experimento. los resultado de cada experimento son independientes entre si Para deteminar la función de distribución utilizaremos la ecuación4.4p = 0,6, q = 1−0,6 = 0,4 y n = 5 PB(X = 0; 5, 0,6) = ( 5 0 ) 0,600,45 = 0,01024 PB(X = 1; 5, 0,6) = ( 5 1 ) 0,610,44 = 0,07680 PB(X = 2; 5, 0,6) = ( 5 2 ) 0,620,43 = 0,23040 PB(X = 3; 5, 0,6) = ( 5 3 ) 0,630,42 = 0,34560 PB(X = 4; 5, 0,6) = ( 5 4 ) 0,640,41 = 0,2592 PB(X = 5; 5, 0,6) = ( 5 5 ) 0,650,40 = 0,07776 De modo que la función de distribución de probabilidad viene dada por x 0 1 2 3 4 5 f(x) 0.01024 0.07680 0.23040 0.34560 0.2592 0.07776 El diagrama de barras muestra la función de distribución de probabilidad. 52 4 4. Distribuciones de probabilidad de variables aleatorias discretas La probabilidad de realizar más de dos experimentos con resultados aceptables podemos calcu- larla como P (X > 2) = P (X = 3) + P (X = 4) + P (X = 5) = 0,6826 También podemos tener en cuenta que el suceso complementario del calculado es obtenerX ≤ 2 y utilizando la ecuación2.5podemos calcular la probabilidad P (X > 2) = 1− P (X ≤ 2) = 1− (P (X = 2) + P (X = 1) + P (X = 0)) = 0,68256 los dos tratamientos que son equivalentes como esperabamos Ejemplo 4. Cálculo de la varianza de una variable descrita por un distribución binomial Un físico de partículas hace medidas de la distribución angular de mesones K. Los resultados de la medida pueden serhacia delante o hacia atrás. Ambos procesos son igualmente probables. En un experimento de calibrado se realizaron 1000 medidas y se obtuvieron 472 mesones en la direcciónhacia delantey 528 mesones en la direcciónhacia atrás. ¿Cuál es la desviación típica de los resultados?. El experimento descrito cumple con las condiciones de un experimento de Bernouilli con una probabilidad de éxitop = 0,5. Para calcular la desviación típica del experimento utilizaremos la ecuación4.6 σ2 = npq = np(1− p) (4.7) σ = √ np(1− p) (4.8) Sutituyendo, σ = √ 1000× 0,5× 0,5 = 15,8 (4.9) Ejemplo 5. Cálculo de patrones de intensidad en un espectro de masas Considere un halocarburo trisustituidoRX3. Si el sustituyente es Br, éste presenta dos isótopos de masas 79 y 81, con abundancias relativas 0.5069 y 0.4931. Determine cuantos picos esperaría observar en el espectro de masas delRBr3 y que intensidad relativa esperaría que tuvieran los picos del espectro. En un espectro de masas se representa intensidad frente a masa de modo que la intensidad obte- nida a una masa dada,M , es proporcional al númerode moléculas de masaM presentes en la muestra. 53 4.2 4.2. Distribución binomial Si X1 ≡ Br79 y X2 ≡ Br81, los isotopos de bromo pueden presentarse en la especieRBr3 en las combinaciones RX1X1X1, RX1X1X2 , RX1X2X2 y RX2X2X2 Es decir, aparecerán cuatro picos en el espectro de masas distintas. La intensidad relativa de los picos depende de la frecuencia con la que se observe cada una de las combinaciones. Como estamos trabajando con número de moléculas muy grandes� 1019, podemos suponer que la intensidad relativa con la que observamos cada pico, que depende de la frecuencia con la que observamos cada una de los halocarburos, es igual a la probailidad de observar un halocarburo de la masa indicada. La probabilidad de obtener cada halocarburo viene dada por una distribución binomial conn = 3, p = 0,5069 y q = 0,4931. P (RBr793 ) = PB(X = 3; 3, 0,5069) = ( 3 3 ) 0,506930,49310 = 0,1302 P (RBr792 Br 81) = PB(X = 2; 3, 0,5069) = ( 3 2 ) 0,506920,49311 = 0,3801 P (RBr79Br812 ) = PB(X = 1; 3, 0,5069) = ( 3 1 ) 0,506910,49312 = 0,3698 P (RBr813 ) = PB(X = 0; 3, 0,5069) = ( 3 0 ) 0,506900,49313 = 0,1199 La distribución de intesidades de los picos puede representrase con un diagrama de barras donde M es la masa de la especieRBr793 , M + 2 es la masa de la especieRBr 79 2 Br 81, M + 3 es la masa de la especieRBr79Br812 , y M + 3 la masa de la especieRBr 81 3 . 54 4 4. Distribuciones de probabilidad de variables aleatorias discretas 4.2.1. Teorema de Moivre Para tamaños de la muestra tales que los valores del producto npq>5 (tamaños de muestra gr- nades), el comportamiento de la distribución binomial se asemeja al de una distribución normal con mediaµ = np y varianzaσ2 = npq. Esta propiedad es conocida como teorema de Moivre. Como la distribución binomial es una distribución de variables discretas, hay que hacer una correc- ción de continuidad de modo que al utilizar la aproximación de la distribución binomial a una distri- bución gaussiana las probabilidades se calculan como PB(X = a; n, p) =PG(a− 0,5 ≤ X ≤ a + 0,5) PB(a < X < b; n, p) =PG(a + 0,5 ≤ X ≤ b− 0,5) PB(a ≤ X ≤ b; n, p) =PG(a− 0,5 ≤ X ≤ b + 0,5) Este teorema permite calcular de una manera sencilla valores de la probabilidad de una distribu- ción binomial en condiciones en las que es imposible evaluar esta magnitud utilizando la ecuación 4.4 PB(X = x; n, p) = n! x!(n− x)! pxqn−x (4.10) 4.3. Distribución de Poisson Esta distribución describe el número de sucesos que ocurren en un intervalo de tiempo fijo o en un volumen del espacio o por unidad de producto dado cuando los elementos están distribuidos aleatoriamente de acuerdo con una frecuencia de ocurrencia o densidad promedio. Es decir, el número de éxitos que observamos en cada unidad de tiempo, área o producto es totalmente al azar (sólo conocemos su valor medio) y que cada intervalo de tiempo es independiente de otro intervalo dado, así como cada área es independiente de otra área dada y cada producto es independiente de otro producto dado. Esta definición es un tanto abstracta y se comprende mejor con algunos ejemplos de variables que tienen este comportamiento: número de partículas emitidas por una fuente radiativa en un tiempo definido, número de fotones emitidos por una molécula en su desexcitación fluorescente desde un estado excitado, número de errores cometidos por página al transcribir un texto,número de bacterias por cm2 de cultivo, etc. El espacio muestral de la variable X distribuida de acuerdo con una distribución de Poisson son los enteros {0,1,2, ...} y la función de distribución viene dada por: f(x) = P (X = x) = 1 x! λxe−λ x = 0, 1, 2, . . . (4.11) dondeλ es una constante positiva. La media y la varianza de esta distribución vienen dadas por µ = λ (4.12) 55 4.3 4.3. Distribución de Poisson σ2 = λ (4.13) Ejemplo 6. Cálculo de la varianza de una variable que sigue una distribución de Poisson Como parte de un experimento para determinar la vida media de dos isótopos radiactivos de plata, se registraron simultáneamente el número de partículas emitidas en intervalos de dos se- gundos en las cercanías de la plata. Los experimentos se repitieron 20 veces y se obtuvo un valor medio de 1.69 partículas por segundo. ¿Cuál es la desviación típica de las medidas?. La distribución de Poisson describe el número de sucesos que ocurren en un intervalo de tiempo fijo cuando los elementos están distribuidos aleatoriamente de acuerdo con una frecuencia de ocurrencia. De modo queµ = λ = 1,69 y σ2 = λ = 1,69. La desviación típica viene dada por σ = √ λ = √ 1,69 = 1,30 partículas por segundo Ejemplo 7. Cálculo de probabilidades de una variable que sigue una distribución de Poisson En un experimento de detección de neutrinos se observaron 8 neutrinos coincidentes con la observación óptica de la explosión de la supernova 1987A. (a) Calcule la probabilidad de realizar esta observación si en promedio se detectan 2 neutrinos por día. (b) Calcule la probabilidad de la observación teniendo en cuenta que los ocho neutrinos se ob- servaron en el espacio de 10 minutos. (a)λ = 2 neutrinos.dia−1 Utilizando la ecuación4.11 P (X = x) = 1 x! λxe−λ (4.14) P (X = 8) = 1 8! 28e−2 = 9,0 10−4 (4.15) La probabilidad es muy baja. Puede esperarse una correlación entre la explosión de la supernova y la detección de los neutrinos. (b) En este casoλ = 2 24∗6 = 0,014 Utilizando de nuevo la ecuación4.11 P (X = 8) = 1 8! 0,0148e−0,014 = 3,3 10−20 (4.16) La ocurrencia del suceso obsevado es extremadamente improbable y posiblemente se correlacio- ne con la explosión de la supernova u otro proceso no observado. 56 4 4. Distribuciones de probabilidad de variables aleatorias discretas 4.3.1. La distribución de Poisson como límite de la distribución binomial La distribución de Poisson también representa el límite de la distribución binomial cuando el nú- mero de éxitos es mucho menor que el número de ensayos (µ � n), es decirn grande y probabilidad de un éxito muy baja (p � 1) Ejemplo 8. Cálculo de probabilidades: comportamientos límite La probabilidad de que un individuo sufra una reacción al inyectarle un suero es 0.001. Deter- minar la probabilidad de que de un total de 2000 personas más de dos individuos sufran una reacción El caso descrito corresponde a un experimento de Bernouilli conµ = np = 2000 · 0,001 = 2. Utilizar la ecuación4.4 PB(X = x; n, p) = n! x!(n− x)! pxqn−x (4.17) no es un método razonable para calcular probabilidades de ocurrencia. Teniendo en cuenta queµ = λ = 2 � 2000 podemos utilizar en nuestros cálculos la ecuación 4.11 P (X = x) = 1 x! λxe−λ (4.18) La probabilidad de que más de dos individuos sufran reacción viene dada por P (X > 2) =1− P (X ≤ 2) = P (0) + P (1) + P (2) = [ 20 e−2 0! + 21 e−2 1! + 22 e−2 2! ] = 0,323 57 4.3 4.3. Distribución de Poisson 4.3.2. La distribución de Gaussiana o normal como límite de la distribución de Poisson Para valores grandes deλ la función de distribución de Poisson puede aproximarse mediante una distribución de probabilidad gaussiana conµ = λ y σ2 = λ. Figura 4.1: Distribuciones de Poisson para distintos valores deλ. Observe como la forma de la distri- bución se aproxima a distribución normal conforme aumenta el valor deλ. 58 4 4. Distribuciones de probabilidad de variables aleatorias discretas Figura 4.2: Relación entre las distribuciones binomial, Poisson y Gauss o normal. 4.4. Ejercicios y problemas Cuestión 4.1 Considere una distribución binomialPB(x; n, p) con n = 6, y p=0.5. Calcule su media. Cuestión 4.2 Considere una distribución binomialPB(x; n, p) con n = 6, y p=0.5. Calcule la varianza. Cuestión 4.3 Considere una distribución binomialPB(x; n, p) con n = 6, y p=0.25. Calcule su media. Cuestión 4.4 Considere una distribución binomialPB(x; n, p) con n = 6, y p=0.25. Calcule la varianza. Cuestión 4.5 En la realización de un programa informático el número de errores cometidos por página sigue una distribución de Poisson de varianza 2. ¿Cuál es la probabilidad de
Compartir