Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
1 APUNTES DE PROBABILIDAD Y ESTADÍSTICA – INDICE TEMÁTICO A. L. Dini – 2003 APUNTES DE PROBABILIDAD Y ESTADÍSTICA – INDICE TEMÁTICO ..................................................1 ÁLGEBRA COMBINATORIA............................................................................................................................3 Problemas fundamentales del álgebra combinatoria........................................................................................3 PERMUTACIONES...........................................................................................................................................3 COMBINACIONES ...........................................................................................................................................3 Permutaciones con repetición .........................................................................................................................4 VARIACIONES.................................................................................................................................................4 Ejemplos.........................................................................................................................................................4 POTENCIAS DE UN BINOMIO – GENERALIZACIÓN DE NEWTON..........................................................5 Ejemplos.........................................................................................................................................................5 PROBABILIDAD Y ESTADÍSTICA – PRIMERA PARTE...............................................................................6 INTRODUCCIÓN....................................................................................................................................................6 El azar............................................................................................................................................................6 La Estadística y la Probabilidad .....................................................................................................................6 Frecuencia y probabilidad matemática. La ley “de los grandes números”. El esquema de la urna ...................6 Acotación del factor de azar............................................................................................................................7 Procesos con azar inherente............................................................................................................................7 El azar estadístico...........................................................................................................................................8 Trágicos ejemplos ...........................................................................................................................................8 DATOS Y ESTADÍSTICA.........................................................................................................................................8 PRESENTACIÓN DE LOS DATOS – TABLAS - HISTOGRAMAS ....................................................................................9 DISTRIBUCIONES CONTINUAS .............................................................................................................................10 MEDIAS Y OTROS PARÁMETROS DE POSICIÓN ......................................................................................................11 Mediana, cuartilos, percentiles y moda..........................................................................................................12 MOMENTOS DE UNA DISTRIBUCIÓN.....................................................................................................................12 Momentos de orden par y dispersión .............................................................................................................13 Momentos de grado superior al segundo .......................................................................................................13 Momentos de grado impar ......................................................................................................................................... 13 Momentos de grado par ......................................................................................................................................... 14 VOLVIENDO A LAS PROBABILIDADES ..................................................................................................................14 Extensión de la noción de probabilidad .........................................................................................................15 El problema de la aguja (o del alfiler)......................................................................................................................... 15 PROBABILIDAD SIMPLE Y COMPUESTA ................................................................................................................15 Probabilidades y diagramas lógicos..............................................................................................................16 Teorema de la probabilidad compuesta condicional ......................................................................................16 Demostración general:............................................................................................................................................... 17 Teorema de Bayes (sobre la probabilidad de las causas) ...............................................................................17 Ejemplo: ................................................................................................................................................................... 18 Cálculo: .................................................................................................................................................................... 18 Pruebas repetidas – La distribución binomial................................................................................................19 Media, varianza y asimetría de la distribución binomial .............................................................................................. 19 Cálculo de M3 para la distribución binomial ........................................................................................................... 20 Asimetría de la distribución binomial..................................................................................................................... 20 La distribución de Poisson ............................................................................................................................21 Ejemplo Nº1.............................................................................................................................................................. 21 Ejemplo Nº2.............................................................................................................................................................. 21 La distribución normal de Gauss...................................................................................................................22 Teorema de Bernouilli ............................................................................................................................................... 22 Teoría de errores ....................................................................................................................................................... 24 Ejemplo: ............................................................................................................................................................... 24 Poblaciones y muestras .................................................................................................................................25 Media de medias de las muestras ........................................................................................................................... 26 Desvío standard dela media de las muestras .......................................................................................................... 26 Media y varianza de una suma de variables aleatorias independientes.......................................................................... 27 2 Ejemplo: ............................................................................................................................................................... 27 Covarianza:........................................................................................................................................................... 27 Varianza de una resta de variables independientes .................................................................................................. 28 Varianza de una muestra............................................................................................................................................ 28 3 ÁLGEBRA COMBINATORIA Se llama álgebra combinatoria a la parte de esta materia que estudia las posibilidades de ordenamiento y agrupa- ción de series o colecciones de objetos. Esas posibilidades de formar grupos de objetos diferentes, iguales, similares o repetidos son números que aparecen en diversos problemas matemáticos, como series de potencias, probabilidades y estadística. Problemas fundamentales del álgebra combinatoria Como colección típica de objetos tomemos n bolillas numeradas del 1 a n Enunciaremos algunos los problemas que pueden plantearse: 1) ¿De cuántas maneras diferentes se pueden ordenar esas bolillas? - o lo que es equivalente - ¿Cuantas series de números diferentes se podrán obtener en sucesivas operaciones de sacar de a una las bolillas hasta vaciar el bo- lillero? 2) ¿De cuántas maneras diferentes se pueden obtener primero m bolillas, en cualquier orden, y luego las restantes (n-m) bolillas, también en cualquier orden? 3) ¿De cuántas maneras diferentes se pueden obtener a partir de n bolillas, grupos de m bolillas diferentes entre sí considerando diferentes dos grupos con las mismas bolillas pero en diferente orden. PERMUTACIONES Para contestar la pregunta Nº1, dibujemos todas las bolillas en fila, en un orden determinado. Supongamos que la colección total es de n=10 bolillas. Además de la disposición de la figura (en orden numérico) ¿Cuántas otras maneras hay de formar la fila de bolillas?. Razonemos con una fila de 2 bolillas: por ejemplo la 9 y la 10. Hay dos posi- bilidades de formarla: 9,10 – 10,9 Cuando ponemos en juego una tercera bolilla, por ejemplo la Nº8, ésta puede ir adelante, en medio o detrás de cada uno de las dos disposiciones anteriores. Son tres posibilidades para cada disposición. Esto produce 3x2=6 posibilida- des: 8,9,10 – 9,8,10 – 9,10,8 – 8,10,9 – 10,8,9 – 10,9,8 A cada uno de estos grupos de tres se les puede intercalar una cuarta bolilla al principio, entre la primera y segunda, entre segunda y tercera y después de la tercera. En total 4 posibilidades para cada uno de las 3x2=6 disposiciones anteriores, o sea 4x3x2 = 24 posibilidades para una fila de cuatro bolillas. En general, un conjunto de n elementos puede presentarse ordenado en n.(n-1).(n-2).(n-3)...2 disposiciones dife- rentes. A estas disposiciones se las llama permutaciones de n objetos Pn y su número es igual a la expresión ante- rior, llamada factorial del número n, expresándose por n! Para las 10 bolillas anteriores, el número de disposiciones diferentes en el orden (número de permutaciones posi- bles) vale P10 =10! = 10x9x8x7x6x5x4x3x2x1 = 3628800 El concepto de factorial se generaliza para 1!=1 y para 0!=1 , para obtener unidad formal en las sucesivas operacio- nes en las que intervengan. COMBINACIONES Se plantea en la pregunta 2 cuántas maneras diferentes hay de sacar una serie de m bolillas primero y luego las restantes (n-m) sin importar el orden en cada grupo. A cada una de estas series sacadas con el mencionado criterio se la llama arreglo, complexión (según Boltzmann) o más comúnmente combinación de n elementos tomados de a m. Se considerarán dos combinaciones diferentes sólo si en ambos grupos de m y n-m bolillas respectivamente hay bolillas diferentes. Por ejemplo para n=10 y m=3, una combinación posible sería (1,2,3)(4,5,6,7,8,9,10). No se con- sidera diferente la (2,3,1)(10,8,9,6,7,5,4) , que sólo difiere de la primera en el orden. En cambio sí se contaría como diferente la (4,3,1)(10,8,9,6,7,5,2) El número de arreglos posibles o “combinaciones de n elementos tomados en grupos de m”, está definido lógica- mente sólo para n>m, y se expresa con el símbolo Cn,m 1 2 3 4 5 6 7 8 9 10 4 Se ve que cumplen con la condición pedida un número menor que el de todas las series diferentes posibles o per- mutaciones de n elementos, que como se ha dicho vale Pn = n!=10!. Dentro del grupo de las m bolillas, atender al orden o numeración crea m! (3!=6) casos diferentes, y dentro de las (n-m) restantes se crean debido a la numeración (n-m)! (7!) casos diferentes, que multiplican ambos a las combinaciones buscadas, para dar todas las posibles per- mutaciones n!, es decir que Cn,m.m!.(n-m)! = Pn, de donde Cn,m = n!/m!/(n-m)! El número combinatorio de n elementos tomados en grupos de m elementos se expresa generalmente con la nota- ción de Euler, m)!(nm! n! m n − = , que para nuestro ejemplo vale 3 10 = C10,3=120 Se ve fácilmente que − = − = − = mn n m!m)!(n n! m)!(nm! n! m n , por ejemplo C10,3 = C10,7 = = 10.9.8.7.6.5.4.3.2/3.2/7.6.5.4.3.2 = 10.9.8/3.2.1 . Nótese que el numerador es el producto de una serie de m números decrecientes que empiezan con n, y el denominador es el producto de una serie creciente de 1 hasta m . Esta forma de recordar el cálculo de Cn,m nos será particularmente útil cuando generalicemos el concepto de combinaciones a números no enteros, al calcular los términos de potencias cualesquiera de un binomio. De acuerdo a la generalización de factorial para 0!=1!=1, es n 1 n y1 0 n = = Permutaciones con repetición Volviendo al número de combinaciones, éstas se pueden entender como el número de permutaciones cuando hay m y (n-m) elementos repetidos, iguales o equivalentes dentro del grupo. En general, cuando en una población de n elementos hay a,b,c,d....z, elementos repetidos, iguales o equivalentes, (siendo n=a+b+c...+z), se razona como se hizo para las combinaciones que el número de permutaciones distingui- bles es lógicamente menor que n!, ya que ésta considera como factores diferentes entre sí a las permutaciones entre objetos similares o repetidos: a!.b!.c!.....z! Así entonces para obtener las permutaciones con repetición se eliminan de las permutaciones normales las de obje- tos similares, dividiendo por ese producto: Pn, a,b,c...= n!/a!/b!/c!/.../z! VARIACIONES La cuestión Nº 3 se resuelve averiguando cuántas series diferentes se pueden formar a partir de n bolillas, con gru- pos de m en un orden determinado, seguida de todas las demás en cualquier orden. El número se llama “variaciones m arias de n elementos”, y se simboliza Vn,m . En nuestro caso se trata de variaciones ternarias de 10 elementos. Como las (n-m) bolillas pueden presentarse en cualquier orden, pueden considerarse como elementos repetidos, dentro de las n! permutaciones totales. Así entonces el numero buscado será (aplicando el concepto empleado para permutaciones con repetición) Vn,m = n!/(n-m)! = m! Cn,m Ejemplos 1) ¿De cuántas maneras se pueden colocar los siete tomos de una enciclopedia en un estante? Respuesta: 7! = 5040 2) ¿De cuántas maneras se pueden colocar cinco bolillas en dos casilleros, colocando dos en uno y tres en el otro? Respuesta: C5,2 = 10 3) ¿Cuántas maneras hay de colocar las cinco bolillas en dos casilleros? Respuesta: C5,0 + C5,1 + C5,2 + C5,3 + C5,4 + C5,5 = 1 + 5 + 10 + 10 + 5 +1 = 32 4) ¿De cuántas maneras se pueden disponer quince soldados de un pelotón en tres grupos de 3,5 y 7? Respuesta: 15!/3!/5!/7! = 3603605) ¿Y si el capitán debe ir siempre en el grupo más numeroso? Respuesta: 168168 (justifíquese). 5 iin ni 0i ba i n .− = = ∑ 3/48 3.2.1 3/2)1/2).(1/2.( 3 1/2 = −− = /38415 4.3.2.1 )3/2).(-5/2/2).(11/2.(1/2 4 −= −− = POTENCIAS DE UN BINOMIO – Generalización de Newton Al hacer la potencia enésima de un binomio, se multiplica éste por si mismo n veces, o sea que es (a+b)n = (a+b).(a+b)......(a+b) n veces Tomando el primer término del primer factor (a) y multiplicándolo por los restantes factores aparece como primer término an.b0una sola vez, n veces el término que contiene an-1.b1 y en general Cn,m veces términos de la forma a n- m.bm . Teniendo en cuenta que Cn,0=Cn,n=1 y Cn,1=Cn,n-1= n, se puede generalizar el desarrollo en la fórmula: (a+b)n = El desarrollo anterior, ya empleado por Tartaglia con n entero positivo, fue generalizado por Newton para n fraccio- nario, de acuerdo a la definición de combinación dada al final del título “Combinaciones”. Por ejemplo, El desarrollo de la potencia de un binomio elevado a exponentes no enteros no es finito: es una serie de potencias que por supuesto coincide con el desarrollo en serie obtenido por cualquier otro método , por ejemplo con el desa- rrollo de Taylor – Mc Laurin. Ejemplos Por ejemplo, desarrollemos √√2 con siete términos : (1+1)1/2 ≈≈ 1 + ½ - 1/8 + 3/48 – 15/384 + 105/3840 – 945/46080 = 1,4052 La serie converge al valor del número irracional 1,4142... y por ser una serie alternada, la diferencia con el valor calculado con la serie de siete términos es inferior al valor absoluto del primer término despreciado, que vale 945/46080.(-11/2)/7 = -0,016. En efecto, es 1,4142-1,4052=0,012 < 0,016 Otro ejemplo: calcular el término de corrección relativista de la masa con la velocidad, 1/√1-β2 Haciendo f=-ββ2 resulta 1/√√1-ββ2 = (f+1)-½ = 1- ½ f + 1/8 f2 – 3/48 f3 +.... = 1+ ½ ββ2 + 1/8 ββ4 + 3/48 ββ6 +... Ya que ββ = v/c <1 (relación entre la velocidad del móvil y la velocidad de la luz), la serie converge rápidamente. Para ββ=0,1 es 1/√√1-0,01 = 1,0050378, y los tres primeros términos de la serie dan 1+ 0,005 + 0,0000125 = 1,0050125, es decir con error menor que 26 en un millón. 6 PROBABILIDAD Y ESTADÍSTICA – PRIMERA PARTE Introducción El azar Consideremos el típico proceso azaroso de revoleo de una moneda al aire. ¿Se puede saber en el momento de tirarla si caerá cara o ceca? Podríamos contestar, con la misma fe en la ciencia que los físicos de fines de siglo diecinueve, que si conocemos exacta- mente la geometría y densidad de la pieza, la posición inicial, medimos cuidadosamente el impulso inicial y su punto de aplicación, consideramos adecuadamente la resistencia del aire y estamos seguros en qué punto de su trayectoria será interceptada por el dorso de la mano, estaremos en condiciones de prever cuántas vueltas dará antes de posarse, y con ello predecir si la cara o la ceca aparecerán arriba o abajo. Es decir que controlando el tiro podremos apostar, seguros de ganar. Por supuesto que el control de todas esas condiciones es sólo posible en un laboratorio, por lo que los chicos del equipo del ba- rrio pueden quedarse tranquilos : El arco con el sol de frente les toca a veces “por esa maldita suerte” y no por decisión directa del referee, quién se limita a tirar mecánica- mente una moneda en condiciones siempre irrepetibles y fuera de su control. De igual manera, cuando nos jugamos unas cuántas fichas al “negro el ocho” confiamos que el cruppier no está en condiciones de sincronizar el momento en que tira la bola con la posición y velocidad de la ruleta, y que por lo tanto no es responsable de la exacción que representa que salga “colorado el treinta y dos”. Así, el azar resulta en principio algo que engloba una serie de causas complejas que renunciamos a determinar y estudiar en detalle por difíciles de precisar, porque desconocemos o porque no tenemos ganas ni tiempo. La Estadística y la Probabilidad El estudio de conjunto del factor de azar revela que respeta leyes aproximadas, es decir dentro de un cierto margen de error. El estudio de tales leyes aproximadas se llama estadística, palabra que se deriva de estado, por ser los esta- dos los que emplearon por primera vez las técnicas de recuento de población y bienes. Los sucesos con componente azaroso se llaman casuales, aleatorios o estocásticos. Su resultado o contingencia no puede determinarse con certeza absoluta y se habla en cambio de probabilidad de ocurrencia, representada con un número que va desde cero (ninguna chance de que pase) a uno (certeza total de que ocurrirá). Así, por ejemplo, en base a algún método de muestreo de llamadas, podremos afirmar que la probabilidad de que nuestro teléfono suene en los próximos 10 minutos es 0,3 (o un treinta por ciento si preferimos) con una incertidumbre de ± 0,01 (1%). Frecuencia y probabilidad matemática. La ley “de los grandes números”. El esquema de la urna La probabilidad matemática se define como el cociente entre casos favorables (número de veces en que se puede presentar un acontecimiento) dividido el número de casos igualmente posibles (total de veces que se puede presen- tar o no el acontecimiento). Así, la posibilidad de sacar un seis al arrojar un dado es: casos favorables = 1 , ya que los seis puntos corresponden a una de las seis caras del dado; casos igualmente posibles = 6 (cualquiera de las caras por igual, si el dado está bien equilibrado). O sea que la probabilidad del suceso es de 1/6. La probabilidad de obte- ner una bolilla blanca extraída de una urna que contiene seis blancas y cuatro negras es de 6/10 =3/5 La probabilidad matemática de ocurrencia de un acontecimiento está ligada a la frecuencia con que éste se presenta en la práctica, tomando varias muestras a lo largo del universo o población que reúne todos los individuos o casos posibles. Estas muestras se pueden tomar en el tiempo, comprobando la ocurrencia de tanto en tanto, o en el espacio, extrayendo lotes de una población total estática. El matemático suizo Jacobo Bernouilli (1655-1705), postuló que en el caso de una urna con bolillas blancas y ne- gras, la frecuencia de extracción debía diferir del valor de la probabilidad matemática en una cantidad tan pequeña como se eligiese, con tal de efectuar un número suficiente de pruebas. De tal modo, en el caso de que el universo posible no se modifique, frecuencia y probabilidad están ligadas a través de ese aserto, que se dió en llamar “la ley 7 de los grandes números”, término que no se refiere a la magnitud de las cifras puestas en juego sino a la gran can- tidad de veces con que se presentan. Aceptada esta ley, se comprende que el resultado de un suceso al azar se pueda modelizar con la extracción de una bolilla de una urna o bolillero de composición adecuada. Por ejemplo, datos mundiales revelan que nacen un poco más de varones que de mujeres. La frecuencia para el nacimiento de varones es muy aproximadamente 105 varones por cada 100 mujeres. De tal manera, una urna que podría funcionar simulando los nacimientos que ocurren en la población mundial debería cargarse con 105 bolillas negras (que representarían al sexo fuerte) y 100 bolillas blancas (niñas). En un gran número de extracciones, la frecuencia de extracción de negras se acercaría a 105/205, es decir un poco más que ½, remedando lo que ocurre en la realidad. Acotación del factor de azar Las causas que nosotros incluimos dentro de lo que llamamos azar pueden tener diversos grados de complejidad. Resulta que a veces van allí algunas cuestiones que posiblemente podrían quedar determinadas por un análisis más fino del problema, pero cuyo costo no podemos afrontar o no queremos pagar. Valga el siguiente ejemplo: En una instalación de iluminación con lámparas incandescentes tenemos los siguientes datos: 1) Un registro de algunos años nos revela que aproximadamente el 95 % duran entre 500 y 700 horas, aunque algunas pocas se queman en seguida y excepcionalmenteotras duran casi dos meses. 2) Sabemos que las lámparas se queman principalmente porque su filamento se corta, despreciando otras causas mucho menos frecuentes, como ser la rotura accidental del bulbo por mala manipulación o defectos del vidrio, y ciertos problemas de suministro eléctrico (cortes y sobretensión), que ocurren muy rara vez. 3) El corte del filamento se produce en los puntos en que su diámetro queda reducido por debajo de un cierto va- lor. Son contados los casos de mala soldadura del filamento a los soportes. La uniformidad inicial del diámetro del filamento depende del buen funcionamiento de la trefiladora del hilo de tungsteno 4) El filamento en servicio se va adelgazando porque el tungsteno se evapora lentamente a causa de la temperatu- ra. La presión del gas inerte que llena el bulbo reduce este efecto. Es evidente que lo dicho en 1) incluye en el azar las causas finas establecidas en los puntos siguientes, y que de poder y querer controlar alguna de ellas en la selección de las lámparas instaladas obtendríamos además de una mayor duración (mayor promedio de vida), un menor factor de azar, representado por la dispersión de la vida de las lámparas, que inicialmente vale ± 100 horas alrededor del promedio de 600. Imagínese el efecto sobre los resulta- dos al seleccionar lámparas de un fabricante que cuidara el estado de su trefiladora (punto 3)) y ajustara con cuidado la presión del gas inerte de la ampolla (punto 4)). Procesos con azar inherente El análisis hecho hasta ahora induce a pensar que siempre el azar es un factor introducido por comodidad o desco- nocimiento en detalle del proceso que se estudia, y que un mayor análisis lo va acotando, transformando casualidad en causalidad. Sin embargo muchos fenómenos estudiados a fondo tienen aún una cuota de azar inherente. Por ejemplo, en la desintegración radiactiva, los átomos de un cierto elemento inestable van transmutándose individual- mente en elementos más livianos, al expulsar de su núcleo partículas elementales. A lo que se sabe hasta este mo- mento, este proceso es absolutamente aleatorio, no pudiéndose determinar cuál de los átomos del material en cues- tión, todos ellos idénticos entre sí, será el próximo en emitir una partícula (una parte de su núcleo). Más bien está establecido por leyes estadísticas cuántos serán los que aproximadamente lo harán en el próximo minuto. Resulta así que la aleatoriedad es en este caso una parte insoslayable del proceso ya que no se ha encontrado causa aparente que determine que sea uno y no otro átomo el que primero decaiga. Muchos otros fenómenos a microescala como el descripto se explican sólo admitiendo que regulan su ocurrencia funciones de probabilidad. Los complejos procesos mentales, como los volitivos, impredecibles a ciencia cierta aún por los neurólogos y psi- cólogos más atrevidos, pueden sin embargo estudiarse como hechos que ocurren colectivamente con determinada probabilidad bajo ciertas circunstancias. Así estadísticamente se pueden predecir, siempre dentro de ciertos límites de imprecisión o dispersión, los efectos de la propaganda sobre la demanda general de un cierto producto, o la incli- nación de los gustos de los jóvenes de una comunidad por una determinada moda. 8 El azar estadístico También, hay procesos que tienen una ocurrencia y desarrollo ligado a una gran cantidad de otros acontecimientos anteriores relacionados o no entre sí, y que resultan absolutamente imposibles de desentrañar por su complejidad y número, por más que pudieran responder en último caso a relaciones causa-efecto. Por ejemplo, se sabe que la inte- racción mecánica en el espacio de sólo tres cuerpos es un problema ya harto complicado de resolver por más que las relaciones causa-efecto sean las sencillas leyes de la mecánica clásica. ¿Quién se atrevería siquiera a abordar por este método la interacción de millones de moléculas en un botellón de gas? Sólo métodos estadísticos dan en este caso un resultado de conjunto muy ajustado, prediciendo variables macroscópicas como presión, temperatura y funciones de distribución de velocidades de las moléculas, es decir qué porcentaje del total de moléculas tienen velocidades comprendidas en un intervalo dado. Veremos que la población de una nación no se comporta a escala estadística muy diferentemente que la de las molé- culas de un litro de gas, aunque sea bastante menor en número y muy diferente en naturaleza que ésta. Desde este punto de vista, la estadística es una herramienta que nivela y rebaja de categoría al individuo, y sus conclusiones deben aplicarse a la población estudiada en general, y no deben recaer sobre grupos o personas, a riesgo de trans- formar en verdad la humorada del poeta Trilussa: ¿Sabéis qué es la estadística? Una cosa con lo que se hace la cuenta general de los que nacen, van al hospital, a la curia, a la cárcel o a la fosa. Más para mi, la parte más curiosa es la que da el promedio individual en que todo se parte por igual hasta en la población menesterosa. Por ejemplo: resulta sin engaño, que según la estadística del año te toca un pollo y medio cada mes. Y aunque el pollo en tu mesa se halle ausente entras en la estadística igualmente, porque hay alguno que se come tres. Trágicos ejemplos Predecir con seguridad que nuestro vecinito R... se quemará con una cañita voladora en las próximas fiestas es im- posible. De hecho, si pudiéramos sólo entreverlo con alguna certeza, además de la alerta e inquietud que la sensatez nos hace sentir, correríamos a prevenirlo, a rogar a los padres que no le den plata o a secuestrarle los cohetes ya comprados al quiosquero inconsciente. Pero a nivel estadístico, sabemos que inevitablemente, con la educación impartida a los niños, a los padres, y la condescendencia de mayores y autoridades ante la venta de pirotecnia, esa noche los pobres médicos de la guardia precautoriamente reforzada del Instituto del Quemado, se esforzarán ante las manitas llagadas por el fuego y los ojitos lastimados por las chispas de varios chicos, que se llamarán P...., o T....,. o H......, y quizás también esté el pobre R...., ya que pertenece a la población de niños que juegan con fuego, a esa población que se llama “de riesgo”, por tener una gran exposición al peligro. Otro Antes del desembarco en Normandía, los generales que iban a dirigir la operación (bien lejos del frente) calcularon aproximadamente el alto porcentaje de mortandad entre atacantes y ata- cados. Estas macabras anticipaciones eran fruto de sus estudios estratégicos, juegos de guerra, maniobras de campo y, por supuesto, estudios estadísticos de datos de contiendas anteriores. Así, antes de la invasión ya tenían preparadas las cartas de condolencia, más de la mitad de las cuáles deberían ser enviadas de seguro. Al tope de la montaña de sobres estaba la dirigida a la posible futura viuda del soldado Adams, quién el 6 de junio de 1944 saltó a la playa desde la barcaza de desembarco Nº32. Datos y estadística El registro de hechos da origen a la estadística, que comprende las técnicas de tratamiento de cantidades variables de datos que se generan en muestreos, censos, recuentos e inventarios. La recolección de datos fué siempre una activi- dad importante de gobiernos y estados. Su objeto, a veces cumplido y otras no, es el de estudiarlos en conjunto con ciertas técnicas, sacando ciertos números globales llamados índices. Índices de población, de cultivos, riquezas, etc. Los censos, por ejemplo, estuvieron siempre a la orden del día. Recordemos el que ordenó César Augusto en el año 1 de nuestra era, que hizo que la Virgen María recalara en Belén y allí naciera el Salvador. Uno de los propósitos 9 principales de los censos es el de ver la evolución y distribución de la población, para prever recursos civiles y mi- litares, planes de conquista, defensa y desarrollo, y sobre todo controlar el pago de impuestos. ¿Qué hacer con varios miles de planillas con nombres y apellidos, sexo, religión, nacionalidad, domicilio, ocupa- ción,etc? Hasta hace un par de siglos, los recuentos generaban números que se utilizaban en forma muy limitada. Hoy en día, las masas de datos se ordenan en bases de datos, que son tablas con registros y campos. Hay tantos re- gistros como individuos, y tantos campos como atributos o categorías se quieran investigar. Cualquiera sabe que metiendo la base de datos en una computadora estamos en condiciones de clasificar por atributos, y extraer las más variadas conclusiones. Por ejemplo, saber cuántas mujeres que se dedican a trabajos manuales hay en Santa Rosa, o cuántos panaderos japoneses hay en Rosario. Se pueden clasificar por edades, por sexo, por religión, etc. Los índices principales que se extraen de la masa de datos de recuentos y muestreos son: 1) El número de individuos. 2) El promedio de los atributos medibles numéricamente (edad, número de hijos, ingresos, bienes, et.). Se expresa en cantidad promedio per cápita. Como se explicará luego, no sólo se usa la media aritmética o simple prome- dio, sino que a veces resultan preferibles la media geométrica, armónica o cuadrática. 3) La distribución de las cifras de los atributos, lo que permite determinar cosas tales como el porcentaje de la población que gana entre 500 y 600 $/mes, o que está entre 50 y 55 años de edad. 4) La dispersión de las cifras alrededor de la media. Se cuantifica este atributo con el valor de los momentos de orden par, como se explicará más adelante. 5) La forma de la distribución : simétrica o asimétrica alrededor de la media. Esta característica se mide a través de los momentos de orden impar, según se verá después. 6) Otros índices de comparación con muestreos anteriores, por ejemplo la tendencia al crecimiento o decreci- miento de los valores de los atributos, estudiados a través de regresiones sobre series de tiempo. 7) Las relaciones que puede haber entre valores de los distintos atributos (medibles con cifras o no). Por ejemplo cómo varía el ingreso promedio per cápita con la edad, el sexo o la nacionalidad. Se evalúan tales posibles de- pendencias entre atributos mediante estudios de correlación. según se explicará. Presentación de los datos – Tablas - Histogramas Supongamos que se nos encomienda un informe de población del pueblo “Cañada Chica”, de 1257 habitantes. El archivo general del censo consta de 1257 registros de siete campos cada uno (nombre y apellido, fecha de naci- miento, sexo, profesión, estado civil, número de hijos, domicilio). De él extractamos la columna de edades, suma- mos todas las edades y dividimos por el número de habitantes. Eso nos da la media aritmética de la población, en años promedio por habitante. Luego ordenamos la lista por edades y contamos la cantidad de habitantes que tienen hasta 10 años de edad, empe- zando por el recién nacido Ariel Farina, de solo nueve días. Luego hasta veinte años, hasta treinta,... etc. hasta llegar a los más viejos: el domador Teófilo Morales, de 90, años, la partera Alma Ledesma, de 91 años y la señora Ludmila Sörensen, una sueca de 96 años. Terminamos así la tabla colocando a estos tres ancianos en la categoría más alta, la de los que tienen entre 90 y 100 años. La categoría de 100 a 110 está vacía, pero la incluimos igual en nuestra tabla, que queda así: Categoría de edad (años) Número de personas (ambos sexos) Población acumulada 0-10 53 53 10-20 98 151 20-30 124 275 30-40 267 542 40-50 350 892 50-60 200 1092 60-70 120 1212 70-80 30 1242 80-90 12 1254 90-100 3 1257 100-110 0 1257 TOTAL 1257 ----------- 10 La representación de los datos anteriores en el gráfico cartesiano que se presenta a continuación se llama “diagrama de bastones” o “histograma” (del griego hystos = mástil y gramos = red). Para afinar nuestro análisis podríamos elegir intervalos más estrechos, por ejemplo de cinco en cinco años, lo que nos habría proporcionado un histograma con un número doble de categorías y bastones. El aumento del número de categorías (de intervalos cada vez menores), va adelgazando los bastones y su altura, que es proporcional al número de individuos por categoría. Distribuciones continuas La variable tiempo, que se representa en abscisas, es una variable continua. Quiere decir que admite una subdivi- sión en intervalos tan pequeños como se quiera. Se puede así pensar en llegar al límite de tomar categorías infinita- mente pequeñas, que se confunden con un instante en vez de un intervalo de edad. Pero ¿qué valor de la función corresponde a un instante? ¿Cuántas personas tienen una edad de 23 años, nueve meses, siete días, veintitrés horas, treinta minutos y doce segundos con veintinueve décimas? Un bastón de ancho nulo tiene también altura nula, así que podríamos contestar que ninguna. El histograma de categorías nulas carece de sentido. Pero si en vez de tomar como función la cantidad de personas, tomamos el cociente entre personas e intervalo, trabajaremos con una densi- dad de frecuencia, o sea cantidad de individuos por unidad de tiempo. Transformamos así una función de distribu- ción discontinua en otra continua. Entonces la densidad de frecuencia, o en nuestro ejemplo el número de casos divido el intervalo (individuos por unidad de tiempo), es una cantidad que puede representarse cualquiera sea al ancho del intervalo elegido. En parti- cular, haciendo tender a cero el intervalo, se llega a trabajar con el tiempo en abscisas y una función de frecuencia continua en ordenadas. Dicha función se define matemáticamente como h(t) = dH(t)/dt, siendo dH(t) la cantidad de habitantes con edades comprendidas en el intervalo entre t y t+∆∆t años cuando ∆∆t→→0 El gráfico muestra la función de distribución de densidad de edades h(t) en función de la edad t. El área encerrada entre dos abscisas de la curva mide la cantidad de habitantes en el intervalo delimitado por las mismas. DISTRIBUCIÓN DE EDADES 0 100 200 300 400 0 20 60 80 100 120 edad (años) h ab it an te s/ ed ad ( H /a ñ o ) 41 ,6 media mediana moda DISTRIBUCIÓN DE EDADES 0 100 200 300 400 0-10 10-20 20-30 30-4040-5050-60 60-70 70-80 80-9090-100 100-110 categoría (años) 41 ,6 N º d e ha bi ta nt es p or c at eg or ía 11 La integral de la función densidad de frecuencia desde el origen hasta un valor t es H(t) = o∫∫ t h(t) dt, y representa la cantidad de habitantes que hay entre cero y la edad t . Se llama a H(t) frecuencia acumulada porque incluye o acumula los habitantes de todas las edades desde cero hasta t . El área sombreada en el gráfico superior vale 40∫∫60 h(t) dt, es decir la cantidad de personas que tienen entre cuarenta y sesenta años de edad (550), y coincide con la dife- rencia de ordenadas de la función acumulada H(60)-H(40) = 1092 – 542 = 550 personas, según se ve en el gráfico que sigue. Medias y otros parámetros de posición Se vio que la “media aritmética” de todos los valores se calcula sumando la edad de todos los habitantes y divi- diéndola por el número de ellos. Como no tenemos a mano los resultados de detalle del censo y si en cambio los de la tabla resumen, trabajaremos con ella. La misma simplifica la distribución, considerando que los 53 habitantes cuyas edades varían entre cero y diez años se pueden reemplazar por un número igual de personas con una edad promedio igual al valor medio del intervalo, esto es cinco años de edad. De la misma manera, los 98 jóvenes de entre 10 y 20 se meten en la estadística como 98 personas de edad promedio de quince años, y así sucesivamente. Seamos conscientes que como toda simplificación, la llevada a cabo recién introduce una imprecisión o error al ignorar la distribución propia dentro de cada categoría. El promedio de esta distribución categorizada de diez en diez años, sale de sumar los productos de la cantidad de personas de cada intervalo por la edad promedio representativa del dicho intervalo, todo esto dividido el numero total de personas: (53x5 + 98x15 + 124x25 + ..... + 3x95) / (53+98+124+....+3) = 41,6 años. El numerador de dicha fracción es lo que en mecánica se llama momentode primer orden de una función con respecto al origen, y la media aritmética viene a ser el centro de gravedad de la distribución. Ya se mencioné que además de la media aritmética o simple promedio, se usan como indicadores otras medias: la geométrica, la armónica y la cuadrática o valor eficaz, llamada también por los norteamericanos RMS (root mean square = raíz del valor cuadrático medio) Para una serie de n números a1, a2, a3,... an, se tiene: media aritmética (ai) = M(ai) = (ΣΣιι=1...n ai )/ n media geométrica (ai) = G(ai) = (a1. a2. a3.....an,) 1/n media armónica (ai) = H(ai) = n / (ΣΣιι=1...n 1/ai ) media cuadrática (ai) = Ef (ai) = RMS(ai) = (ΣΣιι=1...n ai2 / n) ½ Para la sucesión 1,2,3,4,5,6,7,8,9,10 . Compruébese que M=5,5 , G=4,529 , H=3,414 , Ef=6,205 Cuando los números difieren poco entre sí, los valores de las varias medias tienden a acercarse. Ejemplo: El diámetro de un lote de diez cigarros está dado por la serie siguiente (en cm): 2.05 1.9 1.89 2.12 1.95 2.01 1.8 1.92 2.1 2.2 Resulta que (compruébese): M= 1.994 media aritmética G= 1.991 media geométrica H= 1.987 media armónica Ef= 1.997 media cuadrática La media cuadrática es muy sensible a algún valor que se separe mucho del resto, según se ve en la serie modificada de la anterior: DISTRIBUCIÓN DE EDADES ACUMULADA 0 200 400 542 800 1092 1200 1400 0 20 60 80 100 120 edad (años) fr ec u en ci a ac u m (H /a ñ o ) 41 ,6 FUMAR ES PERJUDICIAL PARA LA SALUD 12 2.05 1.9 1.89 2.12 1.95 7 1.8 1.92 2.1 2.2 M= 2.493 media aritmética G= 2.255 media geométrica H= 2.138 media armónica Ef= 2.913 media cuadrática Mediana, cuartilos, percentiles y moda Se llama mediana al valor de la abscisa o variable que separa en partes iguales el número de observaciones superio- res e inferiores. La serie de datos ordenada de menor a mayor es: 1.8 1.89 1.9 1.92 1.95 2.01 2.05 2.1 2.12 2.2 Por ser par el número de datos, hay dos valores centrales, y la mediana se aproxima entonces al promedio entre ellos, es decir 1.98 (recordemos que la media aritmética es 1,994) La influencia de valores extremos se hace sentir menos en la mediana que en la media, por ejemplo si entre los diá- metros de los cigarros se computara uno fuera de serie de 2,5 cm, el promedio de la serie sería de 2.04 , mientras que el de la mediana pasaría a 2.01 En el caso de una distribución, como la de edades de Cañada Chica, la mediana se sitúa (ver la tabla) entre los valores 892 y 1092, que corresponden respectivamente a las categorías centradas en 45 y 55 años, o sea que se puede tomar como mediana de la distribución el valor 50 años. La ubicación de la mediana está indicada en el gráfico de la distribución continua con línea de puntos. Interesa a veces conocer además del valor de la variable que separa partes iguales de la población ordenada, la que separa cuartos :el primero del segundo, el segundo del tercero y el tercero del cuarto.. Estos valores de la variable se llaman cuartilos primero, segundo y tercero respectivamente. Lógicamente, el segundo cuartilo coincide con la me- diana. Por ejemplo, el tercer cuartilo de nuestro ejemplo es la abscisa que corresponde a una población acumulada de ¾ x 1257 = 942.75 . Haciendo una interpolación lineal, a este valor acumulado le corresponde una abscisa de 45 + 5 x (942.75-892)/(1092-892) = 46,27 , que es el tercer cuartilo. Generalizando el concepto anterior a cualquier fracción o porcentaje del acumulado, se definen así los percentiles de cualquier valor. Por supuesto, el tercer cuartilo es el percentil correspondiente al 75% Moda o dominante es el valor de la variable que corresponde a máxima frecuencia, o sea la abscisa del valor má- ximo de la distribución. Para la distribución de Cañada Chica, la moda corresponde al valor medio de la categoría del bastón de mayor altura (350 H/año), esto es 45 años. Se la ha indicado en el gráfico de la distribución continua con línea de trazos. Media, mediana y moda coinciden sólo en el caso de una distribución simétrica. En cambio, en el caso de una distribución asimétrica como la del ejemplo, se sitúan hacia el lado de la cola en el siguiente orden: moda, mediana y media. Momentos de una distribución En general, el momento centrado de grado k de una serie de N valores ai (con i =1,2...n), está dado por MMk = ΣΣi (ai-m)k siendo m = (ΣΣi ai)/N la media aritmética Para una distribución discontinua de n bastones de peso pi y abscisas xi (con i =1,2...n), el momento centrado de grado k está dado por MMk = ΣΣi pi.(xi-m)k siendo m = (ΣΣi pi.xi)/N la media aritmética. Para una distribución continua de densidad de frecuencia f(x)=dp/dx , el momento centrado de grado k viene de la expresión anterior, cambiando la función discreta pi de la variable xi por la diferencial dp=f(x).dx y la sumatoria por una integral entre los límites de existencia de f(x), (en general -∞ a +∞), vale decir que MMk = -∞∞∫∫ +∞∞ f(x).(x-m)k.dx , siendo m = -∞∞∫∫ +∞∞ x. f(x).dx/ -∞∞∫∫ +∞∞ f(x).dx la media aritmética. Ejercicio: Demostrar que el momento centrado de primer orden es nulo: Demostración: MM1centr = -∞∞∫∫ +∞∞ f(x).(x-m).dx = -∞∞∫∫ +∞∞ x. f(x). dx -m -∞∞∫∫ +∞∞ f(x).dx , pero siendo el segundo término igual a -∞∞∫∫ +∞∞ x. f(x).dx, por definición de media aritmética dada en el párrafo anterior, es MM1centr = 0. Los momentos son importantes indicadores de la “forma” de una distribución (achatada, puntiaguda, simétrica o asimétrica). 13 Momentos de orden par y dispersión Veremos primeramente el momento de segundo orden, llamado en mecánica “momento de inercia”, cuyo valor para una agrupación de masas se calcula multiplicando el valor de cada una de ellas por el cuadrado de la distancia a un determinado eje o punto, que se toma como referencia. Para un conjunto de datos categorizados en una distri- bución discontinua, el momento de segundo orden con respecto al origen se calcula sumando todos los productos formados por los valores de cada categoría y la abscisa media correspondiente a esa categoría al cuadrado. Si la abscisa se toma con respecto a la media, se obtiene así un momento de segundo orden “centrado”. El valor del mo- mento centrado de segundo orden es sensible a la dispersión de la población con respecto a la media. Al figurar diferencias de abscisas al cuadrado (siempre positivas) este parámetro no registra si la dispersión es simétrica o asimétrica con respecto al centro. Volviendo nuevamente a la distribución de población del ejemplo, cuya media vale m = 41.6 , tenemos: x (H/año) (x-m)2 h (H) h.(x-m)2 5 1339.20 53 70977.54 15 707.30 98 69315.17 25 75.40 124 34149.14 35 43.50 267 11613.14 45 11.59 350 4057.75 55 179.69 200 35938.44 65 547.79 120 65734.90 75 1115.89 30 33476.69 85 1883.99 12 22607.88 95 2852.09 3 8556.269 TOTAL 1257 356426.89 De acuerdo a los cálculos resumidos en la tabla anterior, el momento centrado de segundo orden es M2c=356426.89 En mecánica se usa el radio de inercia, que es la distancia i a la que se debería poner toda la masa concentrada N para obtener el mismo momento de inercia centrado M2c del cuerpo en cuestión, así M2c=N.i 2 de donde i=(M2c /N) ½ En estadística hay algo análogo al radio de inercia, que se llama “desvío standard” , simbolizado universalmente con la letra σσ, y que en nuestro caso de vale σσ = (356426.89/1257)½ = 16.84 . Este número representa la diferencia de edad con la media que debería presentar una población ficticia uniforme del mismo número de habitantes (1257 H) para lograr la misma dispersión que la distribución real. Se usa también en estadística como medida de la dispersión de poblaciones el cuadrado del desvío standard, que se llama varianza. La varianza coincide con el momento de segundo orden cuando N=ΣΣ i pi =1 En una distribución discontinua, el momento centrado de segundo orden es , para N=ΣΣ i pi, MM1= Nm = Σ Σi pi xi MM2centr = ΣΣi pi.(xi-m)2 , y tomando (xi–m )2 = xi2 – 2 xi m + m 2, resulta: MM2centr = ΣΣi pi.xi2 – 2m.ΣΣi pi xi + m 2 ΣΣi pi = MM2 – 2 m2N + m 2N = M M2 – MM12/N (Teorema de Steiner) Ejemplo: Volviendo al ejemplo del diámetro del lote de diez cigarros, que está dado por la serie siguiente (en cm): 2.05 1.9 1.89 2.12 1.95 2.01 1.8 1.92 2.1 2.2 Habíamos ya calculado la media aritmética de la serie de valores con: MM1 = (2.05+1.9+1.89+2.12+1.95+2.01+1.8+1.92+2.1+2.2) = 19.94 , siendo la media m=MM1/N =19.94/10 = 1.994 El momento centrado de segundo orden resulta : MM2centr = [(2.05-1.994)2+(1.9-1.994)2+(1.891.994)2+(2.12-1.994)2+ (1.95-1.994)2+(2.01-1.994)2+(1.8-1.994)2+ +(1.92-1.994)2+(2.1-1.994)2+(2.2-1.994)2] = 0.138 O también aplicando el teorema de Steiner es MM2= (2.052+1.92+1.892+2.122+1.952+2.012+1.82+1.922+2.12+2.22) = 39.898 MM2centr = MM2 – MM12/N = 39.898 – 397.60/10 = 0.138 La varianza es s2=0.138/10 = 0.0138 , y su raíz cuadrada es igual al desvío standard s = (0.0138)½ = 0,117 Una varianza mayor perteneciente a otra muestra de igual número de cigarros extraída en otro momento podría in- terpretarse consecuencia de algún tipo de desajuste en la máquina, que hace que los cigarros salgan más desparejos. Momentos de grado superior al segundo Momentos de grado impar Los momentos de centrados de tercer orden, y en general los de grado impar, son nulos en distribuciones simétricas con respecto a su media. Según la figura figura, para k impar es (x-m)k = -(m-x)k entonces es: 14 MMkcentr = m∫∫∞∞ f(x).(x-m)k.d(x) + -∞∞∫∫ m f(x).(m-x)k.d(x) = m∫∫∞∞ f(x).(x-m)k.d(x) - -∞∞∫∫ m f(x).(x-m)k.d(x) En virtud de la simetría de f(x) alrededor de m las dos integrales tienen el mismo valor, por lo que su resta es cero, por lo tanto MMkcentr = 0 para k par y f(x) simétrica. Contrario sensu, resulta fácil darse cuenta que la asimetría genera momentos de orden impar no nulos, ya que los valores absolutos de las inte- grales primera y segunda (a la derecha y a la izquierda de la media respectivamente) son diferentes. El signo es el de la integral de mayor valor absoluto. Así, en una distribución más extendida hacia la derecha de la media, el mo- mento impar es positivo, y negativo si la “cola” de la distribución se extiende más hacia al izquierda de la media. A continuación se presenta la tabla de cálculo del momento de tercer orden de la distribución de población de Caña- da Chica: h (x-m)3 h.(x-m)3 53 -49008,07702 2597428,082 98 -18810,62808 -1843441,552 124 -4570,219713 -566707,2444 267 -286,8519183 -76589,4622 350 39,47530316 13816,35611 200 2408,761952 481752,3904 120 12821,00803 1538520,963 30 37276,21353 1118286,406 12 81774,37846 981292,5415 3 152315,5028 456946,5085 0 254899,5866 0 M3 = -493551,1747 El valor negativo del momento de tercer orden indica que la distribución se vuelca más hacia la izquierda, por más que en el histograma no aparezca tan claro este efecto. En una distribución discontinua, el momento centrado de tercer orden es MM3centr = ΣΣ i pi.(xi-MM1)3 , y tomando (xi- MM1)3 = xi3 - 3 xi2 MM1 +3 xi MM12 - MM13 , resulta: MM3centr = ΣΣi pi. xi3- 3 MM1 ΣΣi pi xi2+3 MM12 ΣΣi pi xi - m3 ΣΣi pi = MM3centr = MM3 - 3 MM1 MM2+3 MM12 MM1 - MM13 = MM3 - 3 MM1 MM2+2 MM13 Momentos de grado par Los momentos de grado par superiores al segundo, por ejemplo el de cuarto grado, amplifican la dispersión o “aplastamiento” de la distribución. Generalmente se usan comparando su valor con la distribución normal de Gauss, que estudiaremos luego. Volviendo a las probabilidades Vimos que la probabilidad matemática de ocurrencia de un suceso se define como cociente entre el número de casos favorables a que se presente dicho acontecimiento y el número de casos igualmente posibles o probables. Para sal- var la aparente recurrencia de la definición anterior, digamos que caso igualmente probable a aquél que no presenta ninguna condición que lo haga preferible o favorito frente a otros. Al afirmar que los casos posibles al tirar un dado son seis, estamos tácitamente admitiendo que el dado está perfec- tamente equilibrado, y que el mecanismo de tirarlo incluye factores de azar impredecibles e incontrolables que no hacen pensar en ninguna tendencia. Vimos también que la “ley de los grandes números” permite asimilar frecuencia con probabilidad cuando las prue- bas se realizan un número de veces indefinidamente grande. Así, si la cantidad de veces que sale ceca al tirar un millón de veces una moneda es de 796803 , podremos afirmar con seguridad casi absoluta que la moneda no está equilibrada. La mayoría de las veces la experiencia no es tan concluyente como la recién descripta, y en vez de la dx dp = f(x).dx m x-mm-x dp Cuando k es impar la integral desde m hasta ∞∞ de f(x) (x-m)kdx es de signo contrario a la de -∞∞ hasta m, ya que (x-m)k = - (m-x)k , por lo tanto la suma de ambas integrales (momento de orden k) es nula f(x) Minpar > 0 Minpar < 0 15 afirmación se puede dar sólo una estimación de la probabilidad de que nuestra hipótesis sea la correcta. Las técnicas de “ensayos de hipótesis” de las que hablaremos más adelante cumplen este cometido. Extensión de la noción de probabilidad Hay hechos en los que los casos (posibles y favorables) están representados por variables continuas, en vez de nú- meros naturales. Valga el famoso ejemplo “de la aguja” atribuido al célebre naturalista francés Georges-Louis Le- clerc de Buffon (1707-1788): El problema de la aguja (o del alfiler) Un alfiler de longitud l se deja caer al azar sobre una página con renglones separados por una distancia a. La longitud del alfiler es menor que la distancia entre renglones, es decir ll < a. ¿Cuál es la probabilidad de que el alfiler se ubique cortando o tocando algún renglón? Los casos de este problema son las posiciones del alfiler, cada una de las cuales puede expre- sarse con dos números: la dis- tancia x del centro del alfiler al renglón más próximo (la posi- ción a lo largo de los renglones no interesa) , y su orientación, medida por el ángulo φφ que forma con una normal cualquiera a los renglones. Así, los casos posibles están representados por la suma de todos los productos entre valores de x , φ φ posibles, o sea dentro de los intervalos 0≤≤x≤≤a/2 y 0≤≤φφ ≤≤ππ/2. Como se trata de varia- bles continuas, la suma se transforma en integral de diferenciales, o sea que el universo de casos posibles es: Casos posibles = x=o∫∫ x=a/2 φφ=o∫∫ φφ=π/2π/2dφ.φ.dx = a.π/4π/4 Los casos favorables están representados por las posiciones en las que el alfiler toca algún renglón, para lo cual su centro no puede estar más allá de la distancia l/2.cos φφ , o sea 0≤≤x≤≤ l/2.cos φφ con 0≤≤φφ ≤≤ππ/2. De tal manera, la totalidad de los casos favorables viene dado por : Casos favorables =x=o∫∫ x= ll/2 cos φφ φφ=o∫∫ φφ=ππ/2dφ.φ.dx = = ll/2 φ φ=o∫∫ φφ=ππ/2 cos φφ dφ =φ = l l/2 Entonces, la probabilidad de que el alfiler caiga sobre un renglón es ll/2//a/π 4 /π 4 = 22 ll / /a/π/π En la figura de la derecha se reproducen los resultados de arrojar 30 alfileres de 15,5 mm de largo sobre una hoja con paralelas a 20 mm , contándose 14 alfileres que atraviesan o apoyan sobre renglones. La probabilidad experi- mental o frecuencia resulta así f = 14/30 =0,47 . De acuerdo al cálculo anterior el valor matemático de la probabili- dad resulta p=2ll /a/ππ = 2.15,5/20/3,1416 = 0,493 Probabilidad simple y compuesta La estrecha vinculación entre estadística y la teoría de las probabilidades aconseja estudiar algunos aspectos de ésta en detalle : Examinemos algunos ejemplos: Ejemplo 1: ¿Cuál es la probabilidad de obtener un seis arrojando dos dados? Los casos favorables son: 1 y 5 – 2 y 4 – 3 y 3 – 4 y 2 – 5 y 1. En total 5 casos favorables Los casos posibles son 1 y 1 – 1 y 2 – 1 y 3 - 1 y 4 – 1 y 5 – 1 y 6 2 y 1 – 2 y 2 – 2 y 3 - 2 y 4 – 2 y 5 – 2 y 6 3 y 1 – 3 y 2 – 3 y 3 - 3 y 4 – 3 y 5 – 3 y 6 4 y 1 – 4 y 2 – 4 y 3 - 4 y 4 – 4 y 5 – 4 y 6 5 y 1 – 5 y 2 – 5 y 3 - 5 y 4 – 5 y 5 – 5 y 6 6 y 1 – 6 y 2 – 6 y 3 - 6 y 4 – 6 y 5 – 6 y 6 En total 36 casos posibles, por lo que la probabilidad resultaentonces 5/36 l a x φ El problema de Buffon 16 Ejemplo 2: Dos dados son distinguibles entre sí, por ejemplo de diferente color ¿ Cuál es la probabilidad de obtener un 1 en el primer dado y un 5 en el segundo,? Casos favorables : 1 ; Casos posibles : 36 ; la probabilidad buscada vale 1/36. Esta probabilidad es la misma que la de sacar dos números cualesquiera en cualquier orden, o si se prefiere, de sacar una secuencia de dos números determinados arrojando un mismo dado dos veces, ya que el resultado de la primera prueba no afectará a la de la segunda sucesiva, y también lo que salga en el primer dado no afecta a lo que sale en el segundo cuando se tiran dos al mismo tiempo. Los sucesos de los casos anteriores se pueden considerar como combinación de sucesos simples: por ejemplo, el de sacar un seis con dos dados puede descomponerse en cinco sucesos excluyentes que pueden ocurrir indistintamente, cada uno de ellos formado por dos sucesos que tienen que ocurrir en determinado orden, es decir que: Cinco sucesos que pueden ocurrir indistintamente, separados por la conjunción disyuntiva “o”, a saber: 1 y 5 o 2 y 4 o 3 y 3 o 4 y 2 o 5 y 1 cada uno de ellos formados por dos sucesos independientes que deben ocurrir juntos, separados por la conjunción copulativa “y” , por ejemplo 4 y 2. La probabilidad de que salga un cuatro es 1/6 y la probabilidad de que salga un dos es también 1/6, pero ya calculamos que la probabilidad de que salga la combinada 2 y 4 es 1/36, que es el pro- ducto de 1/6x1/6. Se demuestra que en general, como en este caso, la probabilidad de ocurrencia de un suceso compuesto por una serie de eventos más simples sin conexión entre sí es el producto de las probabilidades individuales de todos ellos. En el lenguaje corriente, esta condición se expresa con la conjunción copulativa “y”: La probabilidad de sacar un cuatro y (producto!) un dos tirando un dado dos veces es 1/6 x 1/6 = 1/36 Ahora bien: en el universo de todos los sucesos posibles, en nuestro caso 36, la cantidad de sucesos que deben ocu- rrir de alguna forma para formar un seis es la suma de todas las combinaciones posibles que den ese número, es decir cinco combinaciones, cada una de las cuales tiene una probabilidad individual de 1/36. El resultado obtenido antes de 5/36 se puede considerar así como la suma de cinco probabilidades individuales de valor 1/36 Se demuestra que en general, como en este caso, la probabilidad de un suceso compuesto por una serie de eventos más simples independientes que deben ocurrir indistintamente es la suma de las probabilidades individuales de todos ellos. En el lenguaje corriente, esta condición de ocurrencia se expresa con la conjunción disyuntiva “o”: La probabilidad de sacar un 4 o (suma!) un 2 tirando un dado dos veces es 1/6 + 1/6 = 1/3 Ejemplo: ¿Cuál es la probabilidad de sacar “flor” en el truco?. Respuesta: Sacar flor significa sacar tres cartas seguidas del mismo palo. El truco se juega con una baraja de 40 cartas, entre las que hay 10 cartas de cada palo. La probabilidad de sacar una copa y otra copa y otra copa más es el producto de las probabilidades independientes, es decir 10/40 x 9/39 x 8/38 = 0.01214 Probabilidades y diagramas lógicos Se pueden usar con ventajas en el cálculo de probabilidades los dia- gramas lógicos de Venn (atribuidos al lógico británico John Venn (...- 1923), en los que se representan el universo de todos los hechos posi- bles y cada uno de estos hechos en particular con una superficie ce- rrada (en general el universo con un cuadrado y los hechos con cír- culos). En la figura se representan los sucesos A y B, con sendos círculos en el cuadrado del universo posible. Hay conjunción o intersección de dos acontecimientos cuando se presentan juntos AyB . Con el lenguaje simbólico la conjunción se escribe A.B o A∩∩B Hay disyunción de dos acontecimientos cuando se presentan uno u otro, o los dos. La disyunción se representa de AyB se representa con A∪∪B La negación de un acontecimiento es el evento contrario a su presentación: o sea cuando no se produce. La nnega- ción de A se indica con A’ El resultado 0 se aplica a un acontecimiento que no se presenta y U cuando se presenta. De tal modo, se verifica claramente que A∩∩A’=0 y A∪∪A’=U Teorema de la probabilidad compuesta condicional Sean dos bolilleros con 10 bolillas cada uno de tres colores diferentes. A∩∩B’ B∩∩A’ A∩∩B A B A ∪∪ B 17 El primero con 3 bolillas verdes, 2 bolillas negras y 5 bolillas rojas El segundo con 7 bolillas verdes, 1 bolilla negra y 2 bolillas rojas Llamemos R1 al suceso de sacar una bolilla roja del primer bolillero y V2 al de extraer una bolilla verde del segundo bolillero. Está claro que son sucesos independientes, ya que la ocurrencia del uno no influye en la del otro. Ya vimos que la probabilidad compuesta de que ocurran estos dos hechos es p(R1∩∩V2) =p(R1).p(V2)=5/10.7/10 = 0,35 Pero ahora compliquemos un poco la cosa: Saquemos una bolilla al azar del primer bolillero e introduzcámosla sin ver su color en el segundo. ¿Cuál será la probabilidad de extraer una verde de éste segundo bolillero después de haber practicado la introducción mencionada? Desde ya que ahora no puede hablarse de sucesos independientes, ya que la composición del segundo bolillero depende del color de la bolilla introducida, que a su vez proviene del pri- mer bolillero. Si ésta fué roja, la probabilidad de sacar una verde será (atención a la notación) pR1(V2)=7/11 , y la probabilidad condicional total será p(R1∩∩V2) = p(R1). pR1 (V2) = (5/10.7/11) = 35/110 = 7/55 La probabilidad de sacar una roja del primer bolillero, cargado con una bolilla al azar del segundo es p(V2∩∩R1) = p(V2). p V2 (R1) = 7/10.5/11 = 35/110 = 7/55 = p(R1). pR1 (V2) = p(R1∩∩V2), es decir igual que antes. En general se demuestra que existe esta relación recíproca : p(A).pA(B) = p(B).pB(A) Demostración general: Consideremos que dos acontecimientos mutuamente excluyentes A y B pueden producirse un número total de veces N de la siguiente manera , con N = a+b+c+d A∩∩B se presenta a veces de donde p(A∩∩B) = a /N A∩∩B’ se presenta b veces de donde p(A∩∩B’) = b /N A’∩∩B se presenta c veces de donde p(A’∩∩B) = c /N A’∩∩B’ se presenta d veces de donde p(A’∩∩B’) = d /N Como el acontecimiento A está presente sólo en A∩∩B y A∩∩B’ (y no en A’∩∩B y/o A’∩∩B’), su probabilidad de ocurrencia es p(A) = p(A∩∩B) + p(A∩∩B’) = (a+b)/N (1) Si se ha producido A sabemos que hay en total (a+b) casos entre los que puede haberse pro- ducido el B. Los casos posibles de que se produzca el B son a y c, pero quedando c descartado porque es el número de casos posibles en los que B se presenta acompañado con A’ y no con A. Así que los casos posible son nueva- mente a, de donde pA(B)=a/(a+b) (2) De (1) y (2) es p(A).pA(B) = (a+b)/N. a/(a+b) = a/N = p(A∩∩B) = p(A).p(B) (3) De la misma forma, podemos decir que como el acontecimiento B está presente sólo en A∩∩B y A’∩∩B (y no en A∩∩B’ y/o A’∩∩B’), su probabilidad de ocurrencia es p(B) = p(A∩∩B) + p(A’∩∩B) = (a+c)/N (4) Si se ha producido B sabemos que hay un total de (a+c) casos entre los que puede haberse producido el A. Los casos posibles de que se produzca el A son a y b, pero quedando b descartado porque es el número de casos en los que A se presenta acompañado con B’ y no con B. Así que los casos posibles son nuevamente a, de donde: pB(A)=a/(a+c) (5) De (4) y (5) es p(B).pB(A) = (a+c)/N. a/(a+c) = a/N = p(A∩∩B) = p(A).p(B) (6) De (3) y (6) se deduce que p(A).pA(B) = p(B).pB(A) , que era lo que se quería demostrar. Teorema de Bayes (sobre la probabilidad de las causas) El teólogo y matemático inglés Tomás Bayes (1702-1761) estableció una importante relación basada en las siguien- tes ecuaciones, derivadas a su vez de la igualdad anterior: pB(A) = p(A).pA(B) / p(B), válida para p(B)≠0 (1) A∩∩B’ B∩∩A’ A∩∩B A B A ’ ∩∩ B ’ 18 Considerando que el suceso A se deba a la serie de n causas independientes entre sí A1, A2...An, podremosescribir que A = A1 ∪∪ A2 ∪∪ A3 ∪∪...∪∪ An (2) Si consideramos que hay una acontecimiento B que se debe a alguna/s de las causas Ai, podremos poner que B = A∩∩AB = (A1∩∩A1B) ∪∪ (A2 ∩∩A2B) ∪∪ (A3 ∩∩A3B) ∪∪...∪∪(An ∩∩AnB) (3) y aplicando probabilidades resulta: p(B) = p(A1).p(A1B) + p(A2).p(A2B) + p(A3).p(A3B) +...+ p(An).p(AnB) = ΣΣ i=1..n p(Ai).p(AiB) (4) De (1) aplicado al caso genérico i es pB(Ai) = p(Ai).pA(Bi) / p(B), y reemplazando p(B) por el desarrollo (4) resulta la fórmula de Bayes : pB(Ai) = p(Ai).pAi (B) / Σ Σi=1..n p(Ai).pAi(B) (5) donde: p(Ai) es la probabilidad de que ocurra la causa Ai a priori, es decir sin que tenga que ver ningún otro evento condi- cionante. pB(Ai) es la probabilidad de que ocurra la causa Ai a posteriori, es decir cuando antes ha ocurrido el evento B pAi (B) es la probabilidad de que ocurra el evento B a posteriori de la causa Ai Ejemplo: En una elección universitaria, votan 10 electores de cada uno de los tres claustros más importantes para elegir rector entre dos candidatos: el Dr. Camilo y el Licenciado Pepone. Todos se sabe en el ambiente universitario, así que conociendo la identidad de cada uno de los 30 electores y sus respectivas preferencias por un determinado candida- to, el recuento de votos es mera fórmula, ya que el resultado de la votación se conoce extraoficialmente antes del escrutinio: urna Nº / Candidato a decano Dr. Camilo Lic. Pepone TOTAL 1 (Ciencias) 4 6 10 2 (Filosofía) 5 5 10 3 (Derecho) 3 7 10 El recuento se comenzó tomando una urna al azar, sacándose de a uno lo votos de adentro. Los primero tres fueron: Primer voto = Dr. Camilo Segundo voto = Dr. Camilo Tercer voto = Lic. Pepone En ese momento, el profesor de Estadística Ing. O. Mermoz hizo rápidamente un cálculo que le indicaba que lo más probable era que la urna que se estaba escrutando fuera de Filosofía (A2). A ver qué les parece el algoritmo emplea- do: Cálculo: Las probabilidades a priori (antes de conocer el resultado) son 1/3 para cada urna, ya que ellas son idénticas. Así entonces es p(A1) = 1/3 ; p(A2) =1/3 ; p(A3) = 1/3 Las probabilidades de que se produzca el evento compuesto en cada urna son: pA1(B) = 4/10.3/9.6/8 = 0.1 pA2(B) = 5/10.4/9.5/8 = 0.139 pA3(B) = 3/10.2/9.7/8 = 0.058 Además es ΣΣi=1..n p(Ai).p(AiB) = 1/3x 0.1 + 1/3 x 0.139 + 1/3 x 0.058 = 0.099 Y ahora estamos en condiciones de aplicar la fórmula final para cada urna, pB(Ai) = p(Ai).pAi (B) / Σ Σi=1..n p(Ai).pAi(B), que nos da: pB(A1) = 0.1/3/0.099 = 0.336 pB(A2) = 0.139/3/0.099 = 0.467 pB(A3) = 0.058/3/0.099 = 0.196 Nota: Los personajes del ejemplo son de ficción, menos el Ing. Osvaldo Mermoz, que tiene una brillante trayectoria como docente y profesional, y del que me honra haber sido su alumno en el Colegio Nacional de Buenos Aires y en la Facultad de Ingeniería, donde allá por el año 1957 enseñaba entre otras cosas el teorema de Bayes a un grupo de futuros ingenieros. 19 Pruebas repetidas – La distribución binomial ¿Qué probabilidad hay al tirar m veces un dado de que salga un evento determinado, por ejemplo un as un número n de veces? (por supuesto que m>n) La probabilidad de sacar un número determinado (un as en particular) en cada tiro de dados (suceso simple inde- pendiente) es 1/6. La probabilidad de sacar n números determinados (n ases, por ejemplo) en n tiros es p=(1/6)n , ya que son sucesos independientes. La probabilidad de no sacar algún número determinado en un tiro es (1-p) = (1-1/6) = 5/6, y la probabilidad de no sacar el número elegido los restantes m-n tiros es (1-1/6)(m-n) Así, interesa el suceso que consiste en un “éxito” seguido de un “no éxito” o “fracaso”. Este suceso tendrá una probabilidad compuesta de pn.(1-p) (m-n) , en nuestro caso (1/6)n.(1-1/6)(m-n) Por ejemplo, sea m=12 veces , n=4, es decir que salgan 4 ases seguidos, y que después no salgan más ases en los siguientes 8 tiros La probabilidad de este suceso es (1/6)4.(5/6)8 Algunas posibles secuencias serían: 1,1,1,1,5,6,2,6,4,5,3,3 1,1,1,1,5,2,6,4,6,3,3,5 1,1,1,1,3,2,3,2,6,4,2,4.... y muchas más. Pero lo que se ha planteado es la cantidad de éxitos sin tener en cuenta el orden de aparición, y eso sin individualizar a los fracasos, todos los cuales son equivalentes. Es decir que los acontecimientos tomados en consideración (todos ellos de probabilidad (1/6)4.(5/6)8) serían del tipo: 1,1,1,1,f,f,f,f,f,f,f,f 1,1,f,f,1,f,f,f,1,f,f,f f,f,1,1,1f,f,f,1,f,f,f f,1,1,f,f,f,f,1,f,f,f,1 ¿Cuántos grupos podemos formar? Nuestros estudios de análisis combinatorio nos permiten afirmar que cualquiera de las series de 12 elementos en cuestión se pueden disponer de 12! maneras distintas, en las que no interesa el or- den de los grupos de 4 aciertos y 8 fracasos, así que interesan sólo 12!/4!/8! = combinaciones de 12 elementos to- mados de a 4, o de a 8, o sea C12,4 = C12,8 = 495. De tal manera la probabilidad de que se repita un número cualquie- ra (del uno al seis) 4 veces en 12 tiros vale 495 x (1/6)4 x (5/6)8 = 0.0888 En la figura adjunta se representa P12,n = C12,n. (1/6) n x (5/6)(12-n) para n de 0 a 12, de acuerdo a la siguiente tabla de valores. n P12,n n P12,n 0 0,112156655 7 0,001136999 1 0,269175971 8 0,000142125 2 0,296093569 9 1,26333E-05 3 0,197395712 10 7,58E-07 4 0,088828071 11 2,75636E-08 5 0,028424983 12 4,59394E-10 6 0,006632496 Suma 1 Como es lógico, son bajas las probabilidades de obtener cero ases y la de obtener todos ases en doce tiros. El má- ximo de probabilidad (0,296) corresponde a dos éxitos en doce tiros. La distribución de Pm,n,p = Cmn p n q(m-n) se llama binomial, porque tiene la forma de los términos del desarrollo de Newton para las potencias del binomio, es decir (a+b)n = ΣΣi=0...n Cn,i ai.b(n-i) . Desde ya que la suma de todas las probabilidades es la certeza, puesto que ΣΣn=0...m Cmn pn q(m-n) = (p+q)m = 1 La forma de la distribución binomial depende de los valores de p,q y m. , como veremos a continuación. En la figura de la derecha se ve la forma de P50,n Media, varianza y asimetría de la distribución binomial Por definición, la media de Pm,n,p = Cmn p n q(m-n) es media (Pm,n,p) = ΣΣn=0...m n.Cmn pn q(m-n) = M1(Pn,m,p), y coincide con el momento de primer orden MM1, ya que ΣΣn=0...m Cmn pn q(m-n) = 1 Comenzando la sumatoria en n=1, ya que el primer término, para n=0, es nulo, la expresión de la media se trans- forma en MM1 (Pm,n,p) = Σ Σn=1...m n.m!/n!/(m-n)! pn.q(m-n) = 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0 5 10 15 n P 12 ,n ,1 /6 0 0,02 0,04 0,06 0,08 0,1 0,12 0,14 0,16 0 5 10 15 20 n P 50 ,n ,1 /6 20 = Σ Σn=1...m m.(m-1)!/(n-1)!/(m-n)! p(n-1) q(m-n) .p = m.p Σ Σn=1...m.(m-1)!/(n-1)!/(m-n)! p(n-1) q(m-n) y dado que (m-1)!/(n-1)!/(m-n)! = (m-1)!/(n-1)!/[(m-1)-(n-1)]! = C(m-1),(n-1), la sumatoria anterior ΣΣn=1...m C(m-1),(n-1) p(n-1) q(m-n) representa la suma de todas las probabilidades, es decir la unidad, y entonces es MM1 (Pm,n,p) = m.p . Para la primera distribución es MM1 (Pn,12, 1/6) = 12/6=2 y para la segunda resulta MM1 (Pn,50, 1/6) = 50/6=8 1/3 El momento de segundo orden de una binomial con respecto al origen (es decir no centrado) es MM2 (Pn,m,p) = Σ Σn=0...m n2.Cmn pn q(m-n) == m.p.ΣΣn=1...m n.(m-1)!/(n-1)!/(m-n)! pn-1.q(m-n) = = m.p.ΣΣn=1...m (n-1).(m-1)!/(n-1)!/(m-n)! pn-1.q(m-n) + m.p.ΣΣn=1...m (m-1)!/(n-1)!/(m-n)! p(n-1).q(m-n) = = m.p.ΣΣn=1...m (n-1).C(m-1),(n-1) pn-1.q(m-n) + m.p.ΣΣn=1...m (m-1)!/(n-1)!/(m-n)! p(n-1).q(m-n) pero notemos que la sumatoria ΣΣn=1...m (n-1).C(m-1),(n-1) pn-1.q(m-n) representa el momento de primer orden de la varia- ble (n-1), por lo que vale (m-1).p, y la segunda sumatoria vale (p+q) (m-1) =1, así que entonces: MM2 (Pn,m,p) = mp [(m-1).p+1]=m2.p2-m.p2+m.p = m.p.(1-p)+ m2.p2= m.p.q+ m2.p2 La varianza (o momento centrado de segundo orden) de la distribución binomial es: var (Pm,n,p) = MM2centr (Pn,m,p) = ΣΣn=0...m (n-mp)2. Cmn pn.q(m-n) = = ((ΣΣn=0...m n2.Cmn pn.q(m-n)) – 2.m.p.Σ.Σn=0...m n.Cmn pn q(m-n) +m2p2ΣΣn=0...m Cmn pn q(m-n) = = MM2 (Pn,m,p) – 2.m.p. MM1 (Pn,m,p)+ m2p2 , y reemplazando los momentos por las expresiones halladas antes, re- sulta que var (Pm,n,p) = m.p.q+ m 2.p2– 2. m2.p2 + m2p2 = m.p.q Cálculo de M3 para la distribución binomial Se vió que para una distribución discontinua o discreta es M3centr = M3 - 3 M1 M2+2 M1 3 = = ΣΣi pi. xi3 - 3 MM1 ΣΣi pi. xi2 + 2 MM13 Por definición es MM3 (Pn,m,p) = Σ Σn=0...m n3.Cmn pn q(m-n) . Con un procedimiento análogo al que ya usamos ante- riormente para calcular M2, ponemos n.(n-1).(n-2) =n 3-3n2+2n, de donde n3= [n.(n-1).(n-2)] +3n2-2n y entonces es M3 (Pn,m,p) = Σ Σn=0...m [n.(n-1).(n-2) +3n2-2n].Cmn pn q(m-n) pero siendo n.(n-1).(n-2) Cmn = = n.(n-1).(n-2) m.(m-1).(m-2).(m-3)!/(m-n)!/n/(n-1)/(n-2)/(n-3)! = = m.(m-1).(m-2).(m-3)! /[(m-3)-(n-3)]! /(n-3)! = = m.(m-1).(m-2) C(m-3)(n-3) resulta claramente ΣΣn=0...m n.(n-1).(n-2) Cmn pn q(m-n)= m.(m-1).(m-2) p3{ΣΣn=3...m C(m-3)(n-3) p(n-3) q(m-n)} , y como la expresión entre llaves vale 1, podemos poner M3 (Pn,m,p) = m.(m-1).(m-2) p3 + 3 n2ΣΣn=0...m Cmn pn q(m-n) - 2n Σ Σn=0...m Cmn pn q(m-n) = = m.(m-1).(m-2) p3+ 3 M2- 2M1 Recordando que M1 = m.p y que M2 = m.p.q+ m 2.p2 , resulta : M3 (Pn,m,p) = m3.p3-3m2.p3+2.m.p3 + 3.m.p.q+ 3.m2.p2- 2.m.p El momento centrado de tercer orden resulta entonces M3centr = M3 - 3 M1 M2+2 M1 3 = = m3.p3-3m2.p3+2.m.p3 + 3.m.p.q+ 3.m2.p2- 2.m.p - 3 m2.p2.q -3 m3.p3 + 2 m3.p3 = = -3m2.p3+2.m.p3 + 3.m.p.q+ 3.m2.p2- 2.m.p - 3 m2.p2.q = = -3m2.p2(1-q) +2.m.p3+ 3.m2.p2- 2.m.p- 3 m2.p2.q + 3.m.p.q = 2.m.p3- 2.m.p + 3.m.p.q = = 2.m.p(1-q)2- 2.m.p + 3.m.p.q = mpq (2q-1) = mpq (q-p) Asimetría de la distribución binomial Generalmente se toma como medida de la asimetría al valor de M3centr= mpq (q-p) referido a una medida de la dispersión, por ejemplo al desvío standard s=(mpq) ½ , es decir al cociente: asim = M3centr/s = (q-p)/ (mpq) ½ Vemos entonces que la asimetría de una distribución binomial reside en la diferencia entre p y q y el valor de m . La distribución resulta así muy asimétrica para p<< ½ y/o m pequeño, tendiendo a una curva simétrica cuando p →→ ½ y/o m es grande. Por ejemplo es asim (P12,n,1/6) = (5/6 - 1/6) / (12. 5/6. 1/6) ½ = 0, 516 21 En cambio es menor asim (P50,n,1/6) = (5/6 - 1/6)/ (50. 5/6. 1/6) ½ = 0, 253 y mucho menor aún asim (P100,n,1/6) = (5/6 - 1/6)/ (100. 5/6. 1/6) ½ = 0, 179 La distribución de Poisson El matemático y físico francés Siméon-Denis Poisson, (1781-1840), dedujo a partir de la fórmula de la binomial, una distribución discreta de gran utilidad, válida cuando la probabilidad de un suceso p es muy pequeña y el número de acontecimientos m es muy grande. Partamos de la expresión de la probabilidad binomial P(m,n,p) = m!/n!/(m-n)! pn qm-n . Haremos uso de la formula aproximada de Stirling para el factorial m! ≅≅ (2ππm)½ mm.e-m , válida para m grande. Reemplazada dicha aproximación en la anterior nos da: P(m,n,p) = m!/n!/(m-n)! pn qm-n = (2ππm)½ mm.e-m /n!/ (2π(π(m-n))½ /(m-n)(m-n)/e-m+n pn qm-n Introducimos ahora un número finito λλ tal que lim m→→∞∞(mp) =λλ (nótese que p tiende a cero cuando m tiende a infi- nito, así que el límite anterior es un número acotado) Se puede escribir la probabilidad como: P(m,n,p) =(mp)n/n!.[m/(m-n)]½ m(m-n) /(m-n)(m-n).e-n (1-mp/m) (m-n) = =(mp)n/n! (1-mp/m) m .e-n [m/(m-n)]½ /(1-p) n/(1-n/m)m/(1-n/m)-n Ahora pasemos la expresión de la probabilidad al límite para m→→ ∞∞ , para lo cual debemos recordar que lim m→→∞∞ (1+1/m) m = e = 2.7182..., lim m→→∞∞ (mp) n/n! = λλn/n! lim m→→∞∞ (1-mp/m) m = lim m→→∞∞ {[1+1/(m /(−λ /(−λ)] m/(-λ)λ)}}−(λ)−(λ)==e−λ−λ lim m→→∞∞ [m/(m-n)] ½ = 1 lim m→→∞∞ (1-n/m) m ={[1+1/(-m/n)]m/n}-n = e-n lim m→→∞∞ (1-n/m) n = 1 Entonces es lim m→→∞∞P(m,n,p<<1) = λλn e−λ−λ/n! Su valor medio y varianza valen lo mismo que para la binomial : media P(m,n,p<<1) = µµ= mp = λλ σσ2 = mpq = λ λq ≅≅λλ ya que p→→0 y q→→1 Ejemplo Nº1 Después de pasar por un mantenimiento integral, el avión monomotor DLDL presenta un promedio de una falla cada 10000 horas de vuelo. ¿Cuál es la probabilidad de que en las próximas mil horas se produzcan ninguna, una, dos, tres, cuatro, cinco y seis fallas en un DLDL recién salido del taller? De los datos se deduce que p=0,0001; m=1000 ; µ = λ =µ = λ =m.p = 1000x0,0001 = 0, 1; n=1,2,3,4,5,6 La probabilidad pedida vale pues: P(m,n,p) = λλn e−λ−λ/n! P(1000,n,10-4) = (0,1)0,1)n e−0,−0,11/n! n λλn e−λ−λ/n! 0 0.904837418 1 0.090483742 2 0.004524187 3 0.000150806 4 3.77016E-06 5 7.54031E-08 6 1.25672E-09 Aplicando la binomial, el resultado para n=2 es p(2) =C1000,2 (10 -4)2.(1-10-4)998 = 499500.10-8. 0,90501= = 0.004520544. Como se ve, la estadística de Poisson resulta casi tan exacta como la binomial, a la vez que mucho más fácil de calcular. Ejemplo Nº2 Una línea de colectivos tiene un total de 50 coches. Cada unidad debe parar por inconvenientes mecánicos en pro- medio un día cada 30 días para efectuar reparaciones. El taller cuenta con lugar para atender hasta tres colectivos simultáneamente. Determinar la probabilidad de que en un día haya más de tres colectivos fuera de servicio, es decir que haya unidades esperando fuera del taller. En el caso planteado es p=1/30 ; m=50 ; λλ=mp=5/3 Estadística de Poisson 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 1 2 3 4 5 6 n p (n ) 22 La probabilidad de que haya en un instante cualquiera exactamente n colectivos en reparación es: P(50,n,1/30) = λλn e−λ−λ/n! = (5/3)n e-(5/3)/n! La probabilidad de que haya hasta n vehículos (1, o 2, o 3,...o n) en taller en un día cualquiera es la suma de la pro- babilidad de cada caso, de 0 a n, es decir ΣΣk=1,2...n λλn e−λ−λ/n!. Y la probabilidad de que haya más de n colectivos es la complementaria a la anterior, o sea la probabilidad de que no haya hasta n coches en taller, es decir {1-ΣΣk=1,2...n λλn e−λ−λ/n!} n λλn e−λ−λ/n! ΣΣk=1,2...n λλn e−λ−λ/n! 1-ΣΣk=1,2...n λλn e−λ−λ/n! 0 0,188875603 0,188875603 0,811124397 1 0,314792671 0,503668274 0,496331726 2 0,262327226 0,7659955 0,2340045 3 0,145737348 0,911732848 0,088267152 4 0,060723895 0,972456743 0,027543257 5 0,020241298 0,992698042 0,007301958 6 0,005622583 0,998320624 0,001679376 7 0,00133871 0,999659335 0,000340665 8 0,000278898 0,999938233 6,17674E-05 9 5,16478E-05 0,99998988 1,01197E-05 10 8,60796E-06 0,999998488 1,51171E-06 De la tabla surge que la probabilidad de que en un día cualquiera haya exactamente tres vehículos en reparación es 0,146. La de que haya hasta tres colectivos en el taller es 0,912 . Y la probabilidad de que haya alguno/s coches esperando afuera del taller es de 1- 0,912 = 0,088 Estas probabilidades pueden traducirse a frecuencias esperadas, es decir que se esperan 0,088 posibilidades de encontrar cola de espera en el taller en un día cualquiera . La inversa 1/0,088 =11,36 es el lapso en días en los que se producirá en promedio el acontecimiento en cuestión. Así dirán los choferes, bastante enojados: “Cada 11 o 12 días en promedio hay alguno que llega con el colectivo descompuesto y tiene que esperar que se desocupe un lugar en el taller, hasta el día siguiente”. Que quede bien claro que esto no significa que cada 11,36 días exactamente hay una espera fuera del taller: se trata de promedios y bien puede ocurrir que se presenten dos días seguidos con cola, que luego se compensarán con períodos más largos que 11,32 días, sin que se produzcan colas. Cuestión: ¿Qué significa la probabilidad 1-p(3) = 1-0,146 = 0,854? Respuesta: es la probabilidad de que no haya exactamente tres vehículos en taller: incluye pués los casos en los que hay 0, 1 o 2 o más de tres. La distribución normal de Gauss Para m y n grandes, la binomial se transforma en la famosa distribución acampanada que Carl Friedrich Gauss (1777-1855) aplicara en la teoría de errores, y que se basa en el teorema de Jacobo Bernouilli (1655- 1705) que expondremos a continuación. Teorema de Bernouilli Partiendo pués como antes, de la expresión de la probabilidad binomial P(m,n,p) = m!/n!/(m-n)! pn qm-n . haremos uso de la formula aproximada de
Compartir