Logo Studenta

PROBABILIDAD BASICA

¡Este material tiene más páginas!

Vista previa del material en texto

MATERA: PROBABILIDAD Y ESTADISTICA
I.PROBABILIDAD BASICA Y CONDICIONAL
I.I DEFINICION DE CONCEPTOS DE PROBABILIDAD BASICA:
PROBABILIDAD:
La probabilidad es un concepto matemático que se utiliza para medir la posibilidad de que un evento ocurra. Se expresa como un número entre 0 y 1, donde 0 significa que el evento es imposible y 1 significa que es seguro que ocurrirá. La probabilidad se puede calcular de diferentes maneras, dependiendo del tipo de evento y la información disponible. Es importante entender la probabilidad para tomar decisiones informadas y para comprender la incertidumbre en diferentes situaciones de la vida diaria, por ejemplo, la probabilidad de obtener cara en un lanzamiento de moneda justa es de 0.5, ya que solo hay dos posibilidades igualmente probables: cara o sello. La probabilidad tiene aplicaciones en muchos campos, como la estadística, la física, la ingeniería y las ciencias sociales.
EXPERIMENTO:
Un experimento en materia de probabilidad es un proceso que se realiza para observar un resultado o conjunto de resultados posibles. Por ejemplo, lanzar una moneda es un experimento de probabilidad, ya que el resultado puede ser cara o cruz con igual probabilidad. Otro ejemplo de experimento de probabilidad es lanzar un dado, donde el resultado puede ser uno de los seis números posibles con igual probabilidad. En general, los experimentos de probabilidad se utilizan para estudiar y predecir eventos aleatorios.
 ESPACIO MUESTRAL
El espacio muestral es un concepto fundamental en la teoría de probabilidad, ya que se usa para definir el conjunto de resultados posibles de un experimento aleatorio. El espacio muestral se representa por la letra mayúscula griega omega () y se divide en dos tipos: los espacios muéstrales finitos y los infinitos. 
a) Espacios de muestreo finitos: son espacios con un número finito de elementos, como tirar los dados. 
 b) Espacios muéstrales contables infinitos: Espacios en los que tiene número infinito de elementos y se pueden emparejar 1-1 con números naturales, como el número de autos que cruzan el puente. 
 c) Espacios muéstrales infinitos incontables: Espacios donde tiene número infinito de elementos y no puede ser emparejado con natural, como elegir al azar un número en el intervalo 0.1.
EVENTO
Un evento es un resultado posible de un experimento y es la unidad de análisis más pequeña para calcular probabilidades. Los eventos se pueden clasificar en: Son mutuamente excluyentes. No pueden ocurrir simultáneamente.
 EVENTO MUTUAMENTE EXCLUYENTE
Los eventos mutuamente exclusivos son cosas que no pueden ocurrir al mismo tiempo. Por ejemplo, no puedes correr hacia adelante y hacia atrás simultáneamente. Las acciones “correr hacia adelante” y “correr en reversa” son mutuamente excluyentes. Lanzar una moneda también puede darte este tipo de evento. No puedes lanzar una moneda y obtener tanto cara como cruz. Así que “obtener cara” y “obtener cruz” son eventos mutuamente exclusivos. Otros ejemplos incluyen la capacidad de pagar el alquiler si no te pagan o de apagar la TV en caso de que no tengas una TV.
I.II METODOS PARA EL CALCULO DE PROBABILIDAD
 APROXIMACION DE PROBABILIDAD CON FRECUENCIA RELATIVA
La probabilidad frecuencial o frecuentista hace referencia a la definición de probabilidad entendida como el cociente entre el número de casos favorables y el número de casos posibles, cuando el número de casos tiende a infinito.
METODO CLASICO
La probabilidad clásica es una medida estadística que indica la probabilidad de que suceda un evento. La probabilidad clásica es igual al número de casos favorables de dicho evento dividido entre el número total de casos posibles.
La probabilidad clásica también se conoce como probabilidad teórica o probabilidad a priori.
La probabilidad clásica es un número entre 0 y 1. Cuanto más probable de que ocurra un evento, mayor será la probabilidad clásica, por contra, cuanto menos probable sea de que suceda un evento, menor será el valor de la probabilidad clásica.
A diferencia de otros tipos de probabilidades, no hace falta hacer ningún experimento para hallar la probabilidad clásica de un evento, sino que se trata de un cálculo teórico. Más abajo profundizaremos en este concepto.
La fórmula de la probabilidad clásica es el número de casos favorables de un evento partido por el número total de casos del experimento.
METODO SUJETIVO O DE JUCIO
La probabilidad subjetiva es aquella que se basa en la experiencia individual. La persona evalúa las posibilidades y asigna los valores de acuerdo a los hechos previos que conoce. Es posible vincular la probabilidad subjetiva a una frecuencia relativa o a una conjetura. El sujeto mide el grado de probabilidad según la verosimilitud que le otorga a cada resultado posible.
Recordemos que, en un experimento aleatorio, no se puede establecer con certeza si un cierto evento sucederá, o no, en una prueba específica. A la medición de la probabilidad de que el evento en cuestión ocurra se le puede asignar un número.
En el caso de la probabilidad subjetiva, la estimación de la ocurrencia del evento se basa en la intuición o en la opinión, generalmente derivadas de experiencias previas. El individuo analiza la información de la que dispone y otorga un valor de probabilidad al evento según su nivel de creencia acerca de que el evento efectivamente ocurra.
I.III TECNICAS DE CONTEO
En los problemas de probabilidad y en especial en los de probabilidad condicionada, resulta interesante y práctico organizar la información en una tabla de contingencia o en un diagrama de árbol.
En la construcción de un diagrama de árbol se partirá poniendo una rama, para cada una de las posibilidades, acompañada de su probabilidad
En el final de cada rama parcial, se construye un nudo, del cual parten nuevas ramas, hay que tener en cuenta que la suma de probabilidades de las ramas de cada nudo debe dar 1
Las tablas de contingencia y los diagramas de árbol están íntimamente relacionados, dado uno de ellos podemos construir el otro. Unas veces, los datos del problema permiten construir fácilmente uno de ellos y a partir de él podemos construir el otro, que nos ayudará en la resolución del problema.
REGLA MULTIPICATIVA
El principio multiplicativo es una técnica que se utiliza para resolver problemas de conteo para hallar la solución sin que sea necesario enumerar sus elementos. Es conocido también como el principio fundamental del análisis combinatorio; se basa en la multiplicación sucesiva para determinar la forma en la que puede ocurrir un evento.
Este principio establece que, si una decisión (d 1 ) puede ser tomada de n maneras y otra decisión (d 2 ) puede tomarse de m maneras, el número total de maneras en las que pueden ser tomadas las decisiones d 1 yd 2 será igual un multiplicador de n * m. Según el principio, cada decisión se realiza una tras otra: número de maneras = N 1 * N 2 … * N x maneras.
Principio de la multiplicación Si un evento A se puede realizar de «m» formas diferentes y luego se puede realizar otro evento Bde «n» formas diferentes, el número total de formas en que pueden ocurrir A y B es igual amx n. Es decir, ambos eventos se realizan, primero uno y luego el otro. El «y» indica multiplicación.
EJEMPLO 1 Paula planea ir al cine con sus amigas, y para elegir la ropa que usará, separo 3 blusas y 2 faldas. ¿De cuantas maneras se puede vestir Paula?
Solución En este caso, Paula debe tomar dos decisiones:
d 1 = Escoger entre 3 blusas = n
d 2 = Escoger entre 2 faldas = m
De esa forma Paula tiene n*m ​​decisiones a tomar o diferentes maneras de vestirse.
n*m=3*2=6 decisiones.
El principio multiplicativo nace de la técnica del diagrama del árbol, que se trata de un diagrama que relaciona todos los posibles resultados, de manera que cada uno pueda ocurrir un número finito de veces.
COMBINACION
En las combinaciones, a diferencia de lo que sucedía con las permutaciones, el orden de los elementos no es importante.
La fórmula a aplicar es la siguiente: nCr=n!/(n-r)!r!
Por ejemplo: Un grupo de 10 personasquieren hacer limpieza en el barrio y se preparan para formar grupos de 2 miembros cada uno, ¿cuántos grupos son posibles?
En este caso, n = 10 y r = 2, así pues, aplicando la fórmula:
10C2=10!/(10-2)!2!=180 parejas distintas.
PERMUTACION
Antes de entender cómo hacer las permutaciones, es importante entender la diferencia entre una combinación y una permutación.
Una combinación es un arreglo de elementos cuyo orden no es importante o no cambia el resultado final.
En cambio, en una permutación, habría un arreglo de varios elementos en los que sí es importante tenerse en cuenta su orden o posición.
En las permutaciones, hay n cantidad de elementos distintos y se selecciona una cantidad de ellos, que sería r.
La fórmula que se utilizaría sería la siguiente: nPr = n!/(n-r)!
Por ejemplo:
Hay un grupo de 10 personas y hay un asiento en el que solo pueden caber cinco, ¿de cuántas formas se pueden sentar? Se haría lo siguiente:
10P5=10!/(10-5)!=10 x 9 x 8 x 7 x 6 = 30.240 formas diferentes de ocupar el banco.
4. Permutaciones con repetición
Cuando se quiere saber el número de permutaciones en un conjunto de objetos, algunos de los cuales son iguales, se procede a realizar lo siguiente:
Teniéndose en cuenta que n son los elementos disponibles, algunos de ellos repetidos.
Se seleccionan todos los elementos n.
Se aplica la siguiente fórmula: = n!/n1!n2!...nk!
Por ejemplo:
En un barco se pueden izar 3 banderas rojas, 2 amarillas y 5 verdes. ¿Cuántas señales diferentes se podrían hacer izando las 10 banderas que se tienen?
10!/3!2!5! = 2.520 combinaciones de banderas diferentes
I.IV CONCEPTOS DE PROBABILIDAD
PROBABILIDAD CONDICIONAL
La probabilidad condicional, o probabilidad condicionada, es la posibilidad de que ocurra un evento, al que denominamos A, como consecuencia de que ha tenido lugar otro evento, al que denominamos B.
Es decir, la probabilidad condicional es aquella que depende de que se haya cumplido otro hecho relacionado.
Si tenemos un evento, que denominamos A, condicionado a otro evento, al cual denominamos B, la notación sería P(A|B) y la fórmula sería la siguiente:
P(A|B)=P(A ∩ B)/P(B)
PROBABILIDAD CONJUNTA
La probabilidad conjunta es una medida estadística que indica la probabilidad de que dos sucesos ocurran al mismo tiempo.
La probabilidad conjunta es un número entre 0 y 1. Cuanto más grande sea la probabilidad conjunta, más probable será que dos eventos ocurran simultáneamente, y al contrario, cuanto menor sea la probabilidad conjunta, menos probable será que los dos eventos sucedan a la vez.
La probabilidad conjunta de dos eventos A y B es igual al producto de la probabilidad del evento A por la probabilidad del evento B.
Por lo tanto, la fórmula para calcular la probabilidad conjunta de dos sucesos diferentes es la siguiente:
De modo que la probabilidad conjunta de dos eventos distintos es equivalente a la intersección de dichos eventos. Sin embargo, debes tener en cuenta que esta fórmula solo puedes utilizarla si son dos eventos independientes, de lo contrario, debes usar la fórmula de la probabilidad condicional.
Además, la probabilidad conjunta de dos sucesos siempre será menor que la probabilidad de ocurrencia de cada evento por separado.
EVENTOS INDEPENDIENTES Y DEPENDIENTES.
Dos eventos son independientes si el resultado del segundo evento no es afectado por el resultado del primer evento. Si A y B son eventos independientes, la probabilidad de que ambos eventos ocurran es el producto de las probabilidades de los eventos individuales.
 P ( A y B ) = P ( A ) · P ( B )
Ejemplo 1:
Una caja contiene 4 canicas rojas, 3 canicas verdes y 2 canicas azules. Una canica es eliminada de la caja y luego reemplazada. Otra canica se saca de la caja. Cuál es la probabilidad de que la primera canica sea azul y la segunda canica sea verde?
Ya que la primera canica es reemplazada, el tamaño del espacio muestral (9) no cambia de la primera sacada a la segunda así los eventos son independientes.
P (azul luego verde) = P (azul) · P (verde).
Dos eventos son dependientes si el resultado del primer evento afecta el resultado del segundo evento así que la probabilidad es cambiada. En el ejemplo anterior, si la primera canica no es reemplazada, el espacio muestral para el segundo evento cambia y así los eventos son dependientes. La probabilidad de que ambos eventos ocurran es el producto de las probabilidades de los eventos individuales:
 P ( A y B ) = P ( A ) · P ( B )
Ejemplo 2:
Una caja contiene 4 canicas rojas, 3 canicas verdes y 2 canicas azules. Una canica es eliminada de la caja y no es reemplazada. Otra canica se saca de la caja. Cuál es la probabilidad de que la primera canica sea azul y la segunda canica sea verde?
Ya que la primera canica no es reemplazada, el tamaño del espacio muestral para la primera canica (9) es cambiado para la segunda canica (8) así los eventos son dependientes.P (azul luego verde) = P (azul) · P (verde)
I.V LOS TEOREMAS ELEMENTALES DE PROBABILIDAD Y PROBABILIDAD CONDICIONAL.
Probabilidad condicionada. Espacio de probabilidad condicionado: La probabilidad condicionada es uno de los conceptos clave en Teoría de la Probabilidad.
En el tema anterior se ha introducido el concepto de probabilidad considerando que la única información sobre el experimento era el espacio muestral. Sin embargo, hay situaciones en las que se incorpora información suplementaria como puede ser que ha ocurrido otro suceso, con lo que puede variar el espacio de resultados posibles y consecuentemente, sus probabilidades.
En este contexto aparece el concepto de probabilidad condicionada. El objetivo es analizar cómo afecta el conocimiento de la realización de un determinado suceso a la probabilidad de que ocurra cualquier otro.
La probabilidad condicionada tiene una clara interpretación en espacios muestrales finitos en los que puede aplicarse la regla de Laplace.
Definición.- Sea (Ω, A, P) un espacio probabilístico arbitrario y A un suceso (A ∈ A) tal que P(A) > 0. Para cualquier otro suceso B ∈ A, se define la probabilidad condicionada de B dado A o probabilidad de B condicionada a A como P(B/A) = P(B ∩ A)/P(A).
Observemos que la condición P(A) > 0 es necesaria para que la definición tenga sentido.
Por otra parte, la idea intuitiva de probabilidad condicionada hace lógica esta restricción ya que si P(A) = 0, A es un suceso imposible y no tiene sentido condicionar a el.
Notemos que, sabiendo que A ∈ A ha ocurrido, tenemos una nueva evaluación de la probabilidad de cada suceso (P(B) −→ P(B/A)), o sea, tenemos una nueva función de conjunto sobre (Ω, A). Probamos a continuación que, efectivamente, esta función es una medida de probabilidad sobre (Ω, A).
Teorema 1
Sea (Ω, A, P) un espacio probabilístico y sea un suceso A ∈ A, tal que P(A) > 0. Entonces (Ω, A, P(·/A)), en donde P(·/A) es la definida anteriormente, es un espacio probabilístico.
Demostración.- Basta probar que P(·/A) es una probabilidad. Evidentemente
También,
 
Nota: Al condicionar a un suceso A ∈ A, con P(A) > 0, los sucesos de interés en el experimento son solo aquellos que tienen intersección no vacía con A, ya que si B es tal que B ∩ A = ∅, entonces P(B/A) = 0. Además por la propia definición.
O sea, en realidad, estamos haciendo una transformación del espacio muestral, pasando de Ω a A, ya que si A ha ocurrido, no puede haber ocurrido ningún resultado elemental de Ω que no esté en A.
Esto nos lleva a definir un nuevo espacio probabilístico con espacio muestral A, como probamos a continuación, que se denomina espacio de probabilidad condicionado.
Teorema 2
Sea (Ω, A, P) un espacio probabilístico y A ∈ A tal que P(A) > 0. Consideramos la clase de conjuntos
 1. es una σ-algebra contenida en A (con espacio total A).
2. PA es una medida de probabilidad sobre AA
En definitiva, (A, ,) es un espacio probabilístico.
Al espacio (A,,) se le denomina espacio de probabilidad condicionado.
Notemos que los espacios de probabilidad (Ω, A, P(·/A))y (A,,) son equivalentes en el sentido de que las medidas de probabilidadestán determinadas una por otra a través de las relaciones.
Teoremas básicos de probabilidad condicionada
La probabilidad de la intersección de dos sucesos se puede deducir directamente de la definición de probabilidad condicionada y se obtiene como
Si uno de los dos tiene probabilidad nula, la probabilidad condicionada a el no tiene sentido. Si los dos tienen probabilidad nula, entonces la probabilidad de la intersección es evidentemente cero, pero no puede expresarse en función de las probabilidades condicionadas puesto que estas no existen.
Estas expresiones se generalizan, mediante el teorema de la probabilidad compuesta o regla de la multiplicación, al cálculo de la probabilidad de la intersección de más de dos sucesos que se producen concatenadamente.
Teorema de la probabilidad compuesta o Regla de multiplicación
Tanto, si el primero tiene probabilidad positiva, las restantes también, y todas las probabilidades condicionadas tienen sentido.
La demostración se hace por inducción. Para n = 2 es la regla de la multiplicación dada por la definición de probabilidad condicionada. Suponemos que la expresión es cierta para la Intersección de n − 1 sucesos. Entonces
Nota: Este resultado es especialmente útil en experimentos compuestos de varias etapas en los que las probabilidades de los sucesos en cada etapa dependen de los resultados obtenidos en las anteriores.
Ejemplo.- Se extraen sucesivamente, y sin reemplazamiento, tres bolas de una urna que contiene 7 bolas blancas y tres negras. Calcular la probabilidad de que las dos primeras bolas estradas sean blancas y la tercera negra.
El experimento consta de tres etapas y, al no devolverse la bola extraída de la urna en cada etapa, la probabilidad de los resultados que pueden darse en las extracciones sucesivas depende del resultado en la anterior.
Si consideramos los sucesos
B1: Salir bola blanca en la primera extracción,
B2: Salir bola blanca en la segunda extracción,
N3: Salir bola negra en la tercera extracción,
La probabilidad que nos piden es P(B1 ∩ B2 ∩ N3) que, aplicando la regla de multiplicación, se calcula de la siguiente forma:
Teorema de la probabilidad total
Sea (Ω, A, P) un espacio de probabilidad y sea {An}n∈N ⊂ A un sistema completo de sucesos o partición de Ω con P(An) > 0, ∀n ∈ N. Sea B un suceso cualquiera de A, entonces
Interpretación.- Los sucesos pueden interpretarse como las distintas causas (o circunstancias) por las que puede ocurrir el suceso B. Entonces el teorema de la probabilidad total viene a decir que si el suceso B puede ocurrir por alguna de las causas , la probabilidad de que ocurra es la suma de las probabilidades de las causas (P()) por la probabilidad del suceso B condicionado a la causa (P(B/)).
Ejemplo 1.- Se tienen dos urnas: la urna 1 contiene 2 bolas blancas y 2 negras. La urna 2 tiene dos bolas blancas y 3 negras (todas distinguibles). Se elige una urna al azar y se extrae una bola. ¿Cuál es la probabilidad de que sea blanca?
Consideramos los sucesos
Teorema de Bayes o de la probabilidad inversa 
En las mismas condiciones del Teorema de la probabilidad total
Y aplicando el Teorema de la probabilidad total en el denominador se obtiene el resultado deseado.
El razonamiento lógico que subyace en el cálculo de estas probabilidades es el siguiente:
Interpretar, de nuevo, el suceso B como el resultado obtenido al realizar un experimento y los sucesos , como el conjunto de todas las “causas “que pueden producir la aparición del suceso B; entonces, si para cada “causa” conocemos su probabilidad a priori P() y la verosimilitud P(B/) de que el suceso B haya sido causado por , la ocurrencia de B, nos permite asignar, mediante la aplicación del Teorema de Bayes, una “probabilidad a posteriori” P(/B) al suceso de que la verdadera causa haya sido .
Ejemplo 1.- Se tienen dos urnas: la urna 1 contiene 3 bolas blancas y 2 negras. La urna 2 tiene dos bolas blancas y 3 negras (todas distinguibles). Se elige una urna al azar y se extrae una bola. Si la bola resulta ser blanca. ¿Cuál es la probabilidad de que proceda de la urna 1? ¿Y de la 2?
II. DISTRIBUCIONES DISCRETAS DE PROBABILIDAD
II.I CONCEPTO DE LA VARIABLE ALEATORIA DISCRETA
Una variable aleatoria se llama discreta si se puede contar su con junto de resultados posibles. Las variables aleatorias discretas son variables aleatorias cuyo intervalo de valores es finito o contablemente infinito.
II.II CARACTERISTICAS Y METODOS DE LAS DISTRIBUCIONES
Una distribución binomial es una distribución de probabilidad discreta que describe el número de éxitos al realizar n experimentos independientes entre sí, acerca de una variable aleatoria.
Para que una variable aleatoria se considere que sigue una distribución binomial, tiene que cumplir las siguientes propiedades:
En cada ensayo, experimento o prueba solo son posibles dos resultados (éxito o fracaso).
La probabilidad del éxito ha de ser constante. Esta se representa mediante la letra p. La probabilidad de que salga cara al lanzar una moneda es 0,5 y esta es constante dado que la moneda no cambia en cada experimento y las probabilidades de sacar cara son constantes.
La probabilidad de fracaso ha de ser también constate. Esta se representa mediante la letra q = 1-p. Es importante fijarse que mediante esa ecuación, sabiendo p o sabiendo q, podemos obtener la que nos falte.
El resultado obtenido en cada experimento es independiente del anterior. Por lo tanto, lo que ocurra en cada experimento no afecta a los siguientes.
Los sucesos son mutuamente excluyentes, es decir, no pueden ocurrir los 2 al mismo tiempo. No se puede ser hombre y mujer al mismo tiempo o que al lanzar una moneda salga cara y cruz al mismo tiempo.
Los sucesos son colectivamente exhaustivos, es decir, al menos uno de los 2 ha de ocurrir. Si no se es hombre, se es mujer y, si se lanza una moneda, si no sale cara ha de salir cruz.
La variable aleatoria que sigue una distribución binomial se suele representar como X~(n,p), donde n representa el número de ensayos o experimentos y p la probabilidad de éxito.
La fórmula para calcular la distribución normal es:
 Dónde:
n   = Número de ensayos/experimentos
x    = Número de éxitos
p    = Probabilidad de éxito
q    = Probabilidad de fracaso (1-p)
Es importante resaltar que la expresión entre corchetes no es una expresión matricial, sino que es un resultado de una combinatoria sin repetición. Este se obtiene con la siguiente formula:
El signo de exclamación en la expresión anterior representa el símbolo de factorial.
Ejemplo de distribución binomial
Imaginemos que un 80% de personas en el mundo ha visto el partido de la final del último mundial de fútbol. Tras el evento, 4 amigos se reúnen a conversar, ¿Cuál es la probabilidad de que 3 de ellos hayan visto el partido?
Definamos las variables del experimento:
n = 4 (es el total de la muestra que tenemos)
x = número de éxitos, que en este caso es igual a 3, dado que buscamos la probabilidad de que 3 de los 4 amigos lo hayan visto.
p = probabilidad de éxito (0,8)
q = probabilidad de fracaso (0,2). Este resultado se obtiene al restar 1-p.
Tras definir todas nuestras variables, simplemente sustituimos en la formula.
El numerador del factorial se obtendría de multiplicar 4*3*2*1 = 24 y en el denominador tendríamos 3*2*1*1 = 6. Por lo tanto, el resultado del factorial sería 24/6=4.
Fuera del corchete tenemos dos números. El primero sería 0,8^3=0,512 y el segundo 0,2 (dado que 4-3 = 1 y cualquier número elevado a 1 es el mismo).
Por tanto, nuestro resultado final sería: 4*0,512*0,2 = 0,4096. Si multiplicamos por 100 tenemos que hay una probabilidad del 40,96% de que 3 de los 4 amigos haya visto el partido de la final del mundial.
HIPERGEOMÉTRICA
Hasta ahora hemos analizado distribuciones que modelaban situaciones en las que se realizaban pruebas que entrañaban una dicotomía (proceso de Bernouilli) de manera que, en cada experiencia, la probabilidad de obtener cada uno de los dos posibles resultados se mantenía constante.
Si el proceso consistía enuna serie de extracciones o selecciones ello implicaba la reposición de cada extracción o selección, o bien la consideración de una población muy grande (cartas en un casino). Sin embargo, si la población es pequeña y las extracciones no se remplazan, las probabilidades no se mantendrán constantes. La distribución hipergeométrica viene a cubrir esta necesidad de modelar procesos de Bernouilli con probabilidades no constantes (sin reemplazamiento).
La distribución hipergeométrica es especialmente útil en todos aquellos casos en los que se extraigan muestras o se realicen experiencias repetidas sin devolución del elemento extraído o sin retornar a la situación experimental inicial.
Es una distribución fundamental en el estudio de muestras pequeñas de poblaciones pequeñas y en el cálculo de probabilidades de juegos de azar. Tiene grandes aplicaciones en el control de calidad para procesos experimentales en los que no es posible retornar a la situación de partida.
Las consideraciones a tener en cuenta en una distribución hipergeométrica:
El proceso consta de "n" pruebas, separadas o separables de entre un conjunto de "N" pruebas posibles.Cada una de las pruebas puede dar únicamente dos resultados mutuamente excluyentes.
El número de individuos que presentan la característica A (éxito) es "k".
En la primera prueba las probabilidades son: P(A)= p y P(A)= q; con p+q=1.
En estas condiciones, se define la variable aleatoria X = “nº de éxitos obtenidos”. La función de probabilidad de esta variable sería:
La media, varianza y desviación típica de esta distribución vienen dadas por:
EJEMPLO 1:
Supongamos la extracción aleatoria de 8 elementos de un conjunto formado por 40 elementos totales (cartas baraja española) de los cuales 10 son del tipo A (salir oro) y 30 son del tipo complementario (no salir oro).Si realizamos las extracciones sin devolver los elementos extraídos y llamamos X al número de elementos del tipo A (oros obtenidos) que extraemos en las 8 cartas; X seguirá una distribución hipergeométrica de parámetros 40 , 8 , 10/40.H(40,8,0,25).
Para calcular la probabilidad de obtener 4 oros:
Una distribución de probabilidad de Poisson es una distribución de probabilidad discreta que se aplica a las ocurrencias de algún evento en un intervalo especificado. La variable aleatoria x es el número de ocurrencias del evento en un intervalo. El intervalo puede ser tiempo, distancia, área, volumen o alguna unidad similar. La probabilidad de que el suceso ocurra x veces en un intervalo está dada por la siguiente fórmula:
Requisitos para la distribución de probabilidad de Poisson: 
1. La variable aleatoria x es el número de ocurrencias de un evento en algún intervalo.
 2. Las ocurrencias deben ser aleatorias.
3. Las ocurrencias deben ser independientes entre sí.
 4. Las ocurrencias deben estar uniformemente distribuidas a lo largo del intervalo utilizado.
Parámetros de la distribución de probabilidad de Poisson: • La media es . µ
 • La desviación estándar es ợ=
Propiedades de la distribución de probabilidad de Poisson:
1. Una distribución particular de Poisson está determinada solamente por la media . µ
2. Una distribución de Poisson tiene posibles valores x de 0, 1, 2, . . . , sin límite superior.
 En base a la definición proporcionada, la distribución de Poisson permite conocer la probabilidad de que ocurra un determinado número de eventos durante un período de tiempo definido o en un área determinada. Por tal motivo, algunas de sus aplicaciones en las ciencias pueden ser:
● Calcular el número de mutaciones de determinada cadena de ADN después de estar expuesta a cierta cantidad de radiación.
● Calcular el número de núcleos atómicos inestables que se han desintegrado en un determinado período.
● Calcular el número de estrellas en un determinado volumen de espacio.
Ejemplo:
Problema
En el juego Maine Pick 4, usted paga 50¢ para seleccionar una secuencia de cuatro dígitos (del 0 al 9), como 1377. Si juega este juego una vez al día, encuentre la probabilidad de ganar al menos una vez en un año de 365 días.
El intervalo de tiempo es un día, y al jugar una vez cada día se tiene n = 5 365 juegos. Debido a que hay un conjunto ganador de números entre los 10,000 que son posibles (de 0000 a 9999), la probabilidad de un juego ganado es p = 1/10,000.
Con n = 5 365 y p = 1/10,000, se satisfacen las condiciones n ≥ 100 y np ≤ 10, por lo que podemos usar la distribución de Poisson como una aproximación a la distribución binomial.Primero necesitamos el valor de p, que se encuentra como sigue:
Después de haber encontrado el valor de , podemos proceder a e µ ncontrar la probabilidad de valores específicos de x. Debido a que queremos la probabilidad de que x sea “al menos 1”, usaremos la estrategia inteligente de encontrar primero P(0), la probabilidad de no ganar en 365 días. La probabilidad de al menos un juego ganado se puede encontrar rescatando ese resultado de 1.
Encontramos P(0) usando x = 0, . = 0.0365 y = 2.71828 µ , como se muestra aquí:
Si se usa la distribución de Poisson como una aproximación a la distribución binomial, encontramos que hay una probabilidad 0.9642 de no ganar un juego, por lo que la probabilidad de al menos un juego ganado es 1 - 0.9642 = 0.0358.
Si usamos la distribución binomial, obtenemos una probabilidad de 0.0358, por lo que la distribución de Poisson funciona muy bien aquí.
III.DISTRIBUCIONES CONTINUAS DE PROBABILIDAD.
III.I CARACTERISTICAS Y METODOS DE DISTRIBUCIONES.
La distribución normal fue reconocida por primera vez por el francés Abraham de Moivre (1667-1754).Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más profundos y formuló la ecuación de la curva; de ahí que también se la conozca, más comúnmente, como la "campana de Gauss". La distribución de una variable normal está completamente determinada por dos parámetros, su media y su desviación estándar, denotadas generalmente por µ y ợ Con esta notación, la densidad de
que determina la curva en forma de campana que tan bien conocemos . Así, se dice que una característica X sigue una distribución normal de media µ y ợ varianza y se denota como X-N(µ,ợ), si su función de densidad viene dada por la Ecuación 1.
Al igual que ocurría con un histograma, en el que el área de cada rectángulo es proporcional al número de datos en el rango de valores correspondiente si, tal y como se muestra en la Figura 2, en el eje horizontal se levantan perpendiculares en dos puntos a y b, el área bajo la curva delimitada por esas líneas indica la probabilidad de que la variable de interés, X, tome un valor cualquiera en ese intervalo. Puesto que la curva alcanza su mayor altura en torno a la media, mientras que sus "ramas" se extienden asintóticamente hacia los ejes, cuando una variable siga una distribución normal, será mucho más probable observar un dato cercano al valor medio que uno que se encuentre muy alejado de éste.
Al igual que ocurría con un histograma, en el que el área de cada rectángulo es proporcional al número de datos en el rango de valores correspondiente si, tal y como se muestra en la Figura 2, en el eje horizontal se levantan perpendiculares en dos puntos a y b, el área bajo la curva delimitada por esas líneas indica la probabilidad de que la variable de interés, X, tome un valor cualquiera en ese intervalo. Puesto que la curva alcanza su mayor altura en torno a la media, mientras que sus "ramas" se extienden asintóticamente hacia los ejes, cuando una variable siga una distribución normal, será mucho más probable observar un dato cercano al valor medio que uno que se encuentre muy alejado de éste.
Propiedades de la distribución normal:
 La distribución normal posee ciertas propiedades importantes que conviene destacar:
I. Tiene una única moda, que coincide con su media y su mediana.
II. II. La curva normal es asintótica al eje de abscisas. Por ello, cualquier valor entre - ∞ y + ∞ es teóricamente posible. El área total bajo la curva es, por tanto, igual a 1.
III. Es simétrica con respecto a su media µ. Según esto,para este tipo de variables existe una probabilidad de un 50% de observar un dato mayor que la media, y un 50% de observar un dato menor.
IV. La distancia entre la línea trazada en la media y el punto de inflexión de la curva es igual a una desviación típica ( ợ). Cuanto mayor sea (ợ) , más aplanada será la curva de la densidad.
V. El área bajo la curva comprendido entre los valores situados aproximadamente a dos desviaciones estándar de la media es igual a 0.95. En concreto, existe un 95% de posibilidades de observar un valor comprendido en el intervalo
(µ-1.96ợ,µ+1.96ợ)
. La forma de la campana de Gauss depende de los parámetros µ y ợ. La media indica la posición de la campana, de modo que para diferentes valores de µ la gráfica es desplazada a lo largo del eje horizontal. Por otra parte, la desviación estándar determina el grado de apuntamiento de la curva. Cuanto mayor sea el valor de ợ, más se dispersarán los datos en torno a la media y la curva será más plana. Un valor pequeño de este parámetro indica, por tanto, una gran probabilidad de obtener datos cercanos al valor medio de la distribución.
Como se deduce de este último apartado, no existe una única distribución normal, sino una familia de distribuciones con una forma común, diferenciadas por los valores de su media y su varianza. De entre todas ellas, la más utilizada es la distribución normal estándar, que corresponde a una distribución de media 0 y varianza 1. Así, la expresión que define su densidad se puede obtener de la Ecuación 1, resultando:
Es importante conocer que, a partir de cualquier variable X que siga una distribución N(µ,ợ) se puede obtener otra característica Z con una distribución normal estándar, sin más que efectuar la transformación: 
Esta propiedad resulta especialmente interesante en la práctica, ya que para una distribución N(1,0) existen tablas publicadas a partir de las que se puede obtener de modo sencillo la probabilidad de observar un dato menor o igual a un cierto valor z, y que permitirán resolver preguntas de probabilidad acerca del comportamiento de variables de las que se sabe o se asume que siguen una distribución aproximadamente normal.
Consideremos, por ejemplo, el siguiente problema: supongamos que se sabe que el peso de los sujetos de una determinada población sigue una distribución aproximadamente normal, con una media de 80 Kg y una desviación estándar de 10 Kg. ¿Podremos saber cuál es la probabilidad de que una persona, elegida al azar, tenga un peso superior a 100 Kg?
Denotando por X a la variable que representa el peso de los individuos en esa población, ésta sigue una distribución N(80,10) 
Tomando a=-2 y b=2, podemos deducir que:
Finalmente, la probabilidad buscada de que una persona elegida al azar tenga un peso entre 60 y 100 Kg.,
es de 0.9772-0.0228=0.9544, es decir, aproximadamente de un 95%. Resulta interesante comprobar que
se obtendría la misma conclusión recurriendo a la propiedad (III) de la distribución normal.
No obstante, es fácil observar que este tipo de situaciones no corresponde a lo que habitualmente nos encontramos en la práctica. Generalmente no se dispone de información acerca de la distribución teórica de la población, sino que más bien el problema se plantea a la inversa: a partir de una muestra extraída al azar de la población que se desea estudiar, se realizan una serie de mediciones y se desea extrapolar los resultados obtenidos a la población de origen. En un ejemplo similar al anterior, supongamos que se dispone del peso de n=100 individuos de esa misma población, obteniéndose una media muestral de
X= 75 Kg, y una desviación estándar muestral S=12 Kg, querríamos extraer alguna conclusión acerca del valor medio real de ese peso en la población original. La solución a este tipo de cuestiones se basa en un resultado elemental de la teoría estadística, el llamado teorema central del límite. Dicho axioma viene a decirnos que las medias de muestras aleatorias de cualquier variable siguen ellas mismas una distribución normal con igual media que la de la población y desviación estándar la de la población.
CHI CUADRADA
La distribución de chi-cuadrada es una distribución continua que se especifica por los grados de libertad y el parámetro de no centralidad. La distribución es positivamente asimétrica, pero la asimetría disminuye al aumentar los grados de libertad.
Minitab utiliza la distribución de chi-cuadrada (χ2) en pruebas de significancia estadística para:
Comprobar qué tan bien se ajusta una muestra a una distribución teórica. Por ejemplo, puede utilizar una prueba de bondad de ajuste de chi-cuadrada para determinar si los datos de la muestra se ajustan a una distribución de Poisson.
Comprobar la independencia de las variables categóricas. Por ejemplo, un fabricante desea saber si la ocurrencia de cuatro tipos de defectos (espárrago faltante, abrazadera rota, sujetador flojo y sello con fugas) está relacionada con los turnos (diurno, vespertino, nocturno).
Cuando los grados de libertad son 30 o más, la distribución de chi-cuadrada puede aproximarse razonablemente con una distribución normal, como se ilustra en las siguientes gráficas:
La distribución chi-cuadrado también se conoce como distribución de Pearson.
Cabe destacar que la distribución chi-cuadrado es un caso especial de la distribución gamma.
La distribución chi-cuadrado se utiliza mucho en inferencia estadística, por ejemplo, se usa en el contraste de hipótesis y en los intervalos de confianza. Más abajo veremos cuáles son las aplicaciones de este tipo de distribución de probabilidad.
Características de la distribución chi-cuadrado
En este apartado veremos las propiedades más importantes de la distribución chi-cuadrado relacionadas con la teoría de la probabilidad y la estadística.
La media de una distribución chi-cuadrado es igual a sus grados de libertad. 
La varianza de una distribución chi-cuadrado es equivalente al doble de los grados de libertad de la distribución.
La moda de una distribución chi-cuadrada es dos unidades menos que sus grados de libertad, siempre y cuando la distribución tenga más de un grado de libertad.
La función de densidad de la distribución chi-cuadrado es nula si x=0. No obstante, para valores de x mayores que 0, la función de densidad de una distribución chi-cuadrado se define mediante la siguiente fórmula:
La función de distribución acumulada de la distribución chi-cuadrado está regida por la siguiente fórmula:
El coeficiente de asimetría de la distribución chi-cuadrado es la raíz cuadrada del cociente de ocho entre el número de grados de libertad de la distribución.
La curtosis de la distribución chi-cuadrado se calcula mediante la siguiente expresión:
Como consecuencia del teorema del límite central, la distribución chi-cuadrado puede aproximarse por una distribución normal si k es suficientemente gradne.
F DE FISCHER La distribución F de Snedecor, también llamada distribución F de Fisher-Snedecor o simplemente distribución F, es una distribución de probabilidad continua que se usa en la inferencia estadística, especialmente en el análisis de la varianza.
Una de las propiedades de la distribución F de Snedecor es que queda definida por el valor de dos parámetros reales, m y n, que indican sus grados de libertad. Así pues, el símbolo de la distribución F de Snedecor es , donde m y n son los parámetros que definen la distribución.
Matemáticamente, la distribución F de Snedecor es igual al cociente entre una distribución chi-cuadrado y sus grados de libertad partido por el cociente entre otra distribución chi-cuadrado y sus grados de libertad. De modo que la fórmula que define la distribución F de Snedecor es la siguiente:
La distribución F de Fisher-Snedecor recibe este nombre en honor al estadístico inglés Ronald Fisher y al estadístico estadounidense George Snedecor.
En estadística, la distribución F de Fisher-Snedecor tiene diferentes aplicaciones. Por ejemplo, la distribución F de Fisher-Snedecor se usa para comparar diferentes modelos de regresión lineal,asimismo, esta distribución de probabilidad se utiliza en el análisis de la varianza (ANOVA).
Gráfica de la distribución F de Snedecor
Una vez vista la definición de la distribución F de Snedecor, a continuación se muestra la gráfica de su función de densidad y la gráfica de su probabilidad acumulada.
En el gráfico de abajo puedes ver representados varios ejemplos de distribuciones F de Snedecor con diferentes grados de libertad.
Por otro lado, en el gráfico de abajo puedes ver cómo varia la gráfica de la función de probabilidad acumulada de la distribución F de Snedecor según sus valores característicos.
Características de la distribución F de Snedecor
Por último, en este apartado se muestran las características más importantes de la distribución F de Snedecor.
Los grados de libertad de la distribución F de Snedecor, m y n, son dos parámetros que definen la forma de la distribución. Estos valores característicos de la distribución F de Snedecor son números enteros y positivos.
 El dominio de la distribución F de Snedecor son todos los números reales mayores o igual que cero.
Para valores de n más grandes que 2, la media de la distribución F de Snedecor es igual a n partido por la resta de n menos 2. 
· Cuando el parámetro n es mayor que 2, se puede calcular la varianza de la distribución F de Snedecor aplicando la siguiente fórmula:
· Si el parámetro m es mayor que 2, la moda de la distribución F de Snedecor se puede calcular con la siguiente expresión:
La fórmula de la función de densidad de la distribución F de Snedecor es la siguiente:
Si una variable sigue una distribución F de Snedecor con grados de libertad m y n, entonces la inversa de dicha variable sigue una distribución F de Snedecor con los mismos grados de libertad pero cambiando el orden de sus valores.
· La distribución t de Student tiene la siguiente relación con la distribución F de Snedecor:
IV.DISTRIBUCIONES MUESTRALES
IV.I CONCEPTOS
DISTRIBUCION MUESTRAL
La distribución de muestreo de una estadística es la distribución de esa estadística, considerada como una variable aleatoria, cuando se deriva de una muestra aleatoria de tamaño n. Se puede considerar como la distribución de la estadística para todas las muestras posibles de la misma población de un tamaño de muestra dado. La distribución del muestreo depende de la distribución subyacente de la población, la estadística que se considera, el procedimiento de muestreo empleado y el tamaño de muestra utilizado. A menudo existe un considerable interés en si la distribución muestral puede aproximarse mediante una distribución asintótica, que corresponde al caso límite ya que el número de muestras aleatorias de tamaño finito, tomadas de una población infinita y utilizadas para producir la distribución, tiende a infinito.
ERROR ESTANDAR
La media muestral es el estimador usual de una media poblacional. Sin embargo, diferentes muestras escogidas de la misma población tienden en general a dar distintos valores de medias muestrales. El error estándar de la media (es decir, el error debido a la estimación de la media poblacional a partir de las medias muestrales) es la desviación estándar de todas las posibles muestras (de un tamaño dado) escogidos de esa población. Además, el error estándar de la media puede referirse a una estimación de la desviación estándar, calculada desde una muestra de datos que está siendo analizada al mismo tiempo.
En aplicaciones prácticas, el verdadero valor de la desviación estándar (o del error) es generalmente desconocido. Como resultado, el término "error estándar" se usa a veces para referirse a una estimación de esta cantidad desconocida. En tales casos es importante tener claro de dónde proviene, ya que el error estándar es solo una estimación. Desafortunadamente, esto no es siempre posible y puede ser mejor usar una aproximación que evite usar el error estándar, por ejemplo usando la estimación de máxima verosimilitud o una aproximación más formal derivada de los intervalos de confianza. Un caso bien conocido donde se pueda usar de forma apropiada puede ser en la distribución de Student para proporcionar un intervalo de confianza para una media estimada o diferencia de medias. En otros casos, el error estándar puede ser usado para proveer una indicación del tamaño de la incertidumbre, pero su uso formal o semi-formal para proporcionar intervalos de confianza o test debe ser evitado a menos que el tamaño de la muestra sea al menos moderadamente grande. Aquí el concepto "grande" dependerá de las cantidades particulares que vayan a ser analizadas.
En análisis de regresión, el término error estándar o error típico es también usado como la media de las diferencias entre la estimación por mínimos cuadrados y los valores dados de la muestra2​3​. La relación entre el error estándar de la media y la desviación estándar es tal que, para un tamaño de muestra dado, el error estándar de la media es igual a la desviación estándar dividida por la raíz cuadrada del tamaño de la muestra.4​ En otras palabras, el error estándar de la media es una medida de la dispersión de las medias muestrales alrededor de la media poblacional.
En el análisis de la regresión , el término "error estándar" se refiere a la raíz cuadrada de la estadística chi-cuadrada reducida o al error estándar para un coeficiente de regresión particular, como se usa, por ejemplo, en los intervalos de confianza.
TEOREMA DE LIMITE CENTRAL
El teorema del límite central es un teorema fundamental de probabilidad y estadística. El teorema describe la distribución de la media de una muestra aleatoria proveniente de una población con varianza finita. Cuando el tamaño de la muestra es lo suficientemente grande, la distribución de las medias sigue aproximadamente una distribución normal. El teorema se aplica independientemente de la forma de la distribución de la población. Muchos procedimientos estadísticos comunes requieren que los datos sean aproximadamente normales. El teorema de límite central le permite aplicar estos procedimientos útiles a poblaciones que son considerablemente no normales. El tamaño que debe tener la muestra depende de la forma de la distribución original. Si la distribución de la población es simétrica, un tamaño de muestra de 5 podría producir una aproximación adecuada. Si la distribución de la población es considerablemente asimétrica, es necesario un tamaño de muestra más grande. Por ejemplo, la distribución de la media puede ser aproximadamente normal si el tamaño de la muestra es mayor que 50. Las siguientes gráficas muestran ejemplos de cómo la distribución afecta el tamaño de la muestra que se necesita.
Muestras de una población uniforme
Una población que sigue una distribución uniforme es simétrica, pero marcadamente no normal, como lo demuestra el primer histograma. Sin embargo, la distribución de las medias de 1000 muestras de tamaño 5 de esta población es aproximadamente normal debido al teorema del límite central, como lo demuestra el segundo histograma. Este histograma de las medias de las muestras incluye una curva normal superpuesta para ilustrar esta normalidad.
Una población que sigue una distribución exponencial es asimétrica y no normal, como lo demuestra el primer histograma. Sin embargo, la distribución de las medias de 1000 muestras de tamaño 50 de esta población es aproximadamente normal debido al teorema del límite central, como lo demuestra el segundo histograma. Este histograma de las medias de las muestras incluye una curva normal superpuesta para ilustrar esta normalidad.
IV.II CARACTERISTICAS Y METODOS DE CALCULO DE PROBABILIDADES DE LA DISTRIBUCION t DE STUDENT
La distribución t de Student o distribución t es un modelo teórico utilizado para aproximar el momento de primer orden de una población normalmente distribuida cuando el tamaño de la muestra es pequeño y se desconoce la desviación típica.
En otras palabras, la distribución t es una distribución de probabilidad que estima el valor de la media de una muestra pequeña extraída de una poblaciónque sigue una distribución normal y de la cual no conocemos su desviación típica.
Fórmula de la distribución t de Student
Dada una variable aleatoria continua L, decimos que la frecuencia de sus observaciones puede aproximarse satisfactoriamente a una distribución t con g grados de libertad tal que:
Representación de la distribución t de Student
Función de densidad de una distribución t con 3 grados de libertad (df).
Como podemos ver, la representación de la distribución t se parece mucho a la distribución normal salvo que la distribución normal tiene las colas más anchas y es más apuntalada. En otras palabras, deberíamos añadir más grados de libertad a la distribución t para que la distribución “crezca” y se parezca más a la distribución normal. 
Como podemos ver, la representación de la distribución t se parece mucho a la distribución normal salvo que la distribución normal tiene las colas más anchas y es más apuntalada. En otras palabras, deberíamos añadir más grados de libertad a la distribución t para que la distribución “crezca” y se parezca más a la distribución normal. 
Aplicación de la t de Student
La distribución t se utiliza cuando: 
Queremos estimar la media de una población normalmente distribuida a partir de una muestra pequeña. 
Tamaño de la muestra es inferior a 30 elementos, es decir, n < 30. 
A partir de 30 observaciones, la distribución t se parece mucho a la distribución normal y, por tanto, utilizaremos la distribución normal.
No se conoce la desviación típica o estándar de una población y tiene que ser estimada a partir de las observaciones de la muestra.
Ejemplo
Suponemos que tenemos 28 observaciones de una variable aleatoria G que sigue una distribución t de Student con 27 grados de libertad (df).
Dado que estamos trabajando con datos reales, siempre habrá un error de aproximación entre los datos y la distribución. En otras palabras, la media, mediana y moda no siempre serán cero (0) o exactamente iguales.
Representamos la frecuencia de cada observación de la variable G mediante un histograma. 
La variable aleatoria G puede aproximarse a una distribución t? 
Razones para considerar que la variable G sigue una distribución t: 
La distribución es simétrica. Es decir, existe el mismo número de observaciones tanto a la derecha como a la izquierda del valor central. También, que la media y la mediana tienden a aproximarse al mismo valor. La media es aproximadamente cero, media = 0,016. 
Las observaciones con más frecuencia o probabilidad están alrededor del valor central. Las observaciones con menos frecuencia o probabilidad se encuentran lejos del valor central.
Bibliografía
M, T. ((2018). Distribuciones de Probabilidad Discreta. En Estadística. MEXICO: Pearson. Obtenido de . (2018). Distribuciones de Probabilidad Discreta. En Estadística (pp. 214-217). México:
PIOTR M. WISNIEWSKI, G. B. (1998). EJERCICIOS Y PROBLEMAS DE LA TEORIA DE LAS PROBABILIDADES. TRILLLAS.

Continuar navegando

Materiales relacionados

137 pag.
Capitulo 2 y 3

User badge image

Apuntes Generales

34 pag.
GUIA-DE-ESTADISTICA-2

User badge image

Aprenda aquí

20 pag.
Resúmen Probabilidad - Parcial 2

SIN SIGLA

User badge image

haydee_sisu_1