Logo Studenta

f21734080_Trabajo_Monogr_fico

¡Este material tiene más páginas!

Vista previa del material en texto

pág. 1
30-4-2019
Curso: Estadística y probabilidad
Grupo: 1
Integrantes:
“Año de la lucha contra la corrupción y la impunidad”
Trabajo Monográfico
“Estadística y probabilidad:
Definiciones, Tipos de variables,
teoremas, etc.”
Facultad: Ing. De Sistemas e informáticas
Profesor: Ing. Rafael Gaviria García
Institución: Universidad Nacional de la Amazonia Peruana
Iquitos-Perú
- Ruiz Villaverde Cristian Jair
- Jhunior Isaías Obregon Ríos
- Yaicate Vela Alexis
- Arteaga Pérez Luis Fernando
- Nick Roy Tuisima Oroche
- Poclin Ulloa Gianfranco
- Mejía Sánchez Diego Andrés
- Gómez García Manuel
pág. 2
Contenido
1. LA ESTADÍSTICA ............................................................ 6
1.1 ¿Cuáles son los tipos de estadística? .......................... 6
1.2 Población...................................................................... 7
1.3 Muestra ........................................................................ 7
2. TIPOS DE VARABLES Y ESCALAS DE MEDICIÓN...8
2.1 TIPOS DE VARIABLES ............................................ 8
2.2 Escalas de medición .................................................... 8
3. ANÁLISIS DE VARIABLES CUALITATIVAS............... 9
3.1 Características de las variables cualitativas.............. 9
3.2 Tipos de variables cualitativas ................................... 9
4. ANÁLISIS DE VARIABLES CUANTITATIVAS.......... 10
4.1 Variable discreta ....................................................... 10
4.2 Variable continua ...................................................... 10
4.3 Coeficiente de pearson .............................................. 10
5. GRAFICAS DE VARIABLES CUALITATIVAS Y
CUANTITATIVAS .............................................................. 11
5.1 GRÁfiCOS PARA VARIABLES CUALITATIVAS11
5.2 Gráficos para variables cuantitativas ...................... 12
6. MEDIDAS DE TENDENCIA CENTRAL ....................... 13
6.1 Mediana ..................................................................... 13
6.2 LA MODA ................................................................. 13
6.3 LA MEDIA ................................................................ 13
6.4 MEDIA PONDERADA ............................................ 13
6.5 LA MEDIA ARITMÉTICA ..................................... 14
6.6 EL RANGO MEDIO ................................................ 14
pág. 3
7. MEDIDAS DE DISPERSIÓN, DE POSICIÓN Y FORMA15
7.1 Medidas de Dispersión .............................................. 15
7.2 MEDIDAS DE POSICION....................................... 15
7.3 Medidas de Dispersión .............................................. 17
7.4 Medidas de Forma .................................................... 18
9. EXPERIMENTO ALEATORIO, ESPACIO, MUESTRA,
EVENTOS............................................................................ 20
9.1 Experimento .............................................................. 20
9.2 Espacio muestral (s) .................................................. 20
9.3 Eventos....................................................................... 21
10. LEYES DE LA PROBABLIDAD. ................................. 22
10.1 Ley de la unión. ....................................................... 22
10.2 Ley de la probabilidad contraria o del complemento 22
10.3 Ley de la dependencia de los eventos ..................... 22
10.4 Ley de la independencia de eventos ....................... 22
11. PROBABILIDAD TOTAL Y PROBABILIDAD
CONDICIONAL................................................................... 23
11.1 Teorema de la probabilidad total .......................... 23
12. TEOREMA DE BAYES................................................. 24
13. DISTRIBUCIONES DISCRETAS ................................. 25
13.1 Distribución Binomial Bi (n, p) .............................. 25
13.2 Distribución Geométrica Ge(p) .............................. 25
13.3 Distribución Binomial Negativa (o de Pascal) BN (r, p)
.......................................................................................... 25
13.4 Distribución Poisson P (λ) ...................................... 25
13.5 Distribución Hipergeométrica H (N, r, m) ............ 25
14. DISTRIBUCIÓN BINOMIAL........................................ 26
pág. 4
14.1 Las distribución binomial....................................... 26
14.2 distribución de Bernouiili ....................................... 26
14.3 La distribución binomial ........................................ 26
14.4 La distribución de probabilidad ............................ 26
15. LA DISTRIBUCIÓN DE POISSON .............................. 27
15.1 Propiedades del modelo de Poisson ....................... 27
BIBLIOGRAFÍA: ................................................................. 28
pág. 5
INTRODUCCIÓN
La Estadística actúa como disciplina puente entre los modelos matemáticos y los
fenómenos reales.
Un modelo matemático es una abstracción simplificada de una realidad más compleja y
siempre existirá una cierta discrepancia entre lo que se observa y lo previsto por el modelo.
La Estadística proporciona una metodología para evaluar y juzgar estas
discrepancias entre la realidad y la teoría.
RESUMEN
En esta monografía trataremos temas importantes e la estadística y la probabilidad, los
cuales son: Estadística, Población y muestra, Tipos de variabl4sy escalas de medición,
Análisis de variables, Medidas de tendencia central, leyes de probabilidad, teorema de
Bayes, distribuciones discretas, distribución Binomial y de Poisson, entre otros. Donde
explicaremos paso a paso su funcionamiento, importancia, implementación y aplicación en
la vida real con ejemplos.
pág. 6
1. LA ESTADÍSTICA
La Estadística actúa como disciplina puente entre los modelos matemáticos y los
fenómenos reales.
Un modelo matemático es una abstracción simplificada de una realidad más compleja y
siempre existirá una cierta discrepancia entre lo que se observa y lo previsto por el modelo.
La Estadística proporciona una metodología para evaluar y juzgar estas discrepancias entre
la realidad y la teoría.
1.1 ¿Cuáles son los tipos de estadística?
Básicamente se tienen dos tipos de estadística, a saber:
1.1.1 Estadística descriptiva
Se puede definir como un método para describir numéricamente conjuntos numerosos. Por
tratarse de un método de descripción numérica, utiliza el número como medio para describir
un conjunto, que debe ser numeroso, ya que las permanencias estadísticas no se dan en los
casos raros. No es posible sacar conclusiones concretas y precisas de los datos estadísticos.
1.1.1.1 Objetivo de la estadística descriptiva
La finalidad última de la estadística descriptiva es resumir la información de conjuntos más o
menos numerosos de datos. Para ello se asienta en un concepto inmediato a la tarea de
recuento: la frecuencia, medida empírica de la ocurrencia de los distintos estados que puede
presentar una variable.
1.1.2 Estadística inferencial, analítica o deductiva
Estudia la probabilidad de éxito de las diferentes soluciones posibles a un problema en las
diferentes ciencias en las que se aplica y para ello utiliza los datos observados en una o varias
muestras de la población. Mediante la creación de un modelo matemático infiere el
comportamiento de la población total partiendo de los resultados obtenidos en las
observaciones de las muestras.
1.1.2.1 Objetivo de la estadística inferencial
La inferencia estadística intenta tomar decisiones basadas en la aceptación o el rechazo de
ciertas relaciones que se toman como hipótesis. Esta toma de decisiones va acompañada de
un margen de error, cuya probabilidad está determinada.
La estadística inferencial tiene dos objetivos básicos; a) obtener conclusiones válidas acerca
de una población sobre la base de una muestra, es decir, que las conclusiones que
obtengamos de una muestra se puedan extrapolar a la población que dio origen a esa
muestra y b) poder medir el grado de incertidumbre presente endichas inferencias en
términos de probabilidad.
pág. 7
A continuación se definen algunos de los términos más usados en estadística:
1.2 Población. Es el conjunto de todos los posibles elementos que intervienen en un
experimento o en un estudio. La hay de dos tipos
 1.2.1 Población finita. Es aquella que indica que es posible alcanzarse o
sobrepasarse al contar. Es aquella que posee o incluye un número limitado de medidas
y observaciones.
 1.2.2 Población infinita. Es infinita si se incluye un gran conjunto de medidas y
observaciones que no pueden alcanzarse en el conteo. Son poblaciones infinitas
porque hipotéticamente no existe límite en cuanto al número de observaciones que
cada uno de ellos puede generar.
1.3 Muestra: Subconjunto finito de una población. El número de individuos que forman
la muestra se denomina tamaño maestral.
1.3.1 ¿Por qué seleccionamos una muestra?
En la práctica no va a ser posible estudiar todos los elementos de la población, por
varias razones:
 El estudio puede implicar la destrucción del elemento (estudio de la vida media
de una partida de bombillas, estudio de la tensión de rotura de unos cables…)
 Los elementos pueden existir conceptualmente, pero no en realidad (población
de piezas defectuosas que producirá una máquina en su vida útil).
 Puede ser inviable económicamente estudiar a toda la población.
 El estudio llevaría tanto tiempo que sería impracticable e incluso las propiedades
de la población podrían variar con el tiempo.
Muestreo aleatorio simple.
1.3.2 Tipos de muestreo Muestreo estratificado.
Muestreo por conglomerados.
pág. 8
2. TIPOS DE VARABLES Y ESCALAS DE MEDICIÓN
2.1 TIPOS DE VARIABLES :
Es muy probable que un especialista en Estadística que realiza una encuesta desee
desarrollar un instrumento que le permita hacer varias preguntas y manejar diversos
fenómenos o características. A estos fenómenos o características se les denomina
variables aleatorias.
Según la forma en que se expresen las variables, se dividen en:
2.1.1 Variables Cualitativas: Son aquellas que pueden expresarse sólo en forma de
atributo. Ejemplo: Estado civil: soltero, casado, viudo,
separado.
2.1.2 Variables Cuantitativas: Son aquellas variables que pueden expresarse en forma
numérica. Se dividen en discretas y continuas.
2.1.3 Variables Cuantitativas: Son respuestas numéricas que surgen de un proceso de
conteo, siendo siempre un número entero. Ejemplo:
Número de asignaturas inscritas en el primer semestre.
2.1.4 Variables Cuantitativas Continuas: Son respuestas numéricas que surgen de un
proceso de medición, las cuales pueden tomar valores entre
dos números enteros. Ejemplo: Estatura, Temperatura,
Peso.
2.2 Escalas de medición
Uno de los elementos fundamentales de la definición de una variable es el tipo de escala que
utilizaremos para medirla. En función de la escala elegida decidiremos su codificación,
tratamiento informático y estadístico.
Hay cuatro tipos de escalas de medición, que ordenadas en orden creciente de potencia,
según la proporción de información que contienen, son:
2.2.1 Nominal: Consta de dos o más categorías mutuamente excluyentes. Si solo hay dos,
se llama escala nominal dicotómica. Ejemplo: Sexo: masculino; femenino
2.2.2 Ordinal: sus categorías están ordenadas por rango; cada clase posee una misma
relación posicional con la siguiente. Ejemplo: Clase social: baja, media, alta.
2.2.3 De intervalos: Los intervalos entre sus clases son iguales. Diferencias iguales entre
cualquier par de números de la escala indican diferencias también iguales en el atributo
sometido a medición. Ejemplo: la diferencia de temperatura entre una habitación a 22
grados centígrados y otra a 26 es la misma que la existente entre dos a 33 y 37 grados
centígrados, respectivamente.
2.2.4 De razones o ratios: El cero sí indica ausencia de atributo. En consecuencia, la razón
entre dos números de la escala es igual a la existente entre las cantidades del atributo
medido. Ejemplo: Peso: medido en kilogramos.
pág. 9
3. ANÁLISIS DE VARIABLES CUALITATIVAS.
3.1 Características de las variables cualitativas:
Algunas características notables de la variable Cualitativa son las que se encuentran a
continuación:
 Su principal característica es que una variable cualitativa no se puede medir
numéricamente.
 No da datos específicos y a veces tampoco en orden, pero especifica una condición,
cualidad o característica de cualquier artificio matemático.
 Cuando el valor que toma dichas variables son solamente dos valores, se llama
dictómica.
 En el caso de que se distinguen tres valores o más se le distingue como una politómica.
3.2 Tipos de variables cualitativas:
Entre las variables cualitativas encontramos tres tipos: la nominal, ordinaria y binaria.
 3.2.1 Nominal
En este caso la variable no es representada por números ni tampoco tiene algún tipo de orden,
así que es menos precisa en lo que matemáticamente se refiere.
Por ejemplo, los colores: Negro, Azul, Rojo, Amarillo, Naranja, etc.
 3.2.2 Ordinaria
La variable cualitativa ordinaria también conocida como variable cuasicuantitativa también es
representada por una modalidad que no requiere números, pero si existe un orden o un
puesto.
Por ejemplo, nivel socioeconómico: Alto, medio bajo.
 3.2.3 Binaria
En este caso la variable intenta tomar algún valor específico ya sea de 0 ó 1.
Por ejemplo, sexo de una persona: Masculino o Femenino.
Ejemplos de variables cualitativas
Algunos ejemplos que nos pueden ayudar a identificar una variable cualitativa son los que se
encuentran en las siguientes líneas.
 Estado civil: Soltero, Casado, Viudo, etc.
 La sed de una persona: Mucha, poca o nada.
 Calificación no numérica de un examen: Aprobado, sobresaliente, aceptado,
reprobado.
 Color de ojos: Marrones, azules, verde, etc.
 Profesión: Arquitecto, Médico, Ingeniero, Abogado, etc.
pág. 10
4. ANÁLISIS DE VARIABLES CUANTITATIVAS
Son las variables que toman como argumento cantidades numéricas, son variables
matemáticas. Las variables cuantitativas además pueden ser:
4.1 Variable discreta: Es la variable que presenta separaciones o interrupciones en la
escala de valores que puede tomar. Estas separaciones o interrupciones indican la
ausencia de valores entre los distintos valores específicos que la variable pueda asumir.
Ejemplo: El número de hijos (1, 2, 3, 4, 5).
4.2 Variable continua: Es la variable que puede adquirir cualquier valor dentro de un
intervalo especificado de valores. Por ejemplo la masa (2,3 kg, 2,4 kg, 2,5 kg,...) o la altura
(1,64 m, 1,65 m, 1,66 m,...), o el salario. Solamente se está limitado por la precisión del
aparato medidor, en teoría permiten que exista indefinidos valores entre dos variables.
4.3 Coeficiente de pearson
Es el índice numérico más común usado para medir una correlación, también se le conoce
como coeficiente de relación producto-momento, se representa con el símbolo 'r' y
proporciona una medida numérica de la correlación entre las dos variables. El coeficiente de
Pearson se define así:
También nos indica:
1. Si dos variables parecen estar correlacionadas o no
2. La fuerza de la aparente relación
3. Si la aparente relación es positiva o negativa
Valores del coeficiente de Pearson de correlación:
 r=0: ninguna correlación
 r=1: correlación positiva perfecta
 0 < r < 1: correlación positiva
 r= -1: correlación negativa perfecta
 1 < r < o: correlación negativa
Los signos positivos y negativos indican si el valor de una variable aumenta o disminuye,
respectivamente, con el aumento en el valor de la otra variable:
 Cuando los aumentos/disminuciones de una variable producen
aumentos/disminuciones en la otra, la relación es positiva.
 Es negativa cuando los aumentos/disminuciones de una variable producen
disminuciones/ aumentos en la otra.
pág. 11
Curso 1
33%
Curso 2
33%
Curso 3
24%
Curso 4
10%
GRAFICOS DE SECTORES
Curso 1
Curso 2
Curso 3
Curso 4
5. GRAFICAS DE VARIABLES CUALITATIVAS Y
CUANTITATIVAS
5.1 GRÁfiCOS PARA VARIABLES CUALITATIVAS.Los gráficos más usuales para representar variables de tipo nominal son los siguientes:
5.1.1 Diagramas de barras: Se representa en el eje de ordenadas las modalidades y en
abscisas las frecuencias absolutas o las frecuencias relativas. Si se intentan comparar varias
poblaciones entre sí, usando el diagrama, existen otras modalidades. Cuando los tamaños
de las dos poblaciones son diferentes, es conveniente utilizar las frecuencias relativas, ya que
en otro caso podrían resultar engañosas.
Figura 1. Diagrama de barras para una variable cualitativa.
Figura 2. Diagrama de barras para una variable cualitativa.
5.1.2 Diagramas de sectores (tartas). Se divide un círculo en tantas porciones como
clases existan, de modo que a cada clase le corresponde un arco de círculo proporcional a su
frecuencia absoluta o relativa.
El arco de cada porción se calcula
usando la siguiente regla de tres:→ °
→ = °.
0
20
40
CURSO 1 CURSO 2 CURSO 3 CURSO 4
DIAGRAMA DE BARRAS
PORCENTAJE
0
10
20
Curso 1 Curso 2 Curso 3 Curso 4
GRÁFICOS DE BARRAS
Turno 1 Turno 2
pág. 12
5.2 Gráficos para variables cuantitativas.
Para las variables cuantitativas, consideraremos dos tipos de gráficos, en función de que para
realizarlos se usen las frecuencias (absolutas o relativas) o las frecuencias acumuladas.
Diagramas diferenciales: Son aquellos en los que se representan frecuencias absolutas o
relativas. En ellos se representa el número o porcentaje de elementos que presenta una
modalidad dada.
Diagramas integrales: Son aquellos en los que se representan el número de elementos que
presentan una modalidad inferior o igual a una dada. Se realizan a partir de las frecuencias
acumuladas, lo que da lugar a gráficos crecientes. Obviamente, este tipo de gráficos no tiene
sentido para variables cualitativas.
Ejemplo:
Se lanzan tres monedas al aire en 8 ocasiones y se contabiliza el número de caras, X,
obteniéndose los siguientes resultados: X →2, 1, 0, 1, 3, 2, 1, 2. Representar gráficamente el
resultado.
Solución: En primer lugar, observamos que la variable X es cuantitativa discreta,
presentando las modalidades: X ∈ 0, 1, 2, 3.
Diagrama diferencial (barras) e integral para una variable discreta. Obsérvese que el
diagrama integral (creciente) contabiliza el número de observaciones de las variables
inferiores o iguales a cada punto del eje de abscisas.
Xi ni fi Ni Fi
0 1 1 / 8 1 1 / 8
1 3 3 / 8 4 4 / 8
2 3 3 / 8 7 7 / 8
3 1 1 / 8 8 8 / 8
n = 8 1
pág. 13
6. MEDIDAS DE TENDENCIA CENTRAL
6.1 Mediana
La mediana es un valor de la variable que deja por debajo de sí a la mitad de los datos, una
vez que éstos están ordenados de menor a mayor. Por ejemplo, la mediana del número de
hijos de un conjunto de trece familias, cuyos respectivos hijos son: 3, 4, 2, 3, 2, 1, 1, 2, 1, 1,
2, 1 y 1, es 2, puesto que, una vez ordenados los datos: 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4, el
que ocupa la posición central es 2:
6.2 LA MODA
La moda es el dato más repetido de la encuesta, el valor de la variable con mayor frecuencia
absoluta. En cierto sentido la definición matemática corresponde con la locución "estar de
moda", esto es, ser lo que más se lleva.
Su cálculo es extremadamente sencillo, pues solo necesita un recuento. En variables
continuas, expresadas en intervalos, existe el denominado intervalo modal o, en su defecto,
si es necesario obtener un valor concreto de la variable, se recurre a la interpolación.
Por ejemplo, el número de personas en distintos vehículos en una carretera: 5-7-4-6-9-5-6-1-
5-3-7. El número que más se repite es 5, entonces la moda es 5.
6.3 LA MEDIA
Formaliza el concepto intuitivo de punto de equilibrio de las observaciones. Es decir, es el
punto medio del recorrido de la variable según la cantidad de valores obtenidos.
Ese valor tiene varias propiedades importantes.
1) Si se suma la distancia de todos los valores respecto de la media, esa suma da cero.
2) Si se toman una cantidad de cualquiera de los conjuntos de valores, cada uno con su
respectiva media, la media del conjunto general es igual a la suma de cada una de las un
conjunto de valores de una variable a partir de tomar la distancia de las observaciones a un
valor cualquiera (pertenezca o no al recorrido de la variable)
3) Si a un conjunto de observaciones de una variable se le realiza una operación matemática
usando un valor constante, entonces la media del nuevo grupo de valores así obtenidos es
igual a la aplicación de la misma operación matemática usando ese valor constante sobre la
media original.
6.4 MEDIA PONDERADA
En algunas series estadísticas, no todos los valores tienen la misma importancia. Entonces,
para calcular la media se ponderan dichos valores según su peso, con lo que se obtiene una
media ponderada.
Si se tiene una variable con valores x1, x2,..., xn, a los que se asigna un peso mediante valores
numéricos p1, p2,..., pn, la media ponderada se calculará como sigue:
pág. 14
6.5 LA MEDIA ARITMÉTICA
La media aritmética es el valor obtenido por la suma de todos sus valores dividida entre el
número de sumadores.
Por ejemplo, las notas de 5 alumnos en una prueba:
Niño Nota
1 6.0
2 5.4
3 3.1
4 7.0
5 6.1
 Primero, se suman las notas:
6.0 + 5.4 + 3.1 + 7.0 + 6.1 = 27.6 {\displaystyle 6.0+5.4+3.1+7.0+6.1=27.6}
 Luego el total se divide entre la cantidad de alumnos:
27.6 5 = 5.52 {\displaystyle {\frac {27.6} {5}}=5.52}
La media aritmética en este ejemplo es 5.52.
6.6 EL RANGO MEDIO
El rango medio es el promedio de las observaciones menores y mayores de una serie de
datos.
El rango medio a menudo es usado como una medición de resumen tanto por analistas
financieros como por reporteros meteorológicos, puesto que puede proporcionar una
medición adecuada, rápida y simple para caracterizar toda una serie de datos, como por
ejemplo todo una serie de lecturas registradas de temperatura por horas durante todo un día.
pág. 15
7. MEDIDAS DE DISPERSIÓN, DE POSICIÓN Y FORMA
7.1 Medidas de Dispersión
Las Medidas de Dispersión tienen como objetivo cuantificar la variabilidad de los datos.
Recorrido, Recorrido Intercuartılico, Recorrido Semi intercuartilico, Varianza, Desviación
Típica, Cuasivarianza, Coeficiente de Variación.
Recorrido: Es la diferencia entre el máximo y el mínimo de los valores de la variable aleatoria.
R = máx (X) – min (X).
Recorrido Intercuartılico: Longitud de un intervalo central que contiene el 50% de las
observaciones. Anchura de la caja en un diagrama Box Plot:
RI = Q3 −Q1.
Recorrido Semiintercuartılico: Corresponde con la mitad del anterior.
RSI = RI/2.
7.2 MEDIDAS DE POSICION
Las Medidas de Posición tienen por objetivo proporcionar valores en torno a los cuales se
encuentran las observaciones.
Algunas de ellas se denominan “Medidas de Tendencia Central”, porque suelen situarse en
torno al centro de los datos.
 Media: Aritmética, Ponderada, Geométrica, Armónica.
 Mediana.
 Moda.
 Cuartiles y Percentiles.
 Media Aritmética
7.2.1 Media Aritmética: Se define como la suma de los datos dividida por el número de ellos.
7.2.2 Media Ponderada:
La media ponderada se utiliza en los casos en los que no todas las observaciones tienen la
misma importancia.
Para tener en cuenta la importancia se asigna a cada observación un peso, wi.
pág. 16
7.2.3 Media Geométrica
Cuando trabajamos con valores observados positivos:
7.2.4 Media Armónica: Se toman los inversos de los datos, se promedian y por último se
toma el inverso de ese promedio.
7.2.5 Mediana
Es el valor de la variable estadística que deja igual número de observaciones a su derecha que
a su izquierda. Ordenando los datos de menor a mayor, la mediana será el dato central o el
promedio de los centrales (tamaño par).
1, 1, 1, 2, 2, 2, 3, 3, 4, 5, 5, 6, 6, 6, 8 1, 1, 2, 2, 2, 3, 3, 4, 5, 5, 6, 6,
6, 8
En el caso de datos agrupados, lo más adecuado es hablar del intervalo mediano.
Gráficamente la mediana se obtendría:
Mediante semejanza de triángulos:
pág. 17
7.2.6 Moda
Es el valor de la variable estadística que se presenta con mayor frecuencia.No tiene por qué
ser única y puede no poderse calcular.
Ejemplo:
1, 1, 2, 2, 2, 2, 3, 3, 4, 5, 5, 6, 6, 6, 8
Moda = 2
7.2.7 Cuartiles
Qk para k = 1, 2, 3, se define Cuartil k−ésimo como el valor de la variable que deja inferiores o
iguales a ´el las k/4 partes de las observaciones.
Q2 = Me
Ejemplo:
1, 1, 2, 2, 2, 3, 3, 4,4, 5, 5, 5, 6, 6, 6, 8
n = 16
Q1 deja inferiores o iguales a ´el, 1/4 de las observaciones, 4.
Q2 deja inferiores o iguales a ´el, 1/2 de las observaciones, 8.
Q3 deja inferiores o iguales a ´el, 3/4 de las observaciones,12.
7.2.8 Percentiles
El k−ésimo Percentil Pk, se define como el valor de la variable estadística que deja inferiores o
iguales a él las k/100 observaciones.
P25 = Q1, P50 = Q2 = Me, P75 = Q3.
Para datos agrupados el cálculo es análogo al de la mediana:
Siendo (bi, bi+1) el intervalo de clase que contiene Pk.
7.3 Medidas de Dispersión
Las Medidas de Dispersión tienen como objetivo cuantificar la variabilidad de los datos.
- Recorrido, Recorrido Intercuartílico, Recorrido Semi intercuartilico.
- Varianza, Desviación Típica, Cuasivarianza.
- Coeficiente de Variación.
pág. 18
7.3.1 Recorrido
- Recorrido: es la diferencia entre el máximo y el mínimo de los valores de la variable aleatoria.
R = máx(X) − mín(X).
- Recorrido Intercuartílico: Longitud de un intervalo central que contiene el 50% de las
observaciones. Anchura de la caja en un diagrama Box Plot.
RI = Q3 − Q1.
- Recorrido Semi intercuartílico: Corresponde con la mitad del anterior.
RSI = RI/2.
7.4 Medidas de Forma
7.4.1 Asimetría
Definiremos Asimetría Positiva cuando Md_Me_ x.
Esto queda reflejado en el diagrama de barras o en un histograma presentando la distribuci´on de los
datos una cola a la derecha.
Definiremos Asimetría Negativa cuando x _Me_Md.
Esto queda reflejado en el diagrama de barras o en un histograma presentando la distribución de los
datos una cola a la izquierda.
El coeficiente de Asimetría (de Fisher) se define:
Asimetría Negativa
g1 = - 1.66
g1 =1.85
Asimetría Positiva
g1 = 1.85
g1 =1.85
pág. 19
7.4.2 Simétrica
g1 = 0.028
pág. 20
9. EXPERIMENTO ALEATORIO, ESPACIO, MUESTRA, EVENTOS
9.1 Experimento
Al hablar de experimentos se hace de la manera más amplia posible, es decir, no sólo incluyen
hechos asociados a situaciones experimentales en un laboratorio, sino también se contemplan
cualesquiera otras situaciones que den origen a sucesos de interés.
9.1.2 Experimentos determinísticos: También llamados exactos, los cuales se
caracterizan porque cada vez que se realizan bajo condiciones similares, producen el mismo
resultado. Estos fenómenos no son de interés para la Estadística.
En general a la ciencia Estadística, y en particular a la teoría de la probabilidad, les interesa
y fundamentan su desarrollo y aplicación en los denominados experimentos aleatorios.
9.1.3 Experimento aleatorio: Es cualquier acción o proceso que no se tiene certeza de su
resultado final, hasta tanto no se ejecute. Este tipo de experimento debe satisfacer con los
siguientes requerimientos:
 Puede repetirse un número ilimitado de veces bajo las mismas condiciones.
 Es posible conocer por adelantado todos los posibles resultados a que puede dar origen.
 No puede predecirse con exactitud un resultado en una realización particular del
experimento.
Ejemplo
Si se desea formar un equipo de voleibol con 5 jugadores, el nombre de los seleccionados no
se sabrá con certeza hasta que no se realicen las correspondientes y se elijan a los 5
deportistas. Se puede conocer la lista de todas las pruebas deportistas inscritos, pero no la
lista de los seleccionados.
9.2 Espacio muestral (s)
De un experimento aleatorio, es el conjunto de todos los posibles resultados al realizar el
experimento.
pág. 21
9.3 Eventos
Es un subconjunto del espacio muestral.
Ejemplo:
A la lanza un dado una vez
E = en la cara superior aparece un numero par.
E = {2, 4, 6}
Ejercicios.
Hallar el especio muestral de cada uno de los siguientes experimentos:
a. El papá de un bebé próximo a nacer quiere que su hijo se llame Juan, Camilo o Felipe. La
mamá por su parte, pretende que se llame Andrés o Pablo. Para que ambos queden felices
deciden combinar los nombres propuestos, considerando que primero irá el del papá y,
luego, el de la mamá ¿De cuántas formas diferentes se pueden proponer un nombre para
el bebé?
b. Los candidatos para formar la nueva junta del consejo comunal son Carlos, Josefa, Elías y
Marina. Se requiere que la junta esté compuesta por un presidente y un secretario ¿De
cuántas formas se puede formar esta junta?
Solución a
¡El espacio muestra! serán todas- las combinaciones que se puedan armar con los 3 nombres
que propone el papá y los 2 que propone/la mamá; se debe tener en cuenta que primero ira
el del papá y luego el de la madre. Por lo tanto, tenemos:
S= {Juan Andrés, Juan Pablo, Camilo Andrés, Camilo Pablo, Felipe Andrés, Felipe
Pablo}
Solución b
Sean: C=Carlos, J=Josefa, E=Elías, M=Marina
¡En el espacio muestra! se debe considerar el orden en que se seleccione la junta.
S={(C,J), (J,C ), (C,E), (E,C), (C,M), (M,C), (J,E), (E,J), (J,M), (M,J), (E.M), (M,E)}
pág. 22
10. LEYES DE LA PROBABLIDAD.
La probabilidad es un método mediante el cual se obtiene la frecuencia de un suceso
determinado mediante la realización de un experimento aleatorio, del que se conocen todos
los resultados posibles, bajo condiciones suficientemente estables.
Existen dos leyes:
10.1 Ley de la unión.
La probabilidad de una unión de eventos, la cual la podremos calcular de la siguiente manera:
Propiedad 1.
Si A y B son dos eventos, la probabilidad de que ocurra A o B es igual a la suma de las
probabilidades de ocurrencia de A y de B, menos la probabilidad de que ocurran A y B
simultáneamente. Es decir: ( ∪ ) = ( ) + ( ) − ( ∩ )
Propiedad 2.
Ahora, si el caso es que los eventos sean mutuamente excluyentes se tiene:
Si dos eventos, A y B, son mutuamente excluyentes entonces la probabilidad de que ocurra
A o B es igual a la suma de las probabilidades de ocurrencia de A y de B. Es decir( ∪ ) = ( ) + ( )
10.2 Ley de la probabilidad contraria o del complemento.
Otra propiedad que se deriva de las anteriores es cuando se busca la probabilidad del
complemento de un evento E, que denotaremos como ~E:
Si E es un evento y ~E su complemento, entonces(~ ) = − ( )
10.3 Ley de la dependencia de los eventos.
La probabilidad de que ocurra un evento A dado que ocurrió el evento B (el evento A
depende del evento B), denotado P(A|B), es:( | ) = ( ∩ )/ ( )
Esta propiedad no es conmutativa, situación que sí ocurre con la probabilidad de unión o la
intersección de eventos, por lo que no hay que confundir P(A|B) y P(B|A).
10.4 Ley de la independencia de eventos.
Dos eventos A y B son independientes si y sólo si( | ) = ( ) ( | ) = ( )
o, que es lo mismo: ( ) = ( ) · ( )
pág. 23
11. PROBABILIDAD TOTAL Y PROBABILIDAD CONDICIONAL
11.1 Teorema de la probabilidad total: Nos permite calcular la probabilidad de un suceso
a partir de probabilidades condicionadas:
Ejemplo: supongamos que si llueve la probabilidad de que ocurra un accidentes es x% y si
hace buen tiempo dicha probabilidad es y%. Este teorema nos permite deducir cuál es la
probabilidad de que ocurra un accidente si conocemos la probabilidad de que llueva y la
probabilidad de que haga buen tiempo.
La fórmula para calcular esta probabilidad es:
La probabilidad de que ocurra el suceso B (en nuestro ejemplo, que ocurra un accidente) es
igual a la suma de multiplicar cada una de las probabilidades condicionadas de este
suceso con los diferentes sucesos A (probabilidad de un accidente cuando llueve y cuando
hace buen tiempo) por la probabilidad de cada suceso A.
Para que este teorema se pueda aplicar hace falta cumplir un requisito:
Los sucesos A tienen que formar un sistema completo, es decir, que contemplen todas
las posibilidades (la suma de sus probabilidades debe ser el 100%).
11.2 Probabilidad condicionada: Se calculan una vez que se ha incorporado información
adicionala la situación de partida:
Ejemplo: se tira un dado y sabemos que la probabilidad de que salga un 2 es 1/6 (probabilidad
a priori). Si incorporamos nueva información (por ejemplo, alguien nos dice que el resultado
ha sido un número par) entonces la probabilidad de que el resultado sea el 2 ya no es 1/6.
Las probabilidades condicionadas se calculan aplicando la siguiente fórmula:
Donde:
P (B/A) es la probabilidad de que se dé el suceso B condicionada a que se haya dado el
suceso A.
P (B L A) es la probabilidad del suceso simultáneo de A y de B
P (A) es la probabilidad a priori del suceso A … En el ejemplo que hemos visto:
P (B/A) es la probabilidad de que salga el número 2 (suceso B) condicionada a que haya salido
un número par (suceso A).
P (B L A) es la probabilidad de que salga el dos y número par.
P (A) es la probabilidad a priori de que salga un número par.
Por lo tanto:
P (B L A) = 1/6
P (A) = 1/2
P (B/A) = (1/6) / (1/2) = 1/3
Luego, la probabilidad de que salga el número 2, si ya sabemos que ha salido un número
par, es de 1/3 (mayor que su probabilidad a priori de 1/6)
pág. 24
12. TEOREMA DE BAYES
El teorema de Bayes, en la teoría de la probabilidad, es una proposición planteada por el
matemático inglés Thomas Bayes (1702-1761) y publicada póstumamente en 1763, que
expresa la probabilidad condicional de un evento aleatorio A dado B en términos de la
distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad
marginal de sólo A.
En términos más generales y menos matemáticos, el teorema de Bayes es de enorme
relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A.
Es decir, por ejemplo, que sabiendo la probabilidad de tener un dolor de cabeza dado que se
tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se
tiene un dolor de cabeza. Muestra este sencillo ejemplo la alta relevancia del teorema en
cuestión para la ciencia en todas sus ramas, puesto que tiene vinculación íntima con la
comprensión de la probabilidad de aspectos causales dados los efectos observados.
Formula
Con base en la definición de Probabilidad condicionada se obtiene la Fórmula de Bayes,
también conocida como la Regla de Bayes:
Si conocemos la probabilidad de B en cada uno de los componentes de un sistema exhaustivo
y excluyente de sucesos, entonces…
…si ocurre B, podemos calcular la probabilidad (a posteriori) de ocurrencia de cada A
donde P(B) se puede calcular usando el teorema de la probabilidad total:
P(B)=P(B∩A1) + P(B∩A2 ) + P( B∩A3 ) + ( B∩A4 )
=P(B|A1) P(A1) + P(B|A2) P(A2) + …
Aplicaciones
1. El diagnóstico de cáncer.
2. Evaluación de probabilidades durante el desarrollo de un juego de bridge por Dan F. Waugh
y Frederick V. Waugh.
3. Probabilidades a priori y a posteriori.
4. Un uso controvertido en la Ley de sucesión de Laplace.3
5. En el testeo de hipótesis en Ciencia Política cuando se usa metodología process tracing.
pág. 25
13. DISTRIBUCIONES DISCRETAS
13.1 Distribución Binomial Bi (n, p)( ) = (1 − ) =0, 1…n y 0 < p <1( ) =( ) = (1 − )( ) = (1 + − 1 )
Un caso particular de la distribución binomial e s cuando n = 1. Esta d i s t r i b u c i ó n
suele denominarse Bernoulli de parámetro p, Be (p) = Bi (1, p)
13.2 Distribución Geométrica Ge(p)( ) = (1 − ) = 1, 2, … 0 < < 1( ) = 1
( ) = 1 −
13.3 Distribución Binomial Negativa (o de Pascal) BN (r, p)
( ) = − 1− 1 (1 − ) = , + 1, … 0 < < 1( ) =( ) = (1 − )
La distribución geométrica es un caso particular de la distribución binomial negativa:
Ge(p) = BN (1, p).
13.4 Distribución Poisson P (λ)( ) = ! = 0,1,2, … > 0( ) =( ) =( ) = ( ( ) )
13.5 Distribución Hipergeométrica H (N, r, m)
N: total población
R: cantidad de “buenos” en la población
M: cantidad de elementos extraídos (tamaño de la muestra)( ) = max( + − ,0) ≤ ≤ min( , )( ) =( ) = ( − ) − )( − 1)
pág. 26
14. DISTRIBUCIÓN BINOMIAL
14.1 Las distribución binomial parte de la distribución de Bernouilli:
14.2 distribución de Bernouiili se aplica cuando se realiza una sola vez un experimento
que tiene únicamente dos posibles resultados (éxito o fracaso), por lo que la variable sólo
puede tomar dos valores: el 1 y el 0.
14.3 La distribución binomial se aplica cuando se realizan un número"n" de veces el
experimento de Bernouiili, siendo cada ensayo independiente del anterior. La variable puede
tomar valores entre:
0: si todos los experimentos han sido fracaso
n: si todos los experimentos han sido éxitos
Ejemplo: se tira una moneda 10 veces: ¿cuantas caras salen? Si no ha salido ninguna la
variable toma el valor 0; si han salido dos caras la variable toma el valor 2; si todas han sido
cara la variable toma el valor 10
14.4 La distribución de probabilidad de este tipo de distribución sigue el siguiente
modelo:
¿Alguien entiende esta fórmula? Vamos a tratar de explicarla con un ejemplo:
Ejemplo 1: ¿Cuál es la probabilidad de obtener 6 caras al lanzar una moneda 10 veces?
" k " es el número de aciertos. En este ejemplo " k " igual a 6 (en cada acierto decíamos que
la variable toma el valor 1: como son 6 aciertos, entonces k = 6)
" n" es el número de ensayos. En nuestro ejemplo son 10
" p " es la probabilidad de éxito, es decir, que salga "cara" al lanzar la moneda. Por lo tanto
p = 0,5
La fórmula quedaría:
Luego,
P (x = 6) = 0,205
Es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10 veces una
moneda.
pág. 27
15. LA DISTRIBUCIÓN DE POISSON
Se trata de un modelo discreto, pero en el que el conjunto de valores con probabilidad no nula
no es finito, sino numerable. Se dice que una variable aleatoria X sigue la distribución de
Poisson si su función de densidad viene dada por:
Como vemos, este modelo se caracteriza por un sólo parámetro λ, que debe ser positivo.
Esta distribución suele utilizarse para contajes del tipo número de individuos por unidad de
tiempo, de espacio, etc.
15.1 Propiedades del modelo de Poisson
1) Esperanza: E(X) = λ.
2) Varianza: V(X) = λ.
En esta distribución la esperanza y la varianza coinciden.
3) La suma de dos variables aleatorias independientes con distribución de Poisson resulta en
una nueva variable aleatoria, también con distribución de Poisson, de parámetro igual a la
suma de parámetros:
X1 ~ P(λ = λ1) y X2 ~ P(λ = λ2)
y definimos Z = X1 + X2, entonces,
Z ~ P(λ = λ1 + λ2)
Este resultado se extiende inmediatamente al caso de n variables aleatorias independientes
con distribución de Poisson. En este caso, la variable suma de todas ellas sigue una
distribución de Poisson de parámetro igual a la suma de los parámetros.
pág. 28
BIBLIOGRAFÍA:
https://es.slideshare.net/CynthiaOt_Blog/teorema-de-bayes-
probabilidad-total-probabilidad.
https://es.wikipedia.org/wiki/Teorema_de_la_probabilidad_total
https://www.gestiopolis.com/que-es-estadistica-tipos-y-objetivos/
https://www.aulafacil.com/cursos/estadisticas/gratis/distribucion-de-
probabilidades-distribuciones-discretas-bernouilli-l11239
Probabilidad y Estadistica para ingenieria y ciencias
Walpole Myers
pág. 29

Continuar navegando

Materiales relacionados

44 pag.
Estadistica Descriptiva

SIN SIGLA

User badge image

Vale Clau

20 pag.
Resúmen Probabilidad - Parcial 2

SIN SIGLA

User badge image

haydee_sisu_1

181 pag.
Guia_EEII

User badge image

Aprendiendo Juntos

133 pag.
Apuntes 2016 (1) (1)

SIN SIGLA

User badge image

lizethsalin748