Logo Studenta

Resumen_Probabilidad_y_Estadistica

¡Este material tiene más páginas!

Vista previa del material en texto

1 
 
Unidad N°1 
Introducción a la Estadística 
ESTADÍSTICA: Es una parte de la matemática que estudia cómo vamos a recolectar, organizar, resumir y presentar 
información para analizar datos desde los cuales vamos a poder sacar conclusiones válidas y tomar decisiones basadas 
en el análisis. Su importancia es que nos permite tener un panorama completo de la situación u objeto de estudio. 
También nos permite Recolectar, Organizar, Procesar, Analizar e Interpretar datos. El uso o la aplicación de conceptos 
de probabilidad permite interpretar la vida cotidiana a partir de los resultados de la inferencia estadística. Podríamos 
por tanto clasificar o dividir la estadística en: 
• Estadística descriptiva: Describe, analiza y representa un grupo de datos, utilizando métodos numéricos y gráficos 
que resumen y presentan la información contenida en ellos. 
• Estadística inferencial: Apoyándose en el cálculo de probabilidades y a partir de datos muestrales, efectúa 
estimaciones, decisiones, predicciones u otras generalizaciones sobre un conjunto mayor de datos. 
Para obtener una estadística analizamos lo siguiente: 
• ELEMENTOS: personas u objetos que contienen cierta información que se desea estudiar. 
• POBLACIÓN: es el conjunto total de individuos, objetos o eventos que tiene las mismas características y sobre el 
que estamos interesados en obtener conclusiones. Puede ser finita o infinita. 
• MUESTRA: subconjunto representativo de una población que se quiere analizar (debe ser REPRESENTATIVA→ 
misma posibilidad de haber sido seleccionados). Cada unidad de análisis de la muestra es parte de la información 
o variable estadística. Hace que la variable sea susceptible a ser medida. 
• PARÁMETRO: función definida sobre los valores numéricos de características medibles de una población. 
• ESTADÍSTICO: función definida sobre los valores numéricos de una muestra. 
La población es un conjunto de datos. Para analizarla se toma una muestra o subconjunto de esa población, en donde 
se sacan conclusiones que correspondan a todo el conjunto. Dentro de ese subconjunto o muestra, está la unidad de 
análisis, que son los individuos portadores de información, y lo que contesten es la variable estadística. 
VARIABLES: característica observable y susceptible de ser medida. Conjunto de datos que vamos a estudiar. Son los 
elementos de base que surgen de la muestra y la unidad de observación. Son una unidad de medición. Es un símbolo 
que puede tomar cualquier valor de un conjunto determinado, que llamaremos dominio de la variable o rango. 
Se pueden clasificar en: 
1. Tipo de Variable: 
• Cualitativa: Si sus valores (modalidades) no se pueden asociar naturalmente a un número (no se pueden hacer 
operaciones algebraicas con ellos), se expresa con palabras (cualidades, categorías o atributos). Las variables 
categóricas o cualitativas son las que describen características conceptuales de una población o muestra. 
▪ Dicotómica → dos posibilidades (si o no) 
▪ Policotómica → más de dos posibilidades 
o NOMINAL: la información es un nombre o categoría y no se puede ordenar, sólo clasificar e 
identificar elementos (estado civil) 
o ORDINAL: es posible establecer un orden entre ellas, indican jerarquía. Permiten establecer una 
secuencia lógica que mide la intensidad del atributo. Escalas o etapas, de menor a mayor. (grado de 
escolaridad) 
• Cuantitativa: son las que tienen por modalidades medibles o cantidades numéricas con las que podemos 
hacer operaciones aritméticas (cantidad de personas que…) 
o DISCRETAS: unidades completas. Poca cantidad de variables. Números enteros. 
2 
 
o CONTINUAS: cualquier valor en un rango, entre dos valores, son posibles infinitos valores 
intermedios (números reales). Provienen de la medición. Mucha cantidad de variables. 
 
2. Nivel de medición: posibilidad de cuantificación o cualificación 
• Nominal: es una categoría aislada, solo permite clasificar o identificar elementos. 
• Ordinal: permite clasificar y ordenar, es decir, establecer una secuencia lógica que mide la intensidad del 
atributo. Orden. 
• Intervalar: cuando el cero sea convencional o arbitrario (relativo), no es absoluto. Permite clasificar y ordenar. 
Establece distancia. (Temperatura, medición cronológica) 
• De Razón: cuando el cero sea real, absoluto o verdadero; que haya una ausencia de las características que se 
están analizando y determina una distancia exacta entre intervalos. Permite clasificar y ordenar. 
3. Naturaleza de la variable: 
• Discreta o Discontinua 
• Continua 
La información obtenida debe ser trasladada a una base de datos o tabla de datos, estas son la materia prima del 
análisis estadístico. Estas tablas deben ser tabuladas para obtener parámetros que posteriormente debemos trasladar 
a números o gráficos. 
INFORMACIÓN NUMÉRICA: 
• Tendencia central: se toma desde la población, son el promedio o media, la mediana y la moda 
• Dispersión: rango, desviación estándar y coeficiente de variación. 
• Forma: simetría. 
• Posición: valores extremos, cuarntiles. 
INFORMACIÓN GRÁFICA: 
• Gráfico de sectores: informa de distribución. Representa variables cualitativas y frecuencias. 
• Gráfico de barras: informa distribución. Representa variables cualitativas o cuantitativas discretas. 
• Histogramas: informa de forma y tendencia central. Representa variables cuantitativas continuas y gran 
cantidad de observaciones. 
• Box-Plot (diagrama de caja): informa de forma y posición. Representa variables cuantitativas continuas. 
• Líneas: informa de tendencia. Representa variables cuantitativas 
RECURSOS INFORMÁTICOS 
• Alternativas comerciales: Calculadoras con modo estadístico, Ms Excel, Programa SPSS. 
• Alternativas libres o gratuitas: Planilla OpenOffice, Programa R, Programa PAST. 
DISTRIBUCIÓN DE FRECUENCIA: conjunto de clases junto a las frecuencias correspondientes a cada una de ellas. 
Una tabla estadística sirve para presentar de forma ordenada las distribuciones de frecuencias. Su forma general es la 
siguiente: 
xi fi Fi fr Fr 
A 1 2 3 4 
 
Frecuencia: cantidad de veces que se repite un dato 
Para analizar los datos utilizamos: 
• FRECUENCIA ABSOLUTA: recuento de la variable que se estudia, el número de veces que aparece. Si sumo la 
columna de las frecuencias absolutas siempre me da el tamaño de la muestra. (fi) 
• FRECUENCIA ABSOLUTA ACUMULADA: suma consecutiva de las frecuencias absolutas. (Fi) 
3 
 
• FRECUENCIA RELATIVA: es un dato proporción (número) que me indica cual es el peso relativo o la importancia 
de una frecuencia absoluta respecto del tamaño de la muestra. Es el cociente de una frecuencia absoluta dada 
respecto del total de datos de la muestra. (fr) 
• FRECUENCIA RELATIVA ACUMULADA: es la división entre la frecuencia absoluta acumulada y la frecuencia 
absoluta total. (Fr) 
• FRECUENCIA PORCENTUAL: frecuencia relativa multiplicada por 100%. La sumatoria de las frecuencias porcentual 
debe ser igual a 100. (f%) 
• ARCO DEL CÍRCULO DEL DIAGRAMA DE SECTORES O TARTAS: se utiliza para saber que arco del círculo le 
corresponde a cada modalidad. Fórmula: α =̂fr*360° 
Representaciones gráficas 
Se utilizan para ver de una forma más clara, las características de una población (conjunto de datos). 
Gráficos para variables cualitativas 
• Diagrama de barras verticales o columnas: alturas proporcionales a las frecuencias (abs. o rel.). Se pueden aplicar 
también a variables discretas. 
 
• Diagrama circular: Se divide un círculo en tantas porciones como clases existan, de modo que a cada clase le 
corresponde un arco de círculo proporcional a su frecuencia absoluta o relativa. El área de cada sector es 
proporcional a su frecuencia (abs. o rel.) 
 
Gráficos para variables cuantitativas 
Para las variables cuantitativas, consideraremos dos tipos de gráficos, en función de que para realizarlos se usen las 
frecuencias (absolutas o relativas) o las frecuencias acumuladas:• Diagramas diferenciales: Son aquellos en los que se representan frecuencias absolutas o relativas. En ellos se 
representa el número o porcentaje de elementos que presenta una modalidad dada. 
• Diagramas integrales: Son aquellos en los que se representan el número de elementos que presentan una 
modalidad inferior o igual a una dada. Se realizan a partir de las frecuencias acumuladas, lo que da lugar a gráficos 
crecientes, y es obvio que este tipo de gráficos no tiene sentido para variables cualitativas. 
 
4 
 
Gráficos para variables cuantitativas discretas 
Para representarlas, usamos el diagrama de barras cuando pretendemos hacer una gráfica diferencial. Las barras 
deben ser estrechas para representar que los valores que toma la variable son discretos. El diagrama integral o 
acumulado tiene, por la naturaleza de la variable, forma de escalera. 
Gráficos para variables cuantitativas continuas 
Cuando las variables son continuas, utilizamos: 
• Como diagramas diferenciales los histogramas y los polígonos de frecuencias. 
o Un histograma se construye a partir de la tabla estadística, representando sobre cada intervalo, un 
rectángulo que tiene a este segmento como base. El criterio para calcular la altura de cada rectángulo 
es el de mantener la proporcionalidad entre las frecuencias absolutas (o relativas) de cada intervalo y 
el área de los mismos. 
o El polígono de frecuencias se construye fácilmente si tenemos representado previamente el 
histograma, ya que consiste en unir mediante líneas rectas los puntos del histograma que 
corresponden a las marcas de clase. Para representar el polígono de frecuencias en el primer y último 
intervalo, suponemos que adyacentes a ellos existen otros intervalos de la misma amplitud (le 
sumamos el ancho tanto a la izquierda como a la derecha del histograma) y frecuencia nula, y se unen 
por una línea recta los puntos del histograma que corresponden a sus marcas de clase. 
• El diagrama integral para una variable continua se denomina también polígono de frecuencias acumulado, y se 
obtiene como la poligonal definida en abscisas a partir de los extremos de los intervalos en los que hemos 
organizado la tabla de la variable, y en ordenadas por alturas que son proporcionales a las frecuencias acumuladas. 
Dicho de otro modo, el polígono de frecuencias absolutas es una primitiva del histograma. 
AGRUPACIÓN EN INTERVALOS DE CLASES MONOMODULARES 
MONOMODULARES: tienen un mismo módulo 
• Intervalos son grupos de valores que describen una característica, son exhaustivos (representa cualquier nº 
dentro de él) y excluyentes (deja afuera datos innecesarios). 
• Frontera 
o Inferior 
o Superior 
• Límites: son los valores (modalidades) en un intervalo, que se están analizando. Toma valores verdaderos. 
o Superior 
o Inferior 
• Marcas de clase: son los valores de variables representantes de cada intervalo. Es el valor medio del intervalo 
en cuestión. Promedio entre las fronteras o los límites. 
• Módulo o Amplitud: distancia entre fronteras. Es la longitud del intervalo analizado. 
o Fórmula: h = R / NºS 
• Rango: e s una medida absoluta que mide la distancia entre el máximo valor y el mínimo valor. 
o Formula: R = Valor máximo – Valor mínimo 
• Número de Sturges: es el número de clases o intervalos que son necesarios para representar gráficamente un 
conjunto de datos estadísticos. 
o Fórmula: N°S 1 + Log 2 (n) 
AGRUPACIÓN EN INTERVALOS DE CLASES no MONOMODULARES 
Se utilizan cuando el conjunto de datos tiene más de un módulo. 
Densidad de clase: Conjunto de datos que se obtiene de dividir la frecuencia relativa por el módulo de cada clase. 
 
5 
 
Unidad N° 3 
Introducción a la Combinatoria 
COMBINATORIA: parte de la matemática abocada a estudiar la cantidad de formas de elegir un subconjunto a partir 
de un conjunto dado de elementos. Para lograr determinar un subconjunto se utiliza el principio fundamental de 
conteo: 
Principio fundamental de conteo o principio multiplicativo: si una acción puede realizarse de n1 maneras diferentes 
y una segunda acción puede realizarse de n2 maneras diferentes, hasta la acción “nk” maneras diferentes, entonces las 
acciones pueden realizarse secuencialmente de n1*n2*…*nk maneras diferentes. 
SUJETO DE LA COMBINATORIA: distintas formas de seleccionar subconjuntos a partir de un conjunto dado. 
El orden importa en ambos. Esencialmente son lo mismo, solo varía el tamaño. 
• VARIACIONES: El tamaño de la muestra es menor que en una permutación. 
o Sin repetición: Operador matemático que calcula la cantidad de formas en que se puede elegir “r” 
elementos de un grupo “n” cuando importa el orden de los mismos. 
▪ FÓRMULA PARA CALCULAR UNA VARIACIÓN → V(n, r)=n*(n-1)*(n-2)*(n-…)*(n-r+1) 
o Con Repetición: Operador matemático que calcula la cantidad de formas en que se puede elegir “r” 
elementos de un grupo de “n” cuando se puede repetir los elementos en el subgrupo. 
▪ FÓRMULA PARA CALCULAR LA VARIACIÓN → V*(n,r)=n.n.n.n….n= nr 
• PERMUTACIONES: el tamaño de la muestra es igual al tamaño del conjunto dado. Es mayor que en las 
variaciones. 
o Sin repetición: operador matemático que permite calcular de cuántas maneras pueden seleccionarse 
“n” elementos de un grupo de “n” elementos sin repetirlos. Solo se puede permutar el orden de los 
elementos. 
▪ FÓRMULA PARA CALCULAR LA PERMUTACIÓN → Pn = n*(n-1)*(n-2)…4*3*2*1 
FACTORIAL DE UN NÚMERO ENTERO: se llama factorial de un número “n” entero y positivo al producto de los 
números enteros consecutivos desde 1 hasta “n”. La diferencia entre este concepto y la permutación es que no se 
puede calcular la permutación de 0 elementos pero si el factorial de 0 elementos. 
FÓRMULA PARA CALCULAR UN FACTORIAL → n!= 1x2x3x4x…x(n-1)xn=nx(n-1)x…x2x1. 
• PROPIEDAD 1: n!= nx (n-1)! 
• PROPIEDAD 2: a!=b! → a=b 
• PROPIEDAD 3: 1!= 1 y 0!= 1 
▪ NUEVA FORMA DE CALCULAR LA PERMUTACIÓN → 𝑽𝒏
𝒓 =
𝒏!
(𝒏−𝒓)!
 
o Con repetición: es un operador matemático que permite calcular de cuántas maneras pueden 
seleccionarse “n” elementos de un grupo de “n” elementos pudiendo repetir los elementos. El tamaño 
del subgrupo es igual al del grupo de elementos. 
▪ FÓRMULA PARA CALCULAR LA PERMUTACIÓN → P*n= nn 
➢ LINEALES: se disponen los elementos en una fila. → Pn=n! 
➢ CIRCULAR: se disponen los elementos en un círculo. → Pn= (n-1)! 
➢ CON ELEMENTOS REPETIDOS: → 𝑷𝒙,𝒗,𝒓𝒏 = 
𝒏!
𝒙! .𝒗! .𝒓!
 
 
• COMBINACIONES: el orden no importa, no hay jerarquía o categoría en las muestras. 
o Sin repetición: operador matemático que permite calcular de cuántas maneras diferentes pueden 
elegirse “r” elementos de un grupo de “n” elementos cuando no importa el orden. 
▪ FÓRMULA PARA CALCULAR UNA COMBINACIÓN → 𝐶𝑚
𝑛 =
𝑉𝑚
𝑛
𝑃𝑛
 
6 
 
▪ FÓRMULA CON FACTORIALES → 𝐶𝑚
𝑛 = (
𝑚
𝑛
) =
𝑚!
𝑛!(𝑚−𝑛)!
 
NUMERO COMBINATORIO: objetos matemáticos. Se lee n sobre p. 
 FÓRMULA PARA CALCULAR UN COMBINATORIO → (
𝑛
𝑝
) =
𝑛!
𝑝!(𝑛−𝑝)!
 
PROPIEDADES: 
• El número combinatorio de n en 0 es siempre igual a 1 (
𝑛
0
) = 1 
• El número combinatorio de n en n es siempre igual a 1 (
𝑛
𝑛
) = 1 
• El número combinatorio de n en 1 es siempre igual a n (
𝑛
1
) = 𝑛 
• Los números combinatorios complementarios son iguales (
𝑛
𝑟
) = 
𝑛
𝑛−𝑟
 
o Con repetición: operador matemático que permite calcular de cuántas maneras diferentes pueden 
elegirse “r” elementos de un grupo “n” elementos pudiendo repetir los elementos. 
▪ FÓRMULA PARA CALCULAR UNA COMBINACIÓN → 𝐶𝑅𝑛
𝑟 =
(𝑛+𝑟−1)!
𝑟!(𝑛−1)!
 
RESUMEN Agrupaciones Sin repetición Con repetición 
¿Importa 
el 
orden? 
SI 
Variaciones 
Tomamos algunos 
elementos n de m 
𝑉 𝑚
𝑛 =
𝑚!
(𝑚 − 𝑛)!
 𝑉𝑅𝑚
𝑛 = 𝑚𝑛 
Permutaciones 
Tomamos todos los 
elementos m 
𝑃𝑛 = 𝑛! 𝑷𝒏
𝒙,𝒗,𝒓 = 
𝒏!
𝒙! . 𝒗! . 𝒓!
 
NO 
Combinaciones 
Tomamos algunos 
elementos n de m 
𝐶𝑚
𝑛 = (
𝑚
𝑛
) =
𝑚!
𝑛! (𝑚 − 𝑛)!
 𝐶 𝑚
∗𝑛 =(𝑚 + 𝑛 − 1)!
𝑛! ∗ (𝑚 − 1)!
 
 
TRIÁNGULO DE TARTAGLIA 
 
7 
 
 
Vamos a usar el binomio de Newton para el cálculo de la probabilidad. 
Experimentos aleatorios y deterministas 
Experimentos deterministas: experimentos en los que conocidas las condiciones iniciales se pueden predecir 
los resultados finales. 
EXPERIMENTOS ALEATORIOS: experimentos en los que conozco las posibilidades pero no puedo predecir el 
resultado, esto es debido a que hay más de un resultado posible. Aquel en el que su resultado depende del azar. El 
experimento siempre debe ser realizado en las mismas condiciones. 
ESPACIO MUESTRAL: conjunto formado por los posibles resultados y se representa como “E”. A los subconjuntos del 
espacio muestral (resultado posible) se le llama suceso o evento. 
SUCESO: Son subconjuntos del espacio muestral, es decir que representa cualquier resultado posible al realizar un 
experimento aleatorio. 
Tipos de sucesos: 
• Suceso imposible (Ǿ): es aquel que nunca puede ocurrir. 
• Suceso seguro (E): aquel que ocurre siempre. 
• Suceso elemental: aquel formado por un solo elemento. 
• Suceso compuesto: aquel formado por más de un elemento. 
ÁLGEBRA DE SUCESOS: 
 
• Unión de sucesos: es un evento compuesto formado por todos los elementos de unos de los eventos 
agregándole los elementos del otro evento. Se simboliza como A U B. 
Sus PROPIEDADES son: 
o Conmutativa: A U B = B U A 
o Asociativa: A U (B U C) = (A U B) U C 
o Idempotente: A U A = A 
o Simplificación: A U (A ꓵ B)= A 
o Distributiva: A U (B ꓵ C)= (A U B) ꓵ (A U C) 
o Elemento Neutro: A U Ǿ =A 
o Absorción: A U E = E 
• Intersección de sucesos: elementos comunes que se repiten en dos eventos. Se simboliza como A ꓵ B. Sus 
PROPIEDADES son: 
o Conmutativa: A ꓵ B = B ꓵ A 
o Asociativa: A ꓵ (B ꓵ C) = (A ꓵ B) ꓵ C 
o Idempotente: A ꓵ A = A 
o Simplificación: A ꓵ (A ꓵ B) = A 
o Distributiva: A ꓵ (B ꓵ C) = (A ꓵ B) U (A ꓵ C) 
o Elemento neutro: A ꓵ E = A 
8 
 
o Absorción: A ꓵ Ǿ = Ǿ 
• Complemento de un suceso: conjunto formado por todos los elementos que no perteneces al evento dado. Se 
calcula como �̅�= E – A. Sus PROPIEDADES son: 
o (�̅�) = A 
o �̅� = Ǿ 
o Ǿ = E 
o A U �̅� = E 
o A ꓵ �̅� = Ǿ 
▪ Leyes de Morgan 
o (𝐴 𝑈 𝐵̅̅ ̅̅ ̅̅ ̅̅ ) = �̅� ꓵ �̅� 
o (𝐴 ꓵ 𝐵̅̅ ̅̅ ̅̅ ̅) = �̅� U �̅� 
• Diferencia de sucesos: es el evento compuesto que resulta de considerar todos los elementos que pertenezcan 
al primer conjunto pero que no sean parte del segundo conjunto. Se calcula como A – B. Su PROPIEDAD es: 
o A – B= A ꓵ �̅� 
CARDINAL DE UN SUCESO: cantidad de elementos que tiene un evento. Se simboliza como |A|. Su PROPIEDAD es: 
o |A U B|= |A| + |B| - |A ꓵ B| 
Probabilidad 
La probabilidad mide la mayor o menor posibilidad de que se dé un determinado evento cuando se realiza un 
experimento aleatorio. Es todo experimento aleatorio donde siempre hay incertidumbre sobre si un suceso específico 
ocurrirá o no. Es un número que oscila entre 0 y 1. Si es 0 la probabilidad es de un suceso imposible y si es 1 es de un 
suceso seguro. El resto de sucesos tendrá probabilidades entre cero y uno, que será tanto mayor cuanto más probable 
sea que dicho suceso tenga lugar. 
ENFOQUE CLÁSICO: si un suceso puede ocurrir en “h” maneras diferentes de un número total de “n” maneras posibles, 
todos igualmente factibles, entonces la probabilidad del suceso es h/n. Consideramos que tomos los eventos tienen 
exactamente la misma probabilidad de ocurrir (es un error). 
Según la Regla de Laplace: se define a la probabilidad de un suceso como el cociente entre casos favorables y casos 
posibles. P(A)= Casos favorables / Casos posibles. 
Para poder aplicar esta regla el experimento aleatorio debe cumplir dos requisitos: 
a) El número de sucesos tiene que ser finito: si hubiera infinitos resultados el cociente siempre sería 0. 
b) Todos los sucesos tienen que tener la misma probabilidad. 
A la Reglas de Laplace también se le denomina “probabilidad a priori”, ya que para aplicarla hay que conocer, antes 
de realizar el experimento, cuáles son los posibles resultados y saber que todos tienen las mismas probabilidades. 
ENFOQUE COMO FRECUENCIA RELATIVA: si después de “n” repeticiones de un experimento, donde “n” es muy 
grande, un suceso ocurre “h” veces, entonces la probabilidad del suceso es h/n. 
En este modelo no es necesario que el número de soluciones sea finito ni que todos los sucesos tengan la misma 
probabilidad. A esta definición se le denomina “probabilidad a posteriori”, ya que tan solo repitiendo un experimento 
un número elevado de veces podremos saber cuál es la probabilidad de cada suceso. 
Ley del Azar: cuando se realiza un experimento aleatorio o azaroso “muchas” veces, las probabilidades de los diversos 
posibles, tiende a la probabilidad. 
PROBABILIDAD DE SUCESOS 
a) Un suceso puede estar contenido en otro: entonces la probabilidad del primer suceso será menos que la del 
suceso que lo contiene. 
b) Dos sucesos pueden ser iguales: en este caso, las probabilidades de ambos sucesos son las mismas. 
9 
 
c) Intersección de sucesos: es aquel suceso compuesto por los elementos comunes de los dos o más sucesos que 
se intersectan. La probabilidad será igual a la probabilidad de los elementos comunes. 
d) Unión de dos o más sucesos: la probabilidad de la unión de dos sucesos es igual a la suma de las probabilidades 
individuales de los dos sucesos que se unen, menos la probabilidad del suceso intersección. 
e) Sucesos incompatibles: la probabilidad de la unión de dos sucesos incompatibles será igual a la suma de las 
probabilidades de cada uno de los sucesos (ya que su intersección es el conjunto vacío y por lo tanto no hay 
que restarle nada). 
f) Sucesos complementarios: la probabilidad de un suceso complementario a un suceso (A) es = a 1- P(A) 
DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD: según Andrei Kolmogorov 
Axioma: ley irrefutable, enunciado que no se puede contradecir ni cambiar. En base a estos axiomas se pueden 
construir estructuras científicas estables. 
Si hacemos un determinado experimento, que tiene un espacio muestral “n”, definimos la probabilidad como una 
función que asocia a cada suceso A una determinada probabilidad, P(A), que cumple las siguientes propiedades: 
1. La probabilidad de cualquier suceso A es positiva o cero. Es decir, P(A)>= 0. La probabilidad mide, en cierta 
manera, lo difícil que es que ocurra un suceso A. 
2. La probabilidad des suceso seguro es 1. Es decir, P(n) =1. Así pues, la probabilidad siempre es mayor que 0 y 
menor que 1: probabilidad cero quiere decir que no hay ninguna posibilidad de que pase (suceso imposible) y 
probabilidad 1, que siempre pasa (suceso seguro). 
3. La probabilidad de la unión de un conjunto cualquiera de sucesos incompatibles dos a dos es la suma de las 
probabilidades de los sucesos. Estos es, si tenemos, por ejemplo, los sucesos A, B, C y son incompatibles dos 
a dos, entonces P (A U B U C) = P(A) + P(B) + P(C). 
PROPIEDADES DE LA PROBABILIDAD: 
o P(A) + P(�̅�) = 1 
o Si A c B, entonces P (A)<= P(B). Incluyente. 
o P (A U B) = P(A) + P(B) – P (A ꓵ B). Propiedad de los cardinales. 
PROBABILIDAD MARGINAL, CONJUNTA Y CONDICIONAL 
 
PROBABILIDAD MARGINAL: relacionada con el margen y un evento específico. Se cumple para un solo evento o una 
sola característica. 
PROBABILIDAD CONJUNTA: cuando tengo en cuenta la intersección. 
PROBABILIDAD CONDICIONAL: se establece una condición. “Sabiendo que/ tal que” 
Relación entre las tres probabilidades → la probabilidad condicional de A dado B es igual a la 
probabilidad conjunta de ambos dividido la probabilidad de la condición (marginal). 
10 
 
P(A/B) = P (A ꓵ B)/ P(B) o también P (A ꓵ B) = P(A/B) * P(B) 
Donde P(A/B) es la probabilidad condicional, P(A ꓵ B) es la probabilidad conjunta, y P(B) es la probabilidad marginal. 
EVENTOS DEPENDIENTES 
Dos eventos son dependientes si el resultado del primer evento afecta el resultadodel segundo evento así que la 
probabilidad es cambiada. 
EJEMPLO: De una urna se extraen sucesivamente y SIN reposición 3 bolillas .La misma contiene 5 bolillas verdes, 3 
rojas y 2 amarillas ¿cuál es la probabilidad que salgan? 
• P(R∩R∩V)= P(R)*P(R/R)*P(V/R∩R)=3/10*2/9*5/8=30/720 
• P(A∩V∩V)= P(A)*P(V/A)*P(V/A∩V)=2/10*5/9*4/8=40/720 
El hecho de que sean sin reposición, nos indica que los elementos no pueden volver a ser elegidos, 
perteneciendo a un evento no independiente. 
 
EVENTOS INDEPENDIENTES 
Dos eventos son independientes si el resultado del segundo evento no es afectado por el resultado del primer evento. 
Si A y B son eventos independientes, la probabilidad de que ambos eventos ocurran es el producto de las 
probabilidades de los eventos individuales. Dos eventos A y B son estadísticamente independientes si: 
o P(A/B) = P(A) 
o P(B/A) = P(B) 
o P (A ꓵ B) = P(A) * P(B) 
EJEMPLO: De una urna se extraen sucesivamente y CON reposición 3 bolillas .La misma contiene 5 bolillas verdes, 3 
rojas y 2 amarillas; ¿cuál es la probabilidad que salgan: 
• P(R∩R∩V)= P(R)*P(R)*P(V)= 3/10*3/10*5/10=45/1000 
• P(A∩V∩V)= P(A)*P(V)*P(V)=2/10*5/10*5/10=50/1000 
El hecho de que sean con reposición, nos indica que los elementos pueden volver a ser elegidos, 
perteneciendo a un evento independiente. 
 
Aplicación a circuitos eléctricos 
Circuito en serie: la probabilidad resultante debe 
ser menor que la de los eventos. 
• Probabilidad de que el sistema 
funcione → P(A ꓵ B) = P(A) * P(B) 
Circuito en paralelo: la probabilidad resultante 
debe ser mayor que la de los eventos. 
11 
 
• Probabilidad de que el sistema funcione → P(A U B)= 1 – P(𝐴 ꓵ 𝐵̅̅ ̅̅ ̅̅ ̅) 
Teorema de Bayes 
Hay un espacio muestral constituido por los eventos B1, B2, B3 y B4, la unión de todos los eventos da 1. En este 
contexto aparece un nuevo evento D comparte ciertas áreas con los eventos anteriores, es decir que hay intersección 
entre eventos. 
➔ D es lo común entre D y B1 agregandole lo común entre D y B2....agregandole lo común entre D y B4. (D es la 
unión de 4 eventos. 
Tercer axioma de la probabilidad: La probabilidad de la unión de eventos disjuntos es igual a la suma de las 
probabilidades de dichos eventos. 
 
Probabilidad Total 
Donde (Bj ꓵ D) es la Probabilidad Conjunta,∑ 𝑃(𝐵𝑖) ∗ 𝑃(𝐷/𝐵𝑖)𝑖=0 es la Probabilidad Marginal 
Diagrama de Árbol: herramienta que se utiliza para determinar si en realidad en el cálculo de muchas 
opciones se requiere conocer el número de objetos que forman parte del espacio muestral, estos se pueden 
determinar con la construcción de un diagrama de árbol. 
 
Diagrama de Venn: esquemas usados en la teoría de conjuntos. Estos diagramas muestran colecciones de 
cosas por medio de líneas cerradas. A la hora de crearlos es conveniente comenzar desde la intersección entre los tres. 
 
12 
 
 
 
13 
 
Unidad N° 2 
Estadísticos y Parámetros 
Cuando tratamos con muestras se llama estadísticos, cuando trabajamos con una población hablamos de parámetros. 
MEDIDAS DE TENDENCIA CENTRAL: son valores representativos de un conjunto de datos que muestran los valores 
centrales o más importantes. 
• MEDIA ARITMÉTICA O PROMEDIO: es un estadístico cuyo valor es una especie de centro de gravedad de los 
datos. Es la sumatoria del valor de variable, dividido el total de datos. Cuando los datos se repiten, cada valor 
va a estar multiplicado por su frecuencia absoluta, y todo esto dividido por el número total de datos (sumatoria 
de las frecuencias absolutas). 
En series simples sin repeticiones En series de frecuencias con repeticiones En series agrupadas en intervalos 
�̅� =
∑ 𝑥𝑖𝑛𝑖=1
𝑛
 �̅� =
∑ 𝑥𝑖 ∗ 𝑓𝑖𝑛𝑖=1
𝑛
 �̅� =
∑ 𝑥𝑐𝑖̅̅̅̅
𝑛
𝑖=1 ∗ 𝑓𝑖
𝑛
 
 
o PROPIEDADES: 
▪ La suma de las desviaciones de los valores de la variable con respecto a la media aritmética es 
0. 
▪ La media aritmética de los cuadrados de las desviaciones de los valores de la variable con 
respecto a una constante cualquiera se hace mínima cuando dicha constante coincide con la 
media aritmética. 
▪ Si a todos los valores de la variable se le suma una misma cantidad, la media aritmética queda 
aumentada dicha cantidad. 
▪ Si todos los valores de la variable se multiplican por una misma constante la media aritmética 
queda multiplicada por dicha constante. 
o INCONVENIENTES: 
▪ Para datos agrupados en intervalos (variables continuas) su valor oscila en función de la 
cantidad y amplitud de los intervalos que se consideren. 
▪ Cuando el conjunto de datos es muy heterogéneo entonces la media no será representativa, 
en cambio, cuando el conjunto de datos es más o menos homogéneo la media sí será 
representativa. 
▪ En el cálculo de la media no todos los valores contribuyen de la misma manera. Los valores 
altos tienen más peso que los valores cercanos a cero por lo cual el máximo y el mínimo se 
suelen descartar. 
▪ No se puede determinar si en una distribución de frecuencias hay intervalos de clase abiertos. 
 
• LA MEDIANA: es un estadístico de posición central que parte la distribución en dos, es decir, deja la misma 
cantidad de valores a un lado que a otro. Para calcularla es importante que los datos estén ordenados de 
mayor a menor o viceversa, es decir, que tengan un orden. 
Datos discretos Datos continuos 
°me= 
𝑛+1
2
 → posición 
 
°me=
𝑛
2
→ posición 
me= 𝑓𝑟𝑜𝑛𝑡. 𝑖𝑛𝑓. +
(
𝑛
2
−𝐹𝑖−11𝑎 )
𝑓𝑖
 *h 
 
1 I-1 significa intervalo anterior 
14 
 
o PROPIEDADES: 
▪ 
▪ Es única, solo existe una mediana para un conjunto de datos. 
▪ No se ve afectada por valores muy grandes o muy pequeños. 
▪ Puede calcularse para una distribución de frecuencias con una clase de extremo abierto, si la 
mediana no se encuentra … 
▪ Puede obtenerse para datos de nivel de razón, de intervalo y ordinal (excepto para el nominal) 
• MODA O MODO: es el valor que más se repite 
Datos discretos Datos continuos 
Se obtiene de la observación de datos 
 Moda= 𝑓𝑟𝑜𝑛𝑡 inf + 
∆1
∆1+∆2
∗ ℎ 
o PROPIEDADES: 
▪ El valor de la observación que aparece con más frecuencia. 
▪ Puede determinarse para todos los niveles de datos. 
▪ No se ve afectada por valores muy altos o muy bajos. 
▪ Puede utilizarse como medida de tendencia central para distribuciones con clases de extremo 
abierto 
o DESVENTAJAS: 
▪ Para muchos conjuntos de datos no hay valor modal porque ningún valor aparece más de una 
vez 
▪ Para algunos conjuntos de datos hay más de una moda. Si hay dos se denomina bimodal, y si 
hay más de dos multimodal. 
• MEDIDAS DE POSICIÓN: en general se llaman cuantiles. 
o Quartiles: son tres valores que dividen al conjunto de datos en cuatro partes, cada una de las partes 
con 25% de la información total. 
▪ Q1: es el valor que es mayor del 25%, menor de los datos pero inferior al 75% restante de los 
datos. 
▪ Q2: es el valor central de los datos que es mayor que el 50% de los datos pero inferior al otro 
50% de los datos restantes. Representa el mismo valor que la mediana. 
▪ Q3: es el valor que divide al conjunto de datos de modo que es superior al 75% de los datos 
pero inferior al 25% mayor de los mismos. 
FÓRMULA: 
▪ Datos discretos °𝑞𝑛 = 𝑞(1,2,3) ∗
(𝑛+1)
4
 → posición 
𝑞1 = (𝑣𝑎𝑙𝑜𝑟 𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟 𝑎 °𝑞1) + (𝑐𝑒𝑛𝑡é𝑠𝑖𝑚𝑎𝑠 𝑑𝑒 °𝑞1)
∗ (𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎 𝑒𝑛𝑡𝑟𝑒 𝑣𝑎𝑙𝑜𝑟 𝑎𝑛𝑡𝑒𝑠 𝑑𝑒 °𝑞1 𝑦 𝑒𝑙 𝑞𝑢𝑒 𝑒𝑠𝑡𝑎 𝑑𝑒𝑠𝑝𝑢é𝑠) 
▪ Datos continuos °𝑞𝑛 = 𝑞(1,2,3) ∗
𝑛
4
 → posición 
𝑞𝑛 = 𝑓𝑟𝑜𝑛𝑡 inf + 
(𝑞(1,2,3) ∗ 
𝑛
4
− 𝐹𝑖−1𝑎)
𝑓𝑖
∗ ℎ 
 
 
15 
 
o DECILES: son 9 valores que dividen al conjunto de datos en 10 partes cada una conteniendo el 10% 
de la información total. Se calculan como los cuartíles solo cambiando el orden, el resto del 
procedimiento es análogo a lo planteado. 
 
 
 
o PERCENTILES: son 99 valores que dividen al conjunto de datos en 100 partes que contienen al 1% de 
información cada una. 
 
o CUANTILES: es la generalizaciónde todos los estadísticos de posición vistos 
 
MEDIA ARMÓNICA: se define como el recíproco de la media aritmética de los recíprocos. 
 
 Se utiliza para trabajar con variaciones respecto al tiempo. 
MEDIA GEOMÉTRICA: Se define como la raíz índice n del producto de n términos. Se utiliza para mostrar los 
cambios porcentuales en una serie de números positivos. 
 
16 
 
Medidas de dispersión y forma: Cuando los datos de dos conjuntos son bastante diferentes (en algunos casos 
se repiten y en otros hay valores extremos) pero tienen el mismo promedio y realmente queremos que sea 
representativo, debemos evaluar la variabilidad o dispersión de los datos. 
• RANGO o VARIACIÓN ABSOLUTA: es el primer estadístico con el que nos encontramos. Es la diferencia entre 
el máximo y el mínimo, nos dice la dispersión o distancia que hay entre el mínimo y el máximo. A mayor rango, 
mayor dispersión. Si bien es una medida de dispersión sencilla, no siempre nos es útil, en algunas ocasiones 
no es óptimo y no nos aporta información; por ejemplo, cuando tenemos rangos iguales no nos da mucha 
información sobre lo que está pasando en el interior del conjunto, entre esa distancia de mínimos y máximos. 
Como mencionamos, el rango no es la única medida de variabilidad, podemos utilizar otras como la desviación 
estándar, desviación media, desviación mediana, desviación media absoluta, desviación media cuadrática, etc. 
• DESVIACIÓN ESTÁNDAR o DESVIACIÓN TÍPICA: se calcula de la siguiente manera: 
1. Determinar el promedio o media del conjunto de datos. 
2. Restar a cada dato el valor de la media. 
3. Sacamos el promedio de total de datos obtenidos (los sumamos y los dividimos por el total de la muestra) 
y calculamos la varianza. 
4. Sacamos la raíz cuadrada de la varianza, y obtenemos la desviación estándar. 
DESVÍOS: se obtienen al restar a cada dato el valor de la media; están por encima o por debajo del valor medio 
(promedio), dando como resultado valores nulos, positivos o negativos. Hay una propiedad de la media 
aritmética que nos dice que la suma de los desvíos es igual a 0. 
Elevar al cuadrado los desvíos para poder realizar la sumatoria de los mismos. 
VARIANZA: se identifica con 𝜎2 o 𝑠2, dependiendo de si se refiera una muestra o una población. Siempre que 
la muestra sea menor que 30, dividimos la sumatoria en vez de n, por (n-1); este es un ajuste que se hace para 
muestras pequeñas. Si bien la varianza es una medida de dispersión, no nos es útil por sí sola, porque nos está 
dando el cuadrado de los desvíos, generando que tengamos unidades cuadradas (por ejemplo, si estamos 
hablando de distancias, de 𝑚 a 𝑚2, lo cual no sería una unidad de longitud sino de área y superficie). 
DESVIACIÓN ESTÁNDAR: este dato si es útil y quiere decir que “el promedio de los datos se desvían de la 
media en (…) unidades, indicando que no hay/hay mucha dispersión en los datos, como efectivamente 
podemos observar de manera directa”. 
• Indicando que hay una desviación en promedio de los datos respecto de la media, quiere decir que hay datos 
por encima y por debajo del promedio que se desvían; pero en promedio la desviación es esa que calculamos. 
En Excel encontramos el comando desviación estándar muestral y desviación estándar poblacional. 
 
μ es la media del conjunto de datos de una población, y σ es la desviación estándar de dicha población. 
• USOS DE LA DESVIACIÓN ESTÁNDAR: se utiliza para comparar poblaciones, ver cómo es la dispersión entre 
ellas, para el análisis de la calidad y control de procesos, depende cuanto se desvíen respecto de los valores 
centrales va a definir la calidad de los productos que se produzcan o fabriquen (por ejemplo, si hay una media 
17 
 
de 1/2 L para los envases de gaseosa, dependiendo de cómo sea la desviación respecto a ese valor será la 
calidad y nos va a permitir hacer un control de los procesos). Si hay mucha desviación de la media, también se 
utiliza para la medición del riesgo, mientras más desviación haya respecto a los valores centrales mayor va a 
ser el riego de cometer un error, a su vez se pueden estimar tendencias y concentración de datos, (por 
ejemplo, en el gráfico de abajo los datos tiene mayor concentración, por lo tanto, estamos indicando que están 
más concentrados respecto a los valores centrales que en el caso de la figura que está en la parte superior. A 
través de estos valores que denominaremos normales, vamos a tener que entre el valor medio (media) más 
una desviación estándar vamos a tener el 70% de los datos, en la media más dos desviaciones estándar vamos 
a tener el 95% de los datos, y en la media más tres desviaciones estándar a la derecha o a la izquierda va a ser 
el 99%; esto nos va a permitir estimar la tendencia). 
• VALORES O DISTRIBUCIONES NORMALES: valores más concentrados respecto a los valores centrales. Entre el 
valor medio (media) más (o menos) una desviación estándar vamos a tener el (70%) de los datos, en la media 
más dos desviaciones estándar vamos a tener el (95%) de los datos, y en la media más tres desviaciones 
estándar a la derecha o a la izquierda va a ser el (99%), permitiendo estimar la tendencia de los datos. 
¿Por qué se divide la varianza muestral por (n-1) y la varianza poblacional por n? 
Si dividiéramos por n la muestra, nos daría que el valor real de la varianza estaría subestimado, entonces el valor real 
debemos dividirlo por (n-1) sencillamente por hacer un ajuste. 
¿Por qué se usa el cuadrado de la desviación y no el valor absoluto de la desviación para el 
cálculo de la varianza? 
El cuadrado de la desviación nos permite establecer un valor medio, si lo hacemos con valor absoluto no podríamos 
aplicar la propiedad de la media aritmética, además algebraicamente es mucho más sencillo trabajar con las potencias 
cuadráticas que con valores absolutos. 
 
El uso de la suma del cuadrado de las diferencias es similar al Teorema de Pitágoras, al cálculo de 
las distancias. 
 
Como la Varianza nos da las unidades de los datos al cuadrado, no tiene el mismo significado que la 
desviación estándar. 
 
El Rango se relaciona con la Desviación estándar a través de: 
 
𝑅 ≈ 4𝑠 𝑠 ≈
𝑅
4
 
Una desviación es aproximadamente igual a la cuarta parte del rango. 
 
Como la desviación estándar s(σ) depende de la media y de la variabilidad de los datos, es un estadístico que nos 
permite ubicar los datos dentro de la distribución. A partir de ellos podemos saber a cuántas desviaciones estándar se 
encuentran los datos. 
 
• TEOREMA DE CHEBYSHEY Y LA REGLA EMPÍRICA: los datos de las distribuciones respecto a la media se 
encuentran según lo indicado en la siguiente tabla. 
 
 
 
 
 
 
 
 
 
 
 
Esta regla no aplica para todos los datos o todo tipo de función. Es aplicable para aquellos datos donde 
encontramos una distribución con forma de comportamiento denominada campana, generalmente se asocian a una 
distribución normal. 
Es decir, para aplicar la regla, la distribución debe ser simétrica. Si sabemos cuál es la media y cuál es la desviación 
estándar, inmediatamente podemos inferir entre qué valores está el máximo y el mínimo, es decir, determinar el rango 
del conjunto, lo cual es muy importante dado que, por ejemplo si la media es 3 y la desviación estándar es 2, 2*3 = 6 
18 
 
que va a ser el extremo superior y el extremo inferior va a ser -6 (2*-3), a tres desviaciones estándar por derecha o 
por encima vamos a tener casi la totalidad de la muestra, puede ser que alguno esté fuera de ese rango por eso 
decimos que hay un 99.7% de la información entre la media +/- tres desviaciones estándar. 
 
• COEFICIENTE DE VARIACIÓN (CV) o VARIACIÓN RELATIVA: este coeficiente de 
variación es una medida de dispersión relativa, lo que se debe a que no tiene 
unidades. Esta relacionado con el tipo de variable que estamos analizando; si la 
muestra es pequeña, el coeficiente varía en mayor o menor grado por el promedio. Es 
la proporción de las desviaciones estándar y la media: 
𝐶𝑉 =
𝑑𝑒𝑠𝑣𝑖𝑎𝑐𝑖ó𝑛𝑒𝑠𝑡á𝑛𝑑𝑎𝑟
𝑚𝑒𝑑𝑖𝑎
 → cantidad de desviaciones estándar tengo por unidad de media (se 
expresan generalmente en porcentajes) 
 
Este coeficiente es utilizado para comparar la variabilidad o dispersión en conjuntos de datos con diferentes unidades 
de medida. También es útil para comparar la variabilidad o dispersión de conjuntos de datos con diferentes medios. 
𝜇1 ≠ 𝜇2 
Se puede utilizar para comparar resistencias a la tensión entre materiales. En estos casos si no fuera por este 
coeficiente no habría otra forma de poder realizar la comparación. 
Vamos a trabajar con la sgte. escala para determinar si la muestra es homogénea o no: 
𝐶𝑉 ≤ 25% Homogéneo 
𝐶𝑉 ≤ 50% Casi Homogéneo (poco dispersa, 
no tiene valores extremos) 
𝐶𝑉 ≤ 75% Casi Heterogéneo 
𝐶𝑉 ≤ 100% Heterogéneo 
Cuando no es homogéneo, es correcto usar la mediana. 
En otras escalas, hasta el 7% es preciso (homogéneo), entre el 7% y 18% casi preciso (casi homogéneo), y así. 
 
• COEFICIENTE DE ASIMETRÍA O SESGO DE PEARSON: hay una relación entre la 
media, la mediana y el modo, la distancia entre la media y el modo es 
aproximadamente 3 veces la distancia que hay entre la media y la mediana 
(siempre que la asimetría sea leve). Esto nos permite definir el coeficiente de 
asimetría. 
 La importancia de esta medida radica en que nos dice, sin tener que dibujar la gráfica, 
si una distribución es simétrica o asimétrica, indicándonos en qué dirección existe 
mayor concentración o dispersión de los datos, según el desplazamiento del sesgo. El 
sesgo es la concentración de datos respecto de la media. 
 
o Si la diferencia entre la media y el modo da cero, significa que la 
distribución es simétrica debido a que el coeficiente de asimetría será 
igual a cero. (Media=Modo). Este coeficiente por desviación estándar 
es un factor de escala, que se utiliza para no emplear valor absoluto de 
la diferencia sino un valor relativo de la desviación. Gráfico con forma 
de campana o Campana de Gauss. 
o Si la media es mayor al modo, entonces el coeficiente es positivo, por lo que se dice que hay una asimetría 
positiva. (Acumulación de datos a la izquierda, Media más a la derecha que el Modo). Gráfico con forma de 
L. 
NO ES IMPORTANTE LA MEDIDA EN LOS COEFICIENTES, SINO SU SIGNO 
Población Muestra 
𝐶𝑉 =
𝜎
𝜇
 𝐶𝑉 =
𝑠
�̅�
 
Población Muestra 
𝐴𝑠 =
𝜇 − 𝑀𝑜
𝜎
 𝐴𝑠 =
𝑥 − 𝑀𝑜
𝑆
 
19 
 
o Si la media es menor que el modo, la asimetría será negativa. Significa que la media está “más a la 
izquierda” que el modo, por lo que hay acumulación de datos a la derecha. Gráfico con forma de J. 
 
• COEFICIENTE DE ASIMETRÍA O SESGO DE BOWLEY: define la simetría a partir de los cuartiles. Si la distancia 
entre q3-q2 = q2-q1 entonces el coeficiente resultará nulo, indicando que hay simetría. 
Si el coeficiente resulta negativo (asimetría negativa) hay una acumulación de datos a la derecha, y si resulta 
positivo la acumulación de datos se encontrará a la izquierda. 
 
 
• COEFICIENTE DE ASIMETRÍA O SESGO DE FISHER: este coeficiente de asimetría utiliza el cubo de los desvíos. 
El cubo de los desvíos es un promedio de la sumatoria del cubo de los desvíos por la frecuencia absoluta, 
escalado con el cubo de la desviación estándar. Es decir, el coeficiente de Fisher es el promedio de la 
sumatoria del cubo de los desvíos por sus frecuencias, dividido la potencia cúbica de sus desviaciones 
estándar. 
𝛼3 =
1
𝑛
∗
∑ (𝑥𝑖 − �̅�)
3𝑛
𝑖=1 ∗ 𝑓𝑖
𝑠3
 
Si las desviaciones son equivalentes y están por encima o por debajo de la media, el coeficiente de simetría vale cero 
y la forma será de campana, es decir que será simétrica. 
Si el coeficiente de simetría da mayor a 0, al igual que antes la acumulación se encontrará a la izquierda. Caso 
contrario se encontrará a la derecha. 
 
20 
 
• COEFICIENTE DE EXCEL: es muy parecido al coeficiente de Fisher. La única diferencia entre ambos es que 
Excel utiliza un factor de corrección 
𝑛
(𝑛−1)(𝑛−2)
 
𝑐𝑜𝑒𝑓 𝑒𝑥𝑐𝑒𝑙 =
𝑛
(𝑛 − 1)(𝑛 − 2)
∑ (
𝑥𝑖 − �̅�
𝑠 )
3
∗ 𝑓𝑖
𝑛
𝑖=1
 
 
• COEFICIENTE DE CURTOSIS: indica la agudeza del apuntamiento o achatamiento de la distribución de datos, 
respecto a la curva normal que tiene coeficiente igual a 3. 
𝛼4 =
1
𝑛
∗
∑ (𝑥𝑖 − �̅�)4 ∗ 𝑓𝑖
𝑛
𝑖=1
𝑠4
=
∑ (𝑥𝑖 − �̅�)4 ∗ 𝑓𝑟
𝑛
𝑖=1
𝑠4
 
 
• COEFICIENTE DE CURTOSIS en EXCEL (exceso de curtosis): es el mismo coeficiente restándole 3, establece la 
misma relación que en los coeficientes anteriores, donde en cero es “normal”. 
𝛼4 = {
𝑛(𝑛+1)
(𝑛−1)(𝑛−2)(𝑛−3)
∗
∑ (𝑥𝑖−�̅�)
4
∗𝑓𝑖
𝑛
𝑖=1
𝑠4
} − 3
(𝑛−1)2
(𝑛−2)(𝑛−3)
 
La fórmula ahora está referida a cero y no a tres 
Un análisis completo de los datos implica realizar los cálculos de medidas de tendencia central, de dispersión y de 
forma para así poder obtener conclusiones certeras a partir del conjunto de datos. 
 
21 
 
Unidad N° 4 
Variable Aleatoria 
Variable aleatoria X: es una función real medible que asocia un valor numérico a cada resultado del espacio 
muestral (evento) asociado a un experimento aleatorio. A cada evento se le asigna un número real, permitiéndonos 
trabajar con variables de tipo cualitativas. 
Las variables aleatorias deben ser definidas para poder ser trabajadas con mayor facilidad; definir una variable 
aleatoria significa pasar los eventos cualitativos a expresiones matemáticas, por lo general se expresan como 
funciones. Si tomamos el ejemplo de una moneda que es lanzada 2 veces, entonces los resultados posibles son 
{cc,ck,kc,kk}. Es decir que hay 4 posibles resultados cualitativos. Para poder analizar esto matemáticamente 
definimos una variable aleatoria, que en este caso puede ser el número de caras. Pueden salir 2 caras, 1 sola cara o 
ninguna. Esto representa los valores de variable aleatoria que son 0, 1 y 2. El experimento deja de trabajar con datos 
cualitativos y pasa a trabajar con datos cuantitativos. 
• FUNCIÓN: número de caras al lanzar dos monedas al aire 
 
Donde X es la variable aleatoria y x el valor de variable. 
Tipos de Variables aleatorias: 
• DISCRETAS: número finito de valores o infinito numerable (intervalo de los enteros positivos donde no se 
conoce el máximo) 
Ejemplos: 
o Número de caras en el lanzamiento de dos monedas (Discreto finito, 4 posibilidades) 
o Número de piezas defectuosas que aparecen en un proceso de fabricación (discreto infinito 
numerable, el tiempo no está determinado) 
o Número de llamadas telefónicas que se reciben en una central durante un determinado periodo de 
tiempo (discreto finito, está acotado el tiempo) 
o Número de depósitos efectuados al día en una entidad bancaria (discreta finita, el tiempo está 
determinado en días) 
• CONTINUAS: número infinito no numerable de valores (intervalo de los reales, “números con decimales”). 
Se dice que son “superdensos”. 
Ejemplos: 
o Estatura de los miembros de una población 
o Ingresos de los asalariados en una determinada región 
o Cantidad de agua caída en una determinada región 
o Longitud de los tornillos fabricados en una planta metalúrgica 
Funciones de probabilidad
2
: una función de probabilidad de una variable aleatoria discreta es una función 
que asigna probabilidades a los valores de la variable aleatoria (con números enteros). A cada probabilidad de que 
suceda un suceso le corresponde la cantidad de casos favorables. Su fórmula es la siguiente: 
𝑓(𝑥) = 𝑃(𝑋 = 𝑥) → indica probabilidad de que la variable aleatoria tome un valor definido 
 
2 3 Funciones de probabilidad y distribución (uv.es) 
https://www.uv.es/webgid/Descriptiva/3_funciones_de_probabilidad_y_distribucin.html
22 
 
Además, la función debe cumplir con 2 propiedades: 
1. La probabilidad de cada valor de variable aleatoria debe estar entre 0 y 1. → 0 ≤ 𝑓(𝑥) ≤ 1 
2. La suma de las probabilidades asignadas a todos los 
valores de la variable aleatoria debe ser 1. ∑ 𝑓(𝑥) =𝑇𝑜𝑑𝑎 𝑥
1 
En el caso de lanzar un dado: la variable aleatoria es elresultado 
de lanzar un dado y los valores de variable aleatoria son 
x = {1,2,3,4,5,6} 
Para obtener la probabilidad de cada número tengo que 
preguntarme: “¿Cuántos unos tengo en un dado?” (Casos 
favorables) y además conozco el total de casos posibles que son 6. 
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑜𝑐𝑢𝑟𝑟𝑎 𝐴 =
𝑛° 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑑𝑒 𝐴
𝑛° 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠
 
Gráfico de barras 
Distribución acumulativa de probabilidad: Una 
función de distribución o función acumulativa de probabilidad es la 
probabilidad que la variable aleatoria sea menor o igual a un valor 
dado de dicha variable. 
𝑓(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∑ 𝑓(𝑥𝑖)x≤xi → Probabilidad de 
que la variable aleatoria sea menor o igual a un valor determinado. 
Para el ejemplo de los dados: 
 (Suma consecutiva de las frecuencias relativas) 
 
 
 
FÓRMULAS ÚNICAMENTE APLICABLES PARA VARIABLES DISCRETAS: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Función de densidad de probabilidad
3
: Sea X una variable aleatoria continua. Entonces, una función de 
densidad de probabilidad de X es una función f(x) tal que para 2 números cualquier a y b con 𝑎 ≤ 𝑏. 
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = ∫ 𝑓(𝑥)𝑑𝑥
𝑏
𝑎
→ probabilidad de que la variable aleatoria esté entre a y b 
 
3 Función de probabilidad de una variable aleatoria continua | Matemóvil (matemovil.com) 
https://matemovil.com/funcion-de-densidad-de-probabilidad/
23 
 
La probabilidad de que X asuma un valor en el intervalo [a, b] es el área sobre este intervalo y bajo la gráfica de la 
función densidad. Se puede apreciar mejor en la siguiente gráfica: 
 
 
Área bajo la curva de densidad como valores de 
probabilidad 
 
Siempre es una función positiva debido a 
que la función de probabilidad siempre está entre 
valores de 0 y 1. 
La función de probabilidad de una variable aleatoria continua siempre cumplirá con estas condiciones: 
1. 𝑓(𝑥) ≥ 0 → para todas las x 
2. ∫ 𝑓(𝑥)𝑑𝑥 = 1
∞
−∞
 = área bajo toda la gráfica de f(x) → significa en todo el rango de definición 
PROPIEDAD IMPORTANTE: En la función de probabilidad de una variable aleatoria continua sucede 
algo bien interesante si queremos calcular la probabilidad de que la variable aleatoria sea igual a un valor puntual en 
c. → 𝑃(𝑋 = 𝑐) 
La probabilidad se calcula mediante el área bajo la curva, pero el área bajo una curva de densidad situada sobre 
cualquier valor único es 0: 𝑃(𝑋 = 𝑐) = ∫ 𝑓(𝑥)𝑑𝑥 = 0
𝑐
𝑐 
Esto nos permite afirmar que la probabilidad de que X que en algún intervalo entre a y b no depende de si el límite 
inferior a, o el límite superior b, está incluido en el cálculo de la probabilidad: 
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃(𝑎 < 𝑋 < 𝑏) = 𝑃(𝑎 < 𝑋 ≤ 𝑏) = 𝑃(𝑎 ≤ 𝑋 < 𝑏) 
APLICABLE ÚNICAMENTE PARA VARIABLES CONTINUAS. 
 
La función de distribución acumulativa es la función que para un valor x, nos da la 
probabilidad de que la variable aleatoria sea menor o igual que dicho valor x. 
Recuerda que a la función de distribución acumulativa la denominamos F(x). →
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) 
Si por ejemplo tenemos que calcular F(8) haríamos lo siguiente: 𝐹(8) = 𝑃(𝑋 ≤ 8) 
 
 
 
 
Sea X una variable aleatoria continua con función de densidad de probabilidad f(x). La función de distribución 
acumulativa de X es la función: 𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∫ 𝑓(𝑡)𝑑𝑡
𝑥
−∞
 
f(t) es la función de densidad y F(X) es la función de distribución, por lo tanto, la derivada de la función de 
distribución es la función de densidad. 𝑓(𝑥) = 𝑑𝐹(𝑥)
𝑑𝑥
 
De forma gráfica, F(x) es el área bajo la curva de densidad a la izquierda de x. Recordemos que cuando trabajamos 
con la función de densidad, el área representa la probabilidad. 
𝑃(𝑋 > 𝑎) = 1 − 𝐹(𝑎) → Probabilidad de que X sea mayor a un número 
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝐹(𝑏) − 𝐹(𝑎) ; 𝑎 < 𝑏 → Probabilidad de que X esté en un rango 
definido (Regla de Barrow) 
Ejemplo de ejercicio resuelto en math: 
 
 
24 
 
A tener en cuenta: 
Cuando en una oración nos encontramos con las siguientes preposiciones estas quieren indicar: 
• A lo sumo = como Máximo = esto o menos 
• Al menos = como Mínimo = esto o más = cuando menos 
Por ej.: Al menos 2 de los autos están manchados ⟶ 1 - Ac(1) (uno menos la acumulada en 1). 
Momentos de una variable aleatoria 
Valor Esperado; Si conocemos los momentos de una variable aleatoria (todos los momentos), entonces 
podemos saber de qué tipo de función se trata. Supongamos que tenemos una variable aleatoria x y una función g: 
de reales sobre reales. Se define el valor esperado de la variable aleatoria 𝑔(𝑥) como la sumatoria de los productos 
de los valores 𝑔(𝑥𝑖) por los valores respectivos de probabilidad. Es decir que para variables: 
• DISCRETAS: calculamos la esperanza de una variable aleatoria como la sumatoria de los productos de los 
valores de esa función, por su respectiva probabilidad o frecuencia. 
• CONTINUAS: entendemos como la esperanza de una función de variable aleatoria a la integral en el campo 
de definición de los productos de los valores de g(x) (función de variable aleatoria) por f(x)dx, dando 
resultados convergentes (n° menores que infinito y que no necesariamente tendrán que ser iguales). f(x) es 
la función densidad de probabilidad. 
 
 
 
 
 
 
 
 
Esperanza Matemática: 𝐸[𝑋] = ∑ 𝑋 ∗ 𝑃(𝑋 = 𝑥𝑖) 𝑥𝑖∈𝑆 
 
La esperanza matemática también es llamada promedio o valor más esperado. Se calcula como la sumatoria de los 
valores de X por sus respectivas probabilidades. 
1. Esperanza de una constante 
2. Esperanza de una constante y una variable 
Momentos en el origen: los momentos de orden k respecto al parámetro c, se obtienen calculando la 
esperanza de las potencias de los desvíos de la variable aleatoria respecto de c; los momentos respecto al origen son 
aquellos casos en los que c=0 y el subíndice k indica el orden de los mismos. 
• Momento de orden k respecto al parámetro c: 𝑀𝑘
𝑐 = 𝐸[(𝑋 − 𝑐)𝑘] 
• Si c = 0, Momentos respecto al origen: 𝛼𝑘 = 𝐸[𝑋
𝑘] 
Momentos centrales o centrados: Cuando c es la media de la variable aleatoria entonces tenemos los 
momentos centrados o centrales que son la esperanza de la potencia de los desvíos de los valores de variable 
aleatoria respecto a la media. 
• Si c = 𝝁𝒙 , Momentos centrales: 𝝁𝒌 = 𝐸[(𝑋 − 𝜇𝑥)
𝑘] 
Media de una variable aleatoria: La media de una variable aleatoria es la esperanza de X. Es análoga a la 
fr. Se haya según si sea discreta o continua de la siguiente forma: 
• DISCRETAS: La sumatoria de los productos de v.a. X por su respectiva probabilidad. 
• CONTINUAS: Es la integral en el campo de definición de los productos de x por f(x)dx, de −∞ a +∞. 
25 
 
 
 
 
 
Varianza de una v.a.: El momento centrado de orden 2 es la Esperanza de la potencia cuadrática de los 
desvíos. Se obtiene como: 
Donde α12 es la media. 
 
 
 
 
 
 
 
 
 
 
 
Momentos expresados en forma genérica: 
 
Esto se realiza sólo hasta el momento 4, debido a que después de esto comienzan a repetirse. Por ej. 
𝜇′5 = 𝜇′1 𝑦 𝜇′6 = 𝜇′2 
Relación entre ambos Momentos: 
Podemos relacionar ambos momentos a través del binomio de Newton. 
𝜇𝑟 = 𝐸(𝑥 − 𝜇)
𝑟 = 𝐸| (
𝑟
𝑖
) (−1)𝑖 𝑥𝑟−𝑖𝜇𝑖| = (
𝑟
𝑖
) (−1)𝑖 𝐸(𝑥𝑟−𝑖)𝜇𝑖 → ∑ (
𝑟
𝑖
)𝑛𝑖 (−1)
𝑖 𝜇𝑟−1
′ 𝜇𝑖 
Donde (
𝑟
𝑖
)es una combinatoria r en i 
 
Desigualdad de Tchebycheff (no hay que estudiarlo): 
La probabilidad de que la variable aleatoria esté entre una desviación estándar a la 
izquierda o una desviación estándar a la derecha es siempre es mayor que 1 −
1
𝑘2
 : 
26 
 
Distribuciones Discretas Teóricas de Probabilidad 
Distribución Binomial: Esta distribución, que puede considerarse como la generalización del modelo de 
Bernoulli (experimento aleatorio), se aplica cuando los sucesos sean: 
• Dicotómicos 
• Independientes, con reposición. 
• El experimento se realiza n veces en las mismas condiciones. 
• De probabilidad de ocurrencia constante “éxito” (p) o constante “fracaso” (1-p =q) 
• La variable aleatoria es la cantidad de éxitos (o fracasos) que se obtienen en n ensayos. 
• Para construir una distribución binomial es necesario conocer el número de pruebas que se repiten o 
variable aleatoria y la probabilidad de que suceda un éxito en cada una de ellas. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Distribución de Poisson: 
• La variable aleatoria es el número de ocurrencias que sucede un evento en un espacio o tiempo 
determinado. 
• La probabilidad de ocurrencia es constante en dicho espacio o tiempo determinado (con poca frecuencia), 
probabilidad de ocurrencia de los denominados sucesos raros. 
• Su contexto es el mismo que el de la distribución binomial, de tal modo que también se genera la 
Distribución de Poisson cuando el número de ensayos es grande y la probabilidad del suceso tiende a cero. 
• No se sabe el total de posibles resultados. 
• La Distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una 
frecuencia de ocurrencia media λ (lambda), la probabilidad que ocurra un determinado número de eventos 
durante un intervalo de tiempo dado o una región específica. 
 
 
 
 
 
 
 
 
 
 
 
 
27 
 
• Si n es grande y p pequeña podemos utilizar la Distribución de Poisson. 
• Siempre es una distribución asimétrica positiva. 
• Siempre será leptocúrtica. 
 
 
Distribución Hipergeométrica: Esta distribución, es referida a un modelo de muestra donde hay 
elementos de 2 tipos posibles. Indica la probabilidad de obtener un número de objetos x de uno de los tipos, al 
sacar una muestra de tamaño n, de un total de N objetos, de los cuales k es el tipo requerido. 
Utilizamos esta distribución cuando tenemos muestras obtenidas de poblaciones relativamente chicas, sin 
reemplazo. Además, es utilizada en la prueba exacta de Fisher, para probar la diferencia entre dos proporciones, y 
en muestreos de aceptación por atributos, cuando se toman muestras de un lote aislado de tamaño finito. 
Es parecida a la distribución binomial con la diferencia de que los sucesos no son independientes. Las probabilidades 
no son constantes para todos los elementos. La muestra de tamaño es generalmente pequeña. 
Su fórmula es: 
 
 
 
 
 
 
 
 
 
Distribución Binomial Negativa: Este tipo de distribución tiene el contexto de aplicación de la distribución 
binomial. Se aplica cuando los sucesos sean: 
• Dicotómicos 
• Independientes 
• Probabilidad de éxito o fracaso constante 
La diferencia reside en que la variable aleatoria es el número de ensayos necesarios para obtener cierta cantidad de 
éxitos; es el número de fracasos que ocurren hasta conseguir un número determinado de éxitos. 
28 
 
 
El número combinatorio nos determina de cuántas formas se puede organizar o dar la situación. Si sumamos la 
cantidad de éxitos y la cantidad de fracasos nos tiene que dar la cantidad de ensayos o tamaño de la muestra. 
Distribución Geométrica: Esta distribución es un caso particular de distribución binomial negativa cuando el 
número de éxitos es 1. 
Supongamos que tenemos: 
• Una serie de ensayos Bernoulli independientes. 
• Con probabilidad de éxito constante. 
• Si X: es el número de ensayos necesarios hasta obtener el primer 
éxito, entonces X tiene una distribución geométrica con parámetro p. 
Comparación entre las distribuciones 
 
DISCRETAS 
Distribución 
Binomial 
Distribución 
Hipergeométrica 
Distribución de 
Poisson 
Distribución 
Binomial 
Negativa 
Distribución 
Geométrica (caso 
D.B.N.) 
Población Relativamente 
Grande 
Relativamente 
Chica 
Grande 
 
Sucesos 
Dicotómicos 
✔️ ✔️ ✔️ ✔️ ✔️ 
Sucesos 
Independientes 
✔️ ❌ ✔️ ✔️ ✔️ 
Cte. Éxito y 
Cte. Fracaso 
✔️ ❌ ✔️ ✔️ ✔️ 
n° de éxitos = 1 
 
Variable 
Aleatoria 
cantidad de éxitos 
(o fracasos) que se 
obtienen en n 
ensayos 
cantidad de éxitos 
(o fracasos) que se 
obtienen en n 
ensayos 
n° de ocurrencias 
que sucede un 
evento en un 
espacio o tiempo 
determinado 
n° de ensayos 
necesarios para 
obtener cierta 
cantidad de éxitos 
 n° de ensayos 
necesarios hasta 
obtener el primer 
éxito 
 
Asimetría 
Simétrica, 
Asimétrica Negativa 
o Positiva 
??? Asimétrica 
positiva 
Asimétrica 
positiva 
Asimétrica positiva 
Apuntamiento Platicúrtica ??? Leptocúrtica Leptocúrtica Leptocúrtica 
29 
 
Distribución Multinomial: 
Es una distribución de probabilidad conjunta para múltiples variables aleatorias (𝑋1, 𝑋2, (. . . ), 𝑋𝑘 ) discretas donde 
cada 𝑋𝑖~𝑏(𝑛, 𝑝𝑖), dándose cuando en cada prueba o ensayo independiente (con reposición) del E.A. interesa contar 
el número de exitos en cada una de la k maneras como se puede dar un atributo. 
Se utiliza en variables aleatorias policotómicas. Hay más de dos resultados posibles. Los parámetros de esta 
distribución son el tamaño de la muestra y las probabilidades constantes de cada uno de los eventos. 
Ejemplo: 
El atributo calidad de un producto se puede dar como: Excelente, bueno, regular y malo. 
PROPIEDADES: 
1. Son n pruebas o ensayos repetidos e idénticos (con reposición). 
2. En cada prueba o ensayo se pueden producir k resultados. 
3. Las probabilidades de cada uno de los k resultados (𝑝1, 𝑝2, (… ), 𝑝𝑘) permanecen constantes en todas 
las pruebas o ensayos. 
4. Son pruebas o ensayos independientes. 
5. El interés se centra en contar los 𝑋1, 𝑋2, (. . . ), 𝑋𝑘 éxitos que se producen en los n ensayos de cada una 
de las k categorías posibles de observar cada vez. 
6. La suma de la cantidad de veces que ocurran los eventos da el tamaño de la muestra. 
7. La suma de las probabilidades de todas las clases tiene que dar igual a 1. 
Si una prueba ó intento puede dar cualquiera de los k resultados posibles 𝐸1, 𝐸2, (… ), 𝐸𝑘 con 
probabilidades 𝑝1, 𝑝2, (… ), 𝑝𝑘, entonces la distribución multinomial dara la probabilidad de que: 
 
 
 
30 
 
Unidad N° 5 
Distribuciones Continuas Teóricas de Probabilidad 
Como dato inicial: cuando una variable es continua, da lo mismo si el intervalo es abierto o cerrado, porque en los 
extremos no hay valor de probabilidad en el punto. El valor de probabilidad en el punto es cero. 
Distribución Uniforme: Es la más simple de todas las distribuciones modelo y en ella la variable aleatoria 
asume cada uno de los valores con una probabilidad idéntica. 
• Siempre es simétrica 
• Siempre es platicúrtica 
• Su función es la de densidad de probabilidad 
• Es muy útil con la generación de n° aleatorios 
• La media = mediana. 
𝑎+𝑏
2
 
Se utiliza mucho como base de soporte del cálculo de números aleatorios, porque cuando se quiere generar 
aleatoriamente los números en un rango determinado, es útil que todos los valores tengan la misma probabilidad. 
Esta distribución es la única que tiene este atributo. 
La distribución uniforme tiene la característica de que es constante en un intervalo dado, ya sea este abierto o 
cerrado; se puede definir de la siguiente manera: 
Sea la variable aleatoria X que puede asumir valores 𝑥1, 𝑥2, (. . . ), 𝑥𝑘 con idéntica probabilidad. Entonces la distribución 
uniforme discreta viene dada por: 
 
O sea que el parámetro clave en esta distribución es k = número de valores que asume la variable aleatoria X y que 
sería un parámetro de conteo. 
Así por ejemplo cuando se lanza un dado correcto, cada una de las seis caras posibles conforman el espacio 
muestral: La v.a X: número de puntos en la cara superior del dado tiene una 
distribución de probabilidad Uniforme discreta, puesto que: 
= para x = 1, 2, 3, 4, 5,6 
 en otro caso. 
Un ejercicio importante: 
¿A cuántas desviaciones estándar se puede alejar la variable aleatoria uniforme respecto de la media? 
 
 
𝒂 + 𝒃
𝟐
 𝑴𝒆𝒅𝒊𝒂𝒏𝒂 + 𝒌 ∗ 𝒔 𝑫𝒆𝒔𝒗𝒊𝒂𝒄𝒊𝒐𝒏𝒆𝒔 𝑬𝒔𝒕á𝒏𝒅𝒂𝒓 = 𝒂 𝑜 𝒃 𝑬𝒙𝒕𝒓𝒆𝒎𝒐𝒔 𝑺𝒖𝒑. 𝒐 𝑰𝒏𝒇. 
Para hallar a cuántas desviaciones estándar se puede alejar la variable respecto de la media tan solo debemos 
despejar k de la fórmula. Nos quedará que: 
𝑘 =
(𝑏 −
𝑎 + 𝑏
2 )
(
𝑏 − 𝑎√12
)
→ 𝑘 =
(𝑏 −
𝑎 + 𝑏
2 )
𝑏 − 𝑎
∗ √12 → 𝑘 =
2𝑏 − 𝑎 − 𝑏
2
𝑏 − 𝑎
∗ 2√3 → 
31 
 
𝑘 =
2𝑏 − 𝑎 − 𝑏
2(𝑏 − 𝑎)
∗ 2√3 → 𝑘 =
(𝑏 − 𝑎)
2(𝑏 − 𝑎)
∗ 2√3 → 𝑘 =
1
2
∗ 2√3 = √3 
En conclusión, se puede alejar 3 desviaciones estándar de la media. 
 
Distribución Normal: es de suma importancia en estadística por tres razones principales: 
1. Numerosas variables continuas de fenómenos aleatorios tienden a comportarse probabilísticamente 
mediante ésta. 
2. Es el límite al que convergen tanto variables aleatorias continuas como discretas. 
3. Proporciona la base de la inferencia estadística clásica debido a su relación con el teorema del límite central. 
PROPIEDADES: 
• Su gráfica tiene forma acampanada. (Campana de Gauss, gran aplicación en la física) 
• El valor esperado, la mediana y la moda tienen el mismo valor cuando la variable aleatoria se distribuye 
normalmente. 
• Su dispersión media es igual a 1.33 desviaciones estándar. Es decir, el alcance intercuartil está contenido 
dentro de un intervalo de dos tercios de una desviación estándar por debajo de la media a dos tercios de una 
desviación estándar por encima de la media. 
• Su asimetría es igual a 0, lo que significa que es simétrica. 
• Es mesocúrtica. 
• El área total bajo la curva de densidad siempre tiene que ser igual a 1. 
FUNCIÓN DE DENSIDAD: 
 
FUNCIÓN DE DISTRIBUCIÓN: 
 
Tipificación o Estandarización: 
Para no trabajar con distintas distribuciones normales, para cada media y cada desviación estándar lo que se 
procede a hacer es estandarizar la variable natural X. Para poder tipificar se realiza un centrado de la variable, 
32 
 
haciendo la diferencia de la media y los desvíos. Luego se hace un escalamiento respecto de la desviación estándar, 
es decir, que Z va a estar midiendo o referenciando las distancias de la variable aleatoria en términos de la 
desviación estándar. 
 
 
 
 
Es la misma distribución normal, sin embargo, se dice que 
está estandarizada. 
En las variables z y t se puede utilizar solo z, el Math ya no 
necesita una variable auxiliar. 
 
 
 
 
 
 
 
Aproximación de la Binomial con la Normal (Teorema de Moivre - Laplace): 
La distribución Binomial, cuando el tamaño de la muestra es grande, es medio complicada trabajarla. 
Cuando n es grande y p y q no están próximos a cero, sino que a 0,5 (si están próximos a 0,5, la distribución es 
simétrica y hay una buena aproximación de la Binomial con la Normal) la distribución Binomial B(n,p) se puede 
aproximar mediante una distribución normal. 
 
Hay que tener en cuenta que el tamaño de la muestra sea adecuado y para eso usamos la siguiente regla: El 
producto del tamaño de la muestra (n) por la probabilidad de éxito (p) sea mayor o igual que 5 sobre el tamaño de la 
muestra (La del fracaso es lo mismo ya que dan iguales, podemos considerar cualquiera de las dos). Si se cumple esa 
condición, podemos decir que la media es np y la desviación estándar es √𝒏𝒑𝒒; esto se puede transformar en una 
distribución normal. Esto lo hacemos considerando una variable “Z” centrada respecto de media binomial (x-np) y 
estandarizada con respecto a la desviación estándar binomial (√𝒏𝒑𝒒). Si es así, entonces vamos a trabajar a la 
variable como una normal estándar: 
 
33 
 
La diferencia esencial entre una variable binomial y una variable normal es que la variable binomial es discreta y la 
variable normal es continua. 
 
Acá sí es importante tener en cuenta si la variable aleatoria es menor, menor-igual o igual a un número, ya que la 
variable aleatoria natural es binomial y no continua(debemos tratarla como una variable discreta). Será discreta pero 
la trabajaremos como continua. 
Si quiero hallar la probabilidad: 𝑃(𝑥 < 𝑎)(es decir el acumulado hasta el número anterior a “a”), debo tomar la 
𝑃(𝑥 ≤ 𝑎 − 0.5). Al restarle 0.5, estoy teniendo en cuenta el valor anterior a “a”. 
Si quiero sacar la probabilidad: 𝑃(𝑥 ≤ 𝑎) estoy tomando el punto “a” directamente, entonces cómo debemos hacer 
la corrección de continuidad o corrección de Yates le debemos sumar 0.5 → 𝑃(𝑥 ≤ 𝑎 + 0.5). 
Si quiero hallar la probabilidad en un intervalo: 𝑃(𝑎 ≤ 𝑥 ≤ 𝑏)voy a tener que tomar la variable desde “a” hacia la 
izquierda 0,5 y desde “b” hacia la derecha 0,5 → 𝑃(𝑎 − 0,5 ≤ 𝑥 ≤ 𝑏 + 0,5). 
La 𝑃(𝑎 < 𝑥 < 𝑏) será 𝑃(𝑎 + 0,5 ≤ 𝑥 ≤ 𝑏 − 0,5). 
Si la variable aleatoria es binomial con tamaño n y probabilidad de éxito p, lo que hago es tomar una distribución 
normal con media n*t y desviación estándar √𝑛𝑝𝑞. Para transformarlo en normal hago la estandarización de la 
variable, el centrado o la diferencia respecto a la media y el escalamiento respecto a la desviación estándar. De esta 
manera, lo puedo trabajar como una distribución normal común. 
 
 
Distribución Gamma: Esta distribución es de suma importancia debido a que es base de otras distribuciones. 
La distribución gamma modela en general tiempos. Tiene 2 parámetros un alpha (α) y un theta (θ), el primero es un 
factor de forma y el segundo es un factor de escala. 
34 
 
• Tiene Asimetría Positiva 
• Es Leptocúrtica 
• En caso de no conocer su parámetro lo podemos averiguar con estadística 
Típico ejemplo para este tipo de distribuciones: 
Supóngase que una pieza está sometida a una cierta fuerza de manera que se romperá después de aplicar un 
número específico de ciclos de fuerza. si los ciclos ocurren de manera independiente y a una frecuencia promedio 
dada, entonces el tiempo que debe transcurrir antes de que el material se rompa es una variable aleatoria que sigue 
una distribución gamma, su función densidad viene expresada por: 
 
Esta distribución se emplea de manera extensa en gran diversidad de 
áreas: 
• Para representar el tiempo de falla de un sistema, que falla solo si, de manera exacta los componentes fallan 
y la falla de cada componente ocurre a una frecuencia constante 𝜆 = 1/𝜃 por unidad de tiempo. 
• En líneas de espera para completar una reparación que se lleva a cabo en subestaciones; en cada una de las 
cuales es un evento independiente que ocurre a una frecuencia constante igual a 𝜆 = 1/𝜃. 
• Intervalos de tiempos entre dos fallos de un motor 
• Intervalos de tiempos entre dos llegadas de automóviles a una gasolinera 
• Tiempos de vida de sistemas electrónicos, etc 
FORMA DE LA GRÁFICA SEGÚN LOS VALORES DE ALPHA: 
 
Ejemplo de esperanza importante: 
 
Distribución Exponencial Negativa: modela los tiempos para que haya una falla en el sistema. Resulta 
que la exponencial es un caso especial de la Distribución Gamma, ambas tienen un gran número de aplicaciones. Las 
distribuciones exponenciales y gamma juegan un papel importante tanto en la teoría de colas como en problemas de 
confiabilidad. 
El tiempo entre las llegadas en las instalaciones de servicio, y el tiempo de falla de los componentes y sistemas 
eléctricos, frecuentemente involucran la distribución exponencial. La relación entre la gamma y la exponencial 
permite que la distribución gamma se utilice en tipos similares de problemas (más generales). 
La variable aleatoria x tiene una distribución exponencial, con parámetro 𝛽, y su función de densidad es: 
 
 
 
 
 
 
 
La media de una distribución exponencial es el parámetro 𝛽 y la desviación estándar es √𝛽. 
 
 
 
35 
 
Ejemplo de combinación de 2 distribuciones: 
 
Distribución Ji-Cuadrada (Χ2): en realidad la distribución ji-cuadrada es la distribución muestral de 𝑠2. O 
sea que, si se extraen todas las muestras posibles de una población normal y a cada muestra se le calcula su 
varianza, se obtendrá la distribución muestral de varianzas. 
Para estimar la varianza poblacional o la desviación estándar, se necesita conocer el estadístico 𝑋2. Si se elige una 
muestra de tamaño n de una población normal con varianza 𝜎2, el estadístico: 
(𝑛−1)𝑠2
2
→ Variable ji-cuadrada 
tiene una distribución muestral que es una distribución ji-cuadrada con 𝑔𝑙 = 𝑛 − 1 (grados de libertad) y se 
denota Χ2(X es la minúsculade la letra griega ji). 
Para determinar este tipo de variable necesitamos conocer el tamaño de la muestra n, la desviación estándar s y la 
varianza poblacional 𝝈. 
Por lo tanto el estadístico ji-cuadrada está dado por: 𝑋2 =
(𝑛−1)𝑠2
𝜎2
 
donde n es el tamaño muestral, s2la varianza muestral y 2la varianza de la población de donde se extrajo la muestra. 
El estadístico ji-cuadrada también se puede dar con la siguiente expresión: 
𝑋2 =
∑(𝑥−ẋ)2
𝜎2
→ sumatoria del cuadrado de los desvíos respecto a sigma cuadrado 
PROPIEDADES DE LAS DISTRIBUCIONES JI-CUADRADA 
1. Los valores X2 de son mayores o iguales a 
0 → 𝑋2 ≥ 0 
2. La forma de la distribución 𝑋2 depende 
de 𝑔𝑙 = 𝑛 − 1. En consecuencia, hay un 
número infinito de distribuciones 𝑋2. 
3. El área bajo la curva de ji-cuadrada y sobre 
el eje horizontal es 1. 
4. La distribución 𝑋2 no son simétricas. Tienen 
colas estrechas que se extienden a la 
derecha; esto significa que están sesgadas a 
la derecha. (Acumulación a la izquierda) 
5. Cuando n>2, la media de una distribución 
𝑋2 es n-1 y la varianza es 2(n-1). 
6. El valor modal de una distribución 𝑋2 se da 
en el valor (n-3). 
Un método estadístico, llamado técnica ji-cuadrada, tiene cuatro aplicaciones principales: 
1. Probar la supuesta independencia de dos variables cualitativas de una población. 
2. Hacer inferencias sobre más de dos proporciones de una población. 
36 
 
3. Hacer inferencias sobre la varianza de la población. 
4. Realizar pruebas de bondad de ajuste para evaluar la credibilidad de 
que los datos muestrales, vienen de una población cuyos elementos 
se ajustan a un tipo específico de distribución de probabilidad. 
 
La distribución de ji-cuadrada, o chi-cuadrada, como también se le conoce, 
tiende a la normalidad, tal y como se muestra en la siguiente figura a medida 
que aumentan los grados de libertad. 
Para poder aplicar Ji-cuadrado la variable debe estar distribuida 
normalmente. 
Ejemplo 
Suponga que los tiempos requeridos por un cierto autobús para alcanzar un de sus destinos en una ciudad grande 
forman una distribución normal con una desviación estándar 𝜎 =1 minuto. Si se elige al azar una muestra de 17 
tiempos, encuentre la probabilidad de que la varianza muestral sea mayor que 2. 
Solución: 
 
Distribución Beta: modela proporciones de cantidades, su variable serán todos los valores entre 0 y 1. La 
proporción va a tener un mínimo 0 y un máximo 1, que representan el 100%. 
Tiene 2 parámetros, un parámetro Alpha y un parámetro beta, ninguno de los 2 es un parámetro de escala, son 
parámetros de forma. Quiere decir que los parámetros definen la forma de la distribución. 
 
 
 
37 
 
 
ANÁLISIS DE FORMA SEGÚN VARÍEN LOS PARÁMETROS: 
La distribución beta es posible para una variable aleatoria 
continua que toma valores en el intervalo [0,1], lo que la 
hace muy apropiada para modelar proporciones. En la 
inferencia bayesiana, por ejemplo, es muy utilizada como 
distribución a priori cuando las observaciones tienen una 
distribución binomial. 
Uno de los principales recursos de esta distribución es el 
ajuste a una gran variedad de distribuciones empíricas, 
pues adopta formas muy diversas dependiendo de cuáles 
sean los valores de los parámetros de forma 𝛼 y 𝛽, 
mediante los que viene definida la distribución. 
 
Ejemplo de distribución beta: 
Un distribuidor mayorista de gasolina tiene tanques de almacenamiento de gran cantidad con un 
abastecimiento fijo, los cuales se llenan cada lunes. Él, desea saber el porcentaje de gasolina vendido 
durante la semana. 
Después de varias semanas de observación, el mayorista descubre que este porcentaje podría describirse 
mediante una distribución beta con 𝛼 = 4 y 𝛽 = 2.
 
 
38 
 
Unidad N° 6 
Población y muestra 
Para que cualquier estudio de investigación sea efectivo, es necesario seleccionar la población de estudio que sea 
verdaderamente representativa en toda la población. Antes de comenzar su estudio, la población objetivo debe ser 
identificada y acordada. Seleccionando y conociendo su muestra con suficiente antelación, se eliminará en gran 
medida cualquier retroalimentación que se considere útil para el estudio. 
Si el objetivo de tu encuesta es comprender la efectividad de un producto o servicio, entonces la población de 
estudio debe ser los clientes que lo han usado o que mejor se adapten a sus necesidades y que usarán el 
producto/servicio. 
Sería muy costoso y lento recolectar datos de toda la población de tu mercado objetivo. Mediante un 
muestreo preciso de su población de estudio, es posible construir una imagen real del mercado objetivo utilizando las 
tendencias de los resultados. 
La representatividad de la muestra depende del tamaño de la misma y el tipo de muestreo que se produce. La 
importancia de que la muestra sea representativa en un conjunto de datos es que permite inferir sobre muchas 
características de la población objetivo, de manera tal de que mis conclusiones tengan mayor grado de validez de lo 
que pueden tener cuando la muestra es no representativa. 
Hay 2 tipos de muestreo: 
1. No Probabilístico: el muestreo no probabilístico es una técnica utilizada en 
la muestra estadística que, a diferencia de la muestra probabilística, no permite 
que todos los individuos de una población a investigar, posean las mismas 
oportunidades de selección. 
En este tipo de muestreo predominan aquellos individuos que, al cumplir con 
cierta cualidad o característica, benefician la investigación. 
Existen distintos tipos de muestreo no probabilístico: 
• CONVENIENCIA: Es aquel donde el investigador realiza la muestra, 
seleccionando individuos que considera accesibles y de rápida 
investigación. Esto generalmente lo hace por proximidad a él mismo. Ocurre generalmente cuando 
uno desea obtener información respecto a algún conjunto de datos y tiene a mano una fuente de 
datos que es de fácil acceso al investigador. 
Las principales características de este tipo de muestreos son la accesibilidad y la rapidéz. 
Lógicamente las conclusiones que se extraerán de este estudio no necesariamente serán extensibles 
a toda la población 
Ejemplo: Un investigador decide realizar un estudio sobre la opinión de un profesor en un aula 
determinada. Al utilizar el muestreo por conveniencia, conforma su muestra con los primeros 5 
alumnos de la lista del aula. 
• POR CUOTAS: A través del muestreo por cuotas, el investigador se asegura de que la muestra sea 
equitativa y proporcional, de acuerdo con las características, cualidades o rasgos de la población a 
estudiar. Se completa por partes el tamaño de la muestra. 
Ejemplo: un investigador debe realizar una muestra sobre los empleados de una empresa, en la que 
el 60% son mujeres y el 40% son hombres. Para hacerlo, selecciona individuos que sean 
proporcionales a la población, a través de un muestreo por conveniencia o a la elección del 
investigador. 
• BOLA DE NIEVE: También conocido como muestreo en cadena, este método consiste en que el 
investigador exija, al primer sujeto de la muestra, identificar o señalar a otra persona que cumpla 
con los requisitos de la investigación. Se utiliza cuando no es fácil la accesibilidad a los datos y se 
requieren recomendaciones (se basa en esto). 
Ejemplo: un investigador decide realizar una investigación cuya muestra la conforman individuos 
con una rara enfermedad. De esta manera, al encontrar un individuo con dichas características, el 
investigador le pide ayuda para encontrar otras personas con estas condiciones para conformar la 
muestra. 
Otro ejemplo puede ser una investigación referida a las drogas. 
39 
 
• DISCRECIONAL: También conocido como muestreo por juicio o intencional, mediante esta técnica 
los sujetos se eligen para conformar un grupo específico, de personas que resultan más adecuadas 
para el análisis que otras (se elige a criterio propio la muestra). 
Ejemplo: Se desea realizar una investigación sobre el comportamiento de los padres con sus hijos.

Continuar navegando