Logo Studenta

ESTADISTICA_APLICADA

¡Este material tiene más páginas!

Vista previa del material en texto

INTRODUCCIÓN. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
OBJETIVOS GENERALES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
OBJETIVOS PARTICULARES. . . . . . . . . . . . . . . . . . . . . . . . . . 
CONCEPTOS BÁSICOS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
ESTADÍSTICA DESCRIPTIVA 
 INTRODUCCIÓN. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
 RECOLECCIÓN DE DATOS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
 TEORÍA DEL MUESTREO. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
 TRATAMIENTO DE LOS DATOS. . . . . . . . . . . . . . . . . . . . . . . . 
 TRATAMIENTO POR DATOS AGRUPADOS. . . . . . . . . . . . . . 
 Medidas de posición. . . . . . . . . . . . . . . . . . . . . . . . . 
 Medidas de dispersión. . . . . . . . . . . . . . . . . . . . . . . . 
 Estudio de la forma de la curva. . . . . . . . . . . . . . . . . 
 Estudio de la normalidad de la muestra. . . . . . . . . . . 
 DISTRIBUCIONES BIDIMENSIONALES. . . . . . . . . . . . . . . . . . . . 
 CORRELACIÓN. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
 INDEPENDENCIA ESTADÍSTICA. . . . . . . . . . . . . . . . . . . . . 
 REGRESIÓN. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
PROBABILIDAD 
 DEFINICIONES PREVIAS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
 DEFINICIONES DE PROBABILIDAD. . . . . . . . . . . . . . . . . . . . . . 
 CÁLCULO DE PROBABILIDAD. . . . . . . . . . . . . . . . . . . . . . . . . 
 PERMUTACIONES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
 COMBINACIONES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
 PROBABILIDAD CONDICIONAL. . . . . . . . . . . . . . . . . . . . .
 PROBABILIDAD TOTAL. . . . . . . . . . . . . . . . . . . . . . . . . . . .
 TEOREMA DE BAYES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
 VARIABLES ALEATORIAS. . . . . . . . . . . . . . . . . . . . . . . . . . . . 
 V. A. DISCRETAS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
 V. A. CONTINUAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
 DISTRIBUCIONES PROBABILÍSTICAS. . . . . . . . . . . . . . . . . . . . 
 DISTRIBUCIONES PROBABILÍSTICAS DISCRETAS. . . . . . . . . 
 DISTRIBUCIONES PROBABILÍSTICAS CONTINUAS. . . . . . . . 
INFERENCIA ESTADÍSTICA
 INTRODUCCIÓN. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
 LOS ESTIMADORES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
 ESTIMACIÓN PUNTUAL. . . . . . . . . . . . . . . . . . . . . . . . . . . 
 ESTIMACIÓN POR INTERVALOS. . . . . . . . . . . . . . . . . . . . . 
 PRUEBA DE HIPÓTESIS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
ACTIVIDADES 
 ESTADÍSTICA DESCRIPTIVA. . . . . . . . . . . . . . . . . . . . . . . . . . . 
 PROBABILIDAD. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
 INFERENCIA ESTADÍSTICA. . . . . . . . . . . . . . . . . . . . . . . . . . . 
BIBLIOGRAFÍA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
Estadística Aplicada
Di Paolo, Claudio Javier
Índice 2
3
4
5
8
8
8
10
11
14
17
19
21
22
22
24
25
29
30
31
31
32
32
32
32
33
33
34
35
35
37
43
43
43
44
48
51
63
68
74
2
En las Escuelas Técnicas nos ocupamos de formar al alumno íntegra-
mente, haciendo énfasis en la prácticas profesionalizantes a partir de un 
exigente y continuo entrenamiento. 
Somos productores de resultados y, por sobre todo, de información. 
Pero más aún, productores de datos; que muchas veces se pierden por 
no registrarlos.
Es allí en donde debemos continuar la labor tan importante, que no sólo 
culmina en la producción de resultados fruto de la aplicación de las 
técnicas, sino, también, en darle tratamiento al conjunto de datos 
producidos, a partir de un correcto registro, para poder intervenir en 
conclusiones sobre los resultados y poder tomar decisiones que mejoren 
la calidad de la educación desde el proceso hasta su producto final.
Estadística Aplicada
Di Paolo, Claudio Javier
Introducción 
3
El propósito de este curso-taller es implementar un plan estratégico 
teórico-práctico de técnicas estadísticas, para continuar la labor 
desarrollada en el campo práctico e incorporarlas en el campo científico-
tecnológico (gestión y control de la calidad), valiéndonos de los datos 
producidos para darles tratamiento, utilizando como soporte los medios 
informáticos; especialmente las hojas de cálculo, que son versátiles, útiles 
y fáciles de usar. De esta manera, se desea que el docente se actualice en 
el ámbito del uso de las nuevas tecnologías como recursos exigentes para 
la mejora de las prácticas educativas, proyecte un camino de trabajo 
continuo, incorporando estándares de calidad que puedan ordenar y 
organizar el trabajo cotidiano, juzgar la eficacia y precisión de los datos 
experimentales, así como también generar conciencia de que estos juicios 
pueden perfeccionarse mediante la aplicación de métodos estadísticos. 
Se pretende motivar a los docentes en el uso de nuevas tecnologías 
acopladas a equipos de laboratorios y/o taller, para la obtención 
automática de datos y su posterior análisis, valiéndonos de un conjunto 
de herramientas estadísticas, que nos permita proyectar un futuro 
(inferencia), establecer intervalos de confianza (márgenes de 
aceptabilidad) y acciones correctivas a partir de la detección de errores 
(planes de contingencia).
Estadística Aplicada
Di Paolo, Claudio Javier
Objetivos Generales
4
Que el participante logre:
 Analizar y discutir distintos enfoques metodológicos para la enseñanza 
teórico - práctica de la estadística, en las instituciones educativas.
 Adoptar una posición crítica, responsable, cooperativa y constructiva 
en relación al trabajo de campo, de articulación curricular y trabajo en 
equipo.
 Conocer la posibilidad de acoplar equipos e instrumentos de medición 
y ensayo con la informática para el procesamiento automático de los 
datos.
 Utilizar las hojas de cálculo para la implementación de técnicas 
estadísticas.
 Aplicar el uso de técnicas estadísticas como herramientas de gestión.
 Mejorar las prácticas educativas.
 Incorporar estándares de calidad.
 Contextualizar la práctica profesional con los contenidos de las 
prácticas curriculares.
Estadística Aplicada
Di Paolo, Claudio Javier
Objetivos Particulares
5
ESTADÍSTICA
Muchas son las definiciones propuestas por varios autores; sin ultimar 
detalles, todos acuerdan en que la Estadística es la ciencia de recolectar 
datos, describirlos, interpretarlos, analizarlos y emitir conclusiones sobre 
los resultados.
Cualquiera sea el punto de vista, lo fundamental es la importancia 
científica que tiene la estadística, debido al gran campo de aplicación que 
posee.
La Estadística se divide en dos áreas:
 Estadística descriptiva: consiste en el proceso de la recolección, 
clasificación, descripción, representación y análisis de datos a partir de 
una muestra. Nos permite conocer la realidad de lo ocurrido.
 Estadística inferencial: consiste en la aplicación de técnicas apoyadas en 
modelos probabilísticos que a partir de datos muestrales permiten 
efectuar estimaciones, decisiones, predicciones u otras generalizaciones 
sobre un conjunto mayor de datos.
POBLACIÓN
Es la colección (ó conjunto universo) de individuos, objetos o eventos 
cuyas propiedades serán analizadas. 
Hay dos tipos de poblaciones:
Población finita: es posible enumerar físicamente cada uno de los ele-
mentos que la componen. Ej.: Estudio estadístico sobre libros de una 
biblioteca de una escuela.
Población infinita: cuando los elementos que lacomponen son un 
número ilimitado e imposible de contar. Ej.: La población de todas las 
personas que podrían tomar ibuprofeno.
MUESTRA
Es un subconjunto representativo de la población.
VARIABLE
Característica de interés sobre cada elemento individual de una pobla-
ción o muestra.
Estadística Aplicada
Di Paolo, Claudio Javier
Conceptos Básicos
6
TIPOS DE VARIABLES
CUANTITATIVAS
Cuando representan una medición.
Discretas: Sólo pueden tomar valores enteros.
Continuas: Pueden tomar cualquier valor real dentro de un intervalo.
CUALITATIVAS
Cuando representan una cualidad.
Escala Nominal: significa asignar arbitrariamente una etiqueta a una 
variable. 
Por ej.: Sexo: 0 Femenino 1 Masculino
Escala Ordinal: se asignan valores a la variable ordenadamente de 
manera tal que el mayor se corresponde a la mejor opción. 
Por ej.: 0 Malo 1 Regular 2 Bueno 3 Muy Bueno 4 Excelente
Escala de intervalo: existe un orden entre los valores y además, una 
noción de distancia. 
Por ej.: la medición de la temperatura que se puede obtener por un 
termómetro en grados Fahrenheit.
Escala de razón: la magnitud tiene un sentido físico y existe el cero 
absoluto que se puede asignar a la ausencia de información. 
Por ej.: la variable edad estudiada en una población.
DATO
Valor de la variable asociada a un elemento de una población o muestra. 
Este valor puede ser un número, una palabra o un símbolo.
DATOS
Conjunto de valores recolectados para la variable de cada uno de los 
elementos que pertenecen a la muestra. 
EXPERIMENTO
Actividad planeada cuyos resultados producen un conjunto de datos.
PARÁMETRO
Valor numérico que resume todos los datos de una población.
ESTADÍSTICO
Valor numérico que resume los datos de una muestra.
Estadística Aplicada
Di Paolo, Claudio Javier
Conceptos Básicos
7
Para interpretar estos conceptos podemos citar como ejemplo el 
siguiente caso de estudio:
Un estudiante del colegio está interesado en averiguar el valor promedio 
en pesos de los automóviles que pertenecen al cuerpo docente del IPEM 
XXX de la ciudad de Córdoba. Cada término se identifica en esta 
situación como:
 
 1 POBLACIÓN: el conjunto de todos los automóviles que pertenecen 
a todos los miembros del cuerpo docente del IPEM XXX.
 2 MUESTRA: es un subconjunto de la población. Por ejemplo podría 
ser los automóviles de los docentes de todas las divisiones de cuarto año 
del IPEM XXX.
 3 VARIABLE: valor en $ de cada automóvil.
 4 DATO: El valor en $ de un automóvil en particular. El automóvil del 
Profesor Pérez, Juan valuado en $ 25.400.
 5 DATOS: Conjunto de valores en $, correspondientes a la muestra 
obtenida: $ 25.400; $ 12.800; $ 35.600; $ 17.765.
 6 EXPERIMENTO: Método aplicado para seleccionar y recolectar los 
datos correspondientes a los automóviles de la muestra y su valor.
 7 PARÁMETRO: valor promedio en $, de los automóviles del cuerpo 
docente del IPEM XXX.
 8 ESTADÍSTICO: Valor promedio en $ de los automóviles, correspon-
dientes a los docentes de todas las divisiones de cuarto año del IPEM 
XXX.
Estadística Aplicada
Di Paolo, Claudio Javier
Conceptos Básicos
8
INTRODUCCIÓN
Antes de comenzar a detallar las mediciones y los cálculos que 
planificamos estudiar, es necesario plantear los diversos métodos que 
abarca la Teoría del Muestreo, punto de partida para iniciar cualquier 
estudio estadístico.
RECOLECCIÓN DE DATOS
Es un proceso complicado y debe realizarse con la mayor cautela y 
profesionalismo posible. Podemos incluir los siguientes pasos para 
organizar la recolección:
 1 Definir los objetivos del estudio.
 2 Definir la variable y la población de interés.
 3 Definir los esquemas para recolectar y medir los datos.
 4 Determinar las técnicas idóneas para realizar el análisis de datos: 
descriptivo o inferencial.
TEORÍA DEL MUESTREO
Método que utilizaremos para la recolección de datos. Es tan o más 
importante que el desarrollo en sí del estudio; es determinar 
fehacientemente una "buena" muestra, lo más representativa e insesgada 
posible que se ajuste a la población, para que las conclusiones e 
inferencias que se hagan en términos de la población sean "tan buena" 
como el conjunto de datos que la determinó.
MÉTODO DE MUESTREO SESGADO O NO PROBABILÍSTICO
Producen valores que difieren sistemáticamente de la población que está 
siendo muestreada. Existe una intención para seleccionar un dato. Dos 
métodos de este tipo pueden ser:
Muestra por conveniencia: ocurre cuando es posible acceder fácil-
mente a los elementos de una población de la que se elige la muestra.
Muestra por voluntarios: consta de resultados recolectados a partir de 
los elementos de la población que por su propia iniciativa eligen 
contribuir con la información necesaria.
MÉTODO DE MUESTREO INSESGADO O PROBABILÍSTICO
Es aquel que no presenta sesgo. Cada dato de la población tiene idéntica 
posibilidad de ser elegido para formar parte de la muestra.
Los dos métodos que se utilizan para recolectar datos son los estudios 
experimentales y los estudios observacionales.
Muestra de juicio: las muestras son elegidas con base en el hecho de 
que son "típicas".
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva
9
Muestra aleatoria o al azar
 Método al azar simple: este método permite que todos los 
elementos de la población tenga igual posibilidad de ser incluido en la 
muestra. 
Por ej.: se desea seleccionar a 200 alumnos (n) del IPEM XXX cuya 
matrícula total es 1200 alumnos (N). En este caso la probabilidad de 
elección de cada alumno, entendiendo a probabilidad como nº de casos 
favorables divido nº de casos posibles; es:
P = n/m P = 200 / 1200 P = 0,17
 Método por estratos: para el muestreo estratificado se divide a la 
población en varios grupos homogéneos que se diferencian unos de 
otros por características especiales; de manera que cada elemento sólo 
pueda pertenecer a un grupo. Dentro de este método se encuentra tres 
casos especiales:
 1 Muestras de igual tamaño: Debe seleccionarse igual número de 
elemento en cada grupo.
 2 Muestreo proporcional: El tamaño de elementos por grupo se 
escoge en forma proporcional al tamaño de la población.
 3 Afinación óptima: Este método utiliza la mejor subdivisión posible 
de una muestra total.
Por ej.: en el IPEM XXX de los 1.200 alumnos de matrícula, 800 
pertenecen al CBU y 400 al CE. Aplicando el método por estratos, 
decidimos escoger 60 alumnos de cada grupo, calculamos la probabi-
lidad de ocurrir de cada alumno según su ciclo: 
Alumnos del CBU P = 60 / 800 P = 0,075
Alumnos del CE P = 60 / 400 P = 0,15
De esta manera observamos que los alumnos del CE tienen mayor 
probabilidad de ser escogido pero que ambos son importantes para 
nuestro muestreo.
 Método por conglomerados: existe situaciones en la que no se dispo-
ne de elementos agrupados por estratos y que no se puede aplicar el 
método al azar simple. En estos casos los elementos se encuentran de 
manera natural agrupados por conglomerados cuyo número si se 
conoce. 
Por ej.: la población de un país se distribuye en provincias, los habitantes 
de una provincia en ciudades, los de una ciudad en barrios,etc. Si se 
supone que cada uno de estos conglomerados son muestras representa-
tivas de la población total, respecto a la variable que se estudia, es 
posible seleccionar al azar algunos de estos conglomerados y a partir de 
allí analizar todos sus elementos o una muestra al azar simple.
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva
10
 Método de elección sistematizado: una forma práctica para 
seleccionar los elementos de la muestra es escoger una muestra 
aplicando un intervalo. Así sistematizamos una selección. El cálculo del 
intervalo (k) es: k = N (tamaño de la población) / n (tamaño de la 
muestra). 
Por ej.: de esta manera, si tenemos necesidad de seleccionar alumnos del 
IPEM XXX aplicando este método,decimos que 1.200 son los alumnos 
y 120 es el número de alumnos que deseo elegir; seleccionaré a un 
alumno por cada intervalo, esto es: 
k= 1200/120 k= 10; elijo a un alumno por cada 10 alumnos.
Nota: Si el estudio lo realizo con la totalidad de los datos, es decir con la 
población, estoy frente a un censo; caso contrario, si selecciono, esto es 
aplicando cualquiera de los métodos de muestreo, estoy frente a una 
muestra representativa de la población.
TRATAMIENTO DE LOS DATOS
Hay dos maneras de comenzar a tratar los datos, y la que se utilice 
depende del nº de datos que conforma a la muestra, que llamaremos 
tamaño de la muestra y la denotaremos por (N).
TRATAMIENTO POR DATOS NO AGRUPADOS
Estamos frente al caso de trabajar los datos en forma cruda, sin transfor-
marlos. Es la forma más aproximada y menos erróneas, pero se la puede 
emplear siempre que el tamaño de la muestra sea pequeño. Como 
contrapartida, podemos decir que si el tamaño de la muestra es pequeño, 
creamos una cierta incertidumbre con respecto a cuan representativo es 
de la población.
TRATAMIENTO POR DATOS AGRUPADOS
Es el más utilizado porque se emplea en la mayoría de los casos. Nos 
detendremos a aplicar las fórmulas, a analizarlas y a programarlas en una 
planilla de cálculo para poder dejar una plantilla de trabajo fija que nos 
sirva como herramienta de trabajo para todos los estudios que 
planteemos realizar.
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva
11
TRATAMIENTO POR DATOS AGRUPADOS
Luego de recolectar los datos, que lo dispondremos organizados en 
columnas en forma desordenada; debemos ordenarlos de menor a 
mayor.
A partir de la clasificación y ordenación de los datos y calculando el rango 
de la distribución como medida de dispersión absoluta, nos dispondre-
mos a agrupar los datos en una Tabla de Distribución de Frecuencias.
 
 1 Determinación de los Intervalos de frecuencia
Al resumir gran cantidad de datos es útil distribuirlos en clases. El 
número de intervalos a utilizar es autónomo, pero existe una manera de 
calcularlo para guiarse, que es a través de esta fórmula:
 m = 1 + 3.33 log N ; donde 
m : número de intervalos; N : tamaño de la muestra.
 2 Determinación de la amplitud de clase 
El rango nos ayuda a determinar la amplitud de clase, llamamos así a la 
distancia que debe tener cada clase, siendo ésta una medida constante y a 
partir de la cual podemos construir nuestra Tabla de Distribución de 
Frecuencias.
 A = R / m ; donde
A: amplitud de clase; R: Rango; m: número de intervalos.
 3 Marca de clase ( ) 
Es el resultado de aplicar la semisuma, promedio o media aritmética 
entre los límites ficticios o entre los límites reales. Al ser la media 
aritmética de cada intervalo, lo consideramos como el valor más 
representativo y el que utilizaremos para determinar los estadísticos a 
calcular.
 4 Frecuencias absolutas ( )
Se determina así a la cantidad de datos que son incluidos en cada clase.
 5 Frecuencias absolutas acumuladas ( )
Se determina así a la cantidad de datos acumulados a partir del intervalo 
inmediato anterior. Se aplica la suma acumulada de cada frecuencia hasta 
obtener el 100% del tamaño de la muestra.
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva
 x&
 in
 aaf
Rango = Dato mayor - dato menor
N = Tamaño de la Muestra
mM XXR −=
12
 6 Frecuencia relativa y frecuencias relativas acumuladas ( )
Se determina así a la proporción de datos representados en cada clase. Se 
calcula dividiendo la frecuencia absoluta de cada intervalo con respecto 
al tamaño de la muestra. Su valor acumulativo mayor será el 1 que 
representa al 100% de la muestra.
A partir del número de intervalos, la amplitud y el rango, construiremos 
la tabla de distribución de frecuencias. (Tabla 1)
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva rf
Tabla 1. Tratamiento por Datos Agrupados. Tabla de Distribución de frecuencias.
Tema de estudio: 
Objetivos:
Número
de 
intervalo
Límite
ficticio
inferior
Límite
ficticio
superior
Límite
real
inferior
Marca 
de clase
Límite
real
superior
Frecuencia
absoluta
Frecuencia
relativa
Frecuencia
absoluta
acumulada
ascendente
Frecuencia
absoluta
acumulada
descendente
Frecuencia
relativa
acumulada
ascendente
Frecuencia
relativa
acumulada
descendente
ifx ′′
irf>aaf <aaf <raf>rafi inifx′
ix′ ix& ix ′′
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
Dato Mayor:
Dato Menor:
Rango Tamaño de muestra Cant.de Intervalos Amplitud de clase
R= N= m= a=
13
 7 Representación gráfica
 Diagrama de barras o columnas: sistema de ejes de coordenadas; en 
las abscisas representa intervalos de clase, y en las ordenadas sus corres-
pondientes frecuencias absolutas, para una variable cuantitativa continua.
 Histograma: se construye a partir de la tabla estadística de trata-
miento de los datos, representando sobre cada intervalo, un rectángulo 
que tiene a este segmento como base. El criterio para calcular la altura de 
cada rectángulo es mantener la proporcionalidad entre las frecuencias 
absolutas (o relativas) de cada intervalo y el área de los mismos. 
x: límites ficticios inferiores y superiores; y: frec. absolutas o relativas
 Polígono de frecuencias: a partir del histograma podemos construir 
el polígono de frecuencias, que consiste en unir, mediante líneas rectas 
de puntos, las marcas de clases contiguas de cada intervalo. El primer y 
el último intervalo, adyacentes a ellos, lo supongo con la misma amplitud 
y de frecuencia nula para unir la línea de punto (poligonal). 
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva
1 2 3 4 5 6 7 8 9 10 11 12 13 14
Intervalos de clase
Fr
ec
ue
nc
ia
s
2
3
4
5
6
7
8
9
1
0
9,5 14,5 19,5 24,5 29,5 34,5 39,5 44,5 49,5 54,5 59,5 64,5 69,5 74,5 79,5
Límites ficticios
Polígono de frecuencias
Fr
ec
ue
nc
ia
s
2
3
4
5
6
7
8
9
1
0 //
14
 Ojivas: gráfico de una distribución de frecuencias acumuladas 
(relativa o absoluta) descendente o ascendente. Esta gráfica indica la 
forma como crece la información a través de los intervalos, se puede 
utilizar como medición de las variaciones de los grupos. El punto donde 
se cortan las dos ojivas, es el punto central de la distribución, es decir, la 
mitad de la información (dato correspondiente con la mediana). 
 
 8 Cálculos y análisis estadísticos
8.1 MEDIDAS DE POSICIÓN 
Medidas de posición CENTRAL
Las medidas de centralización son valores que tienden a situarse en el 
centro del conjunto de datos ordenados según su magnitud. Las medidas 
de centralización más usadas son: Media aritmética, mediana y moda. 
Para el cálculo de todas ellas, en el tratamiento por datos agrupados, es 
utilizada la marca de clase como la unidad más representativa de cada 
intervalo o clase.
 Media aritmética o promedio: medida de tendencia central más co-
nocida, se puede aplicar a variables de intervalos ya sean discretos o con-
tinuos. Esta medida se define como el promedio de los datos en estudio.
Cálculo de la media aritmética ( )
 
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva
x
N
m
i inix
X
∑
== 1
.&
La sumatoria de todas las marcas de clases 
por sus respectivas frecuencias absolutas 
dividido el tamaño de la muestra. O la 
sumatoria de todas las marcas de clases 
por sus respectivas frecuencias relativas.
Límites ficticios
Fr
ec
ue
nc
ia
s 
Ab
so
lu
ta
s
10
15
20
25
30
35
45
55
50
40
5
0
9,5 14,5 19,5 24,5 29,5 34,5 39,5 44,5 49,5 54,5 59,5 64,5 69,5 74,5 79,5
Frecuencias absolutas
acumuladas Ascendentes
Frecuencias absolutas
acumuladas Descendentes
2
N
// X~
15
Existen 2 formas más para calcular la media que no son comúnmente 
utilizadas, ellas son: la media geométrica y la media armónica, que 
simplemente la mencionaremos.
 Mediana: es la medidade tendencia central que divide a cualquier 
distribución en dos partes iguales. Esta medida se puede aplicar a 
variables de intervalos (discretas y continuas) y variables ordinales.
La mediana es una serie de datos ordenados en orden de magnitud, es el 
valor medio si el número de datos es impar o bien la media aritmética de 
los valores medios si el número de datos es par.
Cálculo de la mediana ( )
 Moda: se define como el valor que presenta la mayor frecuencia, 
se usa con variables de intervalos nominales y ordinales. Es comúnmente 
utilizada como una medida de popularidad que refleja la tendencia de 
una opinión.
Cálculo de la moda ( )
Nota: Un estudio puede presentar una moda, si la frecuencia mayor es 
única, en este caso se llamará Unimodal; o varias modas, si la frecuencia 
mayor se repite en dos o más intervalos, en este caso será Multimodal.
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva
an
fN
xX
N
N i
aa
i ⋅



 −
+′=
∑
2
2
2~
x̂
Límite real inferior en donde cae la frecuencia que 
divide la distribución en partes iguales
Mitad de las observaciones
Sumatoria de las frecuencias acumuladas anteriores a la 
frecuencia que divide a la distribución en partes iguales
Valor de la frecuencia que divide a la distribución
en partes iguales
Amplitud del intervalo
2
N
faa∑
n
Ni
2
a
x
Ni′
2
Límite real inferior donde está la moda
Diferencia entre la frecuencia modal y la frecuencia 
inmediatamente anterior
Diferencia entre la frecuencia modal y la frecuencia
inmediatamente posterior
Amplitud del intervalo
axX xi ⋅





∆+∆
∆
+′=
21
1
ˆ
ˆ
x xi′ˆ
∆1
∆2
a
 x~
16
Medidas de posición NO CENTRALES
Las medidas de posición no centrales permiten conocer otros puntos 
característicos de la distribución. Estos indicadores suelen utilizar una 
serie de valores que dividen a la muestra en tramos iguales. Entre ellos 
destacamos: cuarteles, deciles y percentiles.
 Cuartiles: son 3 valores que distribuyen la serie de datos, 
ordenada de forma creciente o decreciente, en cuatro tramos iguales, en 
los que cada uno de ellos concentra el 25% de los resultados. 
Cálculo de los cuartiles
 Deciles: son 9 valores que distribuyen la serie de datos, ordenada 
de forma creciente o decreciente, en diez tramos iguales, en los que cada 
uno de ellos concentra el 10% de los resultados.
Cálculo de los deciles
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva
Límite real inferior que contiene al cuartil
Cuartil a calcular, su valor puede ser 1, 2 o 3.
Frecuencias acumuladas anteriores al intervalo que contiene al 
cuartil
Frecuencias absolutas del intervalo que contiene al cuartil
Amplitud del intervaloa
a
n
fnk
xQ
iq
aa
i ⋅









 −
+′= 4
.
xi′
k
faa
niq
Límite real inferior que contiene al decil
Cuartil a calcular, su valor puede ser 1,2,3,4,56,7,8 ó 9
Frecuencias acumuladas anteriores al intervalo que contiene al 
decil
Frecuencias absolutas del intervalo que contiene al decil
Amplitud del intervaloa
xi′
k
faa
niq
a
n
fnk
xD
id
aa
ii ⋅









 −
+′= 10
.
17
 Percentiles: son 99 valores que distribuyen la serie de datos, 
ordenada de forma creciente o decreciente, en cien tramos iguales, en los 
que cada uno de ellos concentra el 1% de los resultados. 
Cálculo de los percentiles
Nota: Existen otras medidas de posición no centrales que se suelen 
utilizar y que su cálculo sólo depende de variar el cociente que determina 
en cuantos tramos iguales se distribuye a la muestra, entre otras se 
encuentran los quintiles (la divide en 5 partes iguales) y los octiles (en 8 
partes iguales).
A partir de las divisiones en las observaciones que se realicen en una 
muestra obtendremos algunas coincidencias en los valores originados 
por fracciones equivalentes, a saber: el Cuartil 2, el Octil 4, el Decil 5 y el 
Percentil 50 con el valor de la Mediana.
¿Qué otras coincidencias encontramos?
8.2 MEDIDAS DE DISPERSIÓN 
Para un mayor análisis de las observaciones de una muestra es necesario 
ampliarlo para evaluar el grado de homogeneidad entre sus datos, es 
decir, estudiar la separación de los datos numéricos a partir de una 
medida de centralización. Las medidas de dispersión más utilizadas son:
 Rango: Es la medida menos precisa y más sencilla ya que sólo 
considera a los extremos. Es la diferencia entre el dato mayor y el dato 
menor de las observaciones. 
Cálculo del rango
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva
Límite real inferior que contiene al percentil
Percentil a calcular, su valor puede ser 1,2,3...99
Frecuencias acumuladas anteriores al intervalo que contiene al 
percentil
Frecuencias absolutas del intervalo que contiene al percentil
Amplitud del intervaloa
xi′
k
faa
niq
a
n
fnk
xP
ip
aa
ii ⋅









 −
+′= 100
.
mM XXR −=
18
 Desviación media: mide la distancia absoluta promedio entre cada 
uno de los datos, y el parámetro que caracteriza la información. 
Usualmente se considera la desviación media con respecto a la media 
aritmética: 
Cálculo de desviación media
 Varianza: es uno de los parámetros más importantes en 
estadística paramétrica, se puede decir que, teniendo conocimiento de la 
varianza de una población, se ha avanzado mucho en el conocimiento de 
la población misma. 
Numéricamente definimos la varianza, como desviación cuadrática 
media de los datos con respecto a la media aritmética:
Cálculo de varianza
 Desviación Estándar o Típica: se define como la raíz cuadrada de la 
varianza, y es útil a la hora de evaluar y concluir sobre la varianza.
Cálculo de desviación estándar ó típica
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva
Cantidad de intervalos
Marca de clase de cada intervalo (su valor más representativo)
Valor de la media aritmética muestral
Respectiva frecuencia absoluta de cada intervalo
Tamaño de la muestra
N
nXx
DM
m
i
ii∑
=
−
= 1
.&
m
xi&
X
ni
N
Cantidad de intervalos
Marca de clase de cada intervalo (su valor más representativo)
Valor de la media aritmética muestral
Respectiva frecuencia absoluta de cada intervalo
Tamaño de la muestra
m
xi&
X
ni
N
( )
N
nXx
S
m
i
ii∑
=
−
= 1
2
2
.&
2SS =
19
 Coeficiente de variación de Pearson: tiene en cuenta el valor de la 
media aritmética, para establecer un número relativo, que hace 
comparable el grado de dispersión entre dos ó mas variables.
Cálculo de variación de Pearson
8.3 ESTUDIO DE LA FORMA DE LA CURVA
Las siguientes índices nos permiten medir las características de curva 
representada por la serie de datos de la muestra. 
 La Concentración: mide si los valores de la variable están más o 
menos uniformemente repartidos a lo largo de la muestra.
Para medir el nivel de concentración de una distribución de frecuencia se 
pueden utilizar distintos indicadores, entre ellos el Indice de Gini.
Cálculo de índice de Gini
El Índice Gini (IG) puede tomar valores entre 0 y 1:
IG = 0: Concentración mínima. La muestra está uniformemente 
repartida a lo largo de todo su rango.
IG = 1: Concentración máxima. Un solo valor de la muestra, acumula el 
100% de los resultados.
 La Asimetría: mide si la curva tiene una forma simétrica, es decir, 
si respecto al centro de la misma (centro de simetría) los segmentos de 
curva que quedan a derecha e izquierda son similares. Para medir el nivel 
de asimetría se utiliza el llamado Coeficiente de Asimetría de Fisher.
Cálculo de coeficiente de asimetría de Fisher
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva
X
SVC =..
( )
∑
∑
>
=
> −
=
ra
m
i
ira
f
qf
GI 1..
La sumatoria de las diferencias entre cada
frecuencia relativa acumulada y qi (razón 
entre la sumatoria acumulada de cada 
marca de clase por sus respectivas 
frecuencias absolutascon respecto a la
suma total de cada marca de clase por sus 
respectivas frecuencias absolutas); dividido
la sumatoria de las frecuencias relativas
acumuladas ascendentes.
Se calcula por momento
de tercer orden, .
3
3
S
m
F =α
α
( )
3
3
1
S
N
nXx i
m
i
i ⋅−
=
∑
=
&
3m
Fα
20
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva Los resultados que se determinen a partir del coeficiente pueden ser:
 = 0 (distribución simétrica; existe la misma concentración de valores 
a la derecha y a la izquierda de la media) 
 > 0 (distribución asimétrica positiva; existe mayor concentración de 
valores a la derecha de la media que a su izquierda)
 < 0 (distribución asimétrica negativa; existe mayor concentración de 
valores a la izquierda de la media que a su derecha)
 La Curtosis: mide si los valores de la distribución están más ó 
menos concentrados alrededor de los valores medios de la muestra.
Se definen 3 tipos de distribuciones según su grado de curtosis:
Distribución mesocúrtica: presenta un grado de concentración medio 
alrededor de los valores centrales de la variable (el mismo que presenta 
una distribución normal).
Distribución leptocúrtica: presenta un elevado grado de concentración 
alrededor de los valores centrales de la variable.
αF
αF
αF
CURVA ASIMÉTRICA NEGATIVA
Eje de
simetría
CURVA ASIMÉTRICA POSITIVA
Eje de
simetría
CURVA MESOCÚRTICA
Eje de
simetría
CURVA LEPTOCÚRTICA
Eje de
simetría
CURVA SIMÉTRICA
Eje de
simetría
21
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva Distribución platicúrtica: presenta un reducido grado de concentración 
alrededor de los valores centrales de la variable.
Cálculo de coeficiente de Curtosis
Los resultados pueden ser los siguientes:
 = 3 (distribución mesocúrtica o normal). Si es así existe una igual 
entre la media, la mediana y la moda. 
 > 3 (distribución leptocúrtica o apuntada).
 < 3 (distribución platicúrtica).
8.4 ESTUDIO DE NORMALIDAD DE LA MUESTRA
A partir de la media y la desviación estándar muestrales, estudiaremos la 
normalidad de una muestra analizando el porcentaje de datos contenidos 
en la media más menos un desvío, dos desvíos y tres desvíos.Resultando:
Si se cumplen estas condiciones podemos decir que estamos frente a una 
Distribución Normal. 
Ampliación para el cálculo de las medidas estudiadas
Las fórmulas desarrolladas se aplican para el estudio estadístico por tratamiento de 
datos agrupados, es decir, cuando el número de observaciones es lo suficientemente 
grande para agruparlos en intervalos; caso contrario, la forma de calcular cada medi-
da varía cambiando la marca de clase por el dato crudo (xi); pues ya no tendremos 
intervalos de clases sino un listado ordenado de datos con lo que trabajaremos.
CURVA PLATICÚRTICA
Eje de
simetría
4
4
S
m
c =α Se calcula por momento
de cuarto orden, .
α
( )
4
4
1
S
N
nXx i
m
i
i
F
⋅−
=
∑
=
&
4m 
cα
cα
cα
[ ] 6826.0; =+− sxsxP
[ ] 9544.02;2 =+− sxsxP
[ ] 9974.03;3 =+− sxsxP
El 68,3 % de los datos están contenidos
El 95,4 % de los datos están contenidos
El 99,7 % de los datos están contenidos
µ−3σ µ−2σ µ=σ µ µ+σ µ+2σ µ+3σ
Campana de Gauss
22
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva DISTRIBUCIONES BIDIMENSIONALES
 1 Correlación
El estudio estadístico que involucra a todas las medidas anteriormente 
citadas, corresponde al análisis de una sola variable, es decir, es 
unidimensional. Pero en Estadística contamos con la necesidad de 
cruzar variables, de estudiar y analizar grados de dependencias, 
relaciones entre más de una variable de un individuo o cosa.
El estudio de distribuciones bidimensionales, nos permite encontrar 
respuestas a estas inquietudes.
La Correlación entre dos o más variables mide el grado de relación entre 
ellas y a partir de allí podremos inferir datos y/o concluir observaciones.
Son ejemplos de variables a ser susceptibles de relacionar:
El peso y la estatura de un grupo de adultos.
Edad y peso de un grupo de niños.
Ingresos y gastos de alquileres de un grupo de familias.
Escolaridad e ingreso mensual de un grupo de empleados.
Ventas y ganancias de un almacén de variedades.
Medidas de pH y acidez en leche.
Voltaje y KW en un hogar.
Ausentismo y sueldos en los recibos de haberes.
Cálculo del Coeficiente de Correlación Lineal de Pearson ( ) 
 
Esta fórmula surge de una división entre el numerador que se 
corresponde con la CoVarianza de la distribución binomial y el 
denominador con la multiplicación de los Desvíos Típicos o Estándar de 
cada una de las variables.
∑ ∑ ∑−
=
( )[ ] ( )[ ]2222 ∑∑∑∑ −− yynxxn
yxxynrxy
rxy
yx
xy
xy
SS
Sr =
( )( )
N
YyXx
S
i
m
i
i
xy
−−
=
∑
=1
Sxy CoVarianza: grado de variación conjunta de dos variables
23
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva De esta manera puede suceder que:
 > 0 Cuando una de las variables aumenta, también lo hace la otra.
 < 0 Cuando una de las variables aumenta, la otra disminuye.
 = 0 No hay relación entre los aumentos de una y otra.
Estas relaciones pueden ser de menor o mayor intensidad con la 
salvedad de que no sólo depende del grado de variación conjunta entre 
las variables sino también de las dispersiones de ellas. Por esta razón se 
utiliza el Coeficiente de Correlación Lineal de Pearson ( ) que elimina 
este factor. 
Interpretaciones del Coeficiente Lineal de Pearson
De manera tal que para calcular al coeficiente será necesario organizar 
los datos en Excel con la siguiente tabla. (Tabla 2)
La representación gráfica de las variables x e y obtenidas a partir de los 
datos muestrales, queda reflejada a través de un Diagrama de Dispersión 
X e Y; representando, lo que comúnmente se conoce como "nube 
estocástica de puntos". 
Sxy
Sxy
Sxy
rxy
Existe una perfecta relación entre las variables 
por lo que podemos determinar a partir de una
de ellas el valor de la otra.
No existe relación entre las variables.
La relación es baja, cuanto más próximo a cero 
esté, la relación está casi ausente. 
La relación es media.
La relación es alta.
1=xyr
0=xyr
3.00 <≤ xyr
7.03.0 <≤ xyr
17.0 <≤ xyr
Tabla 2. Tabla para calcular el coeficiente de Correlación
i ix ix iyi ix .yiy
1
2
3
4
5
6
7
8
9
10
22
24
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva Gráfico de dispersión de los valores x e y 
 2 Independencia estadística
Según el teorema de caracterización de independencia, dos variables x e 
y son estadísticamente independientes, si la frecuencia relativa conjunta 
es igual al producto de las frecuencias relativas marginales, para todas las 
variables, esto es: 
Los datos correspondientes a las variables x e y se representan en tablas 
de frecuencias como la siguiente:
De manera que los corresponden a la columna de los datos de (y1, xi).
Mientras que los corresponden a la fila de los datos de (x1, yi).
Que se de, igualdad e independencia estadística implica, que las variables 
son incorreladas, es decir que =0, no existe dependencia lineal.
En cambio, que =0 significa que las variables x e y están incorreladas 
pero no implica que son estadísticamente independientes.
Variable X
Va
ria
bl
e 
Y
-1 1 3 5 7 9 11
4
6
8
10
12
14
18
22
24
26
28
20
16
2
0
x
y
x1
y1 y2 y3 y4 y5
x2
x3
x4
x5
n11 n12 n13 n14 n15
n22 n23 n24 n25
n32 n33 n34 n35
n42 n43 n44 n45
n52 n53 n54 n55
n21
n31
n41
n51
jir fff
ij •• ⋅= ; ji ,∀ Utilizando las fre-
cuencias absolu-
tas la fórmula es: N
n
N
n
N
n jiij •• ⋅= ; ji ,∀
ni•
n j•
xyr
xyr
25
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva 3 Regresión
Luego de constatar, con el Coeficiente de Correlación de Pearson, que 
dos variables están relacionadas, debemos acudir a un método que nos 
permita estimar o predecir qué valores obtendrá una variable a partir de 
los valores asignados a la otra. Paraello, debemos establecer una relación 
funcional entre las variables, siendo la ecuación, la relación funcional 
más simple. Hablamos, de esta manera de una Regresión Lineal. 
3.1 REGRESIÓN LINEAL 
Se da por la ecuación de la recta del tipo: 
 Método de los mínimos cuadrados: se emplea para este tipo de prediccio-
nes, ya que arroja estimaciones con menor error cuadrático promedio.
A partir de la ecuación de la recta debemos conocer los valores de a y b, 
para poder determinar los correspondientes de X e Y.
Cálculo de b (estimada)
A partir de b (estimada), logro calcular a (estimada).
Cálculo de a (estimada)
Luego y (estimada) es: 
Por lo tanto, si:
b > 0, las dos variables aumentan o disminuyen a la vez.
b < 0, cuando una variable aumenta, la otra disminuye.
Para el caso de determinar x (estimada) a partir de un valor 
observacional de y, se emplea la ecuación:
baxy +=
( )22 ∑∑
∑ ∑∑
−
−
=
XXn
YXXYn
b
N
XbY
a ∑ ∑−
=
ˆ
2
x
xy
S
S
b =
2
x
xy
S
S
b =ó
ó
ó
xbya .−=
bxay +=ˆ
byax +=ˆ
ybxa .−=
( )22 ∑∑
∑ ∑∑
−
−
=
YYn
YXXYnb
26
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva Bondad del ajuste ó fiabilidad del modelo: a partir del Coeficiente de 
Determinación evaluamos el error cometido en cada predicción, entre el 
y experimental y el y estimado. Su fórmula es:
Cálculo de 
Principales características que se deducen a partir de :
 
Como la no podemos tomarlo como medida de bondad del 
ajuste. La suma de errores cuadráticos no presenta este inconveniente 
pero sí el de depender del número de observaciones. Por lo tanto, 
tomando el Error Cuadrático Medio (ECM) evitamos esta dependencia.
Cálculo del Error Cuadrático Medio
 
Aquí se da una relación fundamental entre la varianza experimental y la 
varianza residual. Como , entonces 		 y de ahí que el 
ECM sea un error estimado de la bondad de ajuste ya que es igual a la 
varianza residual. Cuanto mayor sea la varianza residual, mayor será la 
parte de la variabilidad de Y, que es incapaz de explicarse por la relación 
lineal entre X e Y. 
Para evaluar la fiabilidad o bondad del ajuste lineal, utilizamos las 
siguientes fórmulas en relación a lo explicado anteriormente:
	 Si el valor es igual o mayor que 0.75 estamos en condiciones 
de dar fiabilidad al modelo. Cuanto más próximo a 1 más fiable; a la 
inversa, cuando más cerca de cero menos fiable.
YYe ˆ−=
e
0ˆ =−= YYe
0=∑ ie
0
2
≥= ∑
N
e
ECM i
0ˆ =yeS
El Desvío Típico del Error con respecto a la y estimada es igual a cero
Cuando la 
variable x está
en relación con y
El ECM o su raíz cuadrada que se denomina Error de Regresión,
son inversamente proporcionales a la bondad del ajuste.
2
ˆ
22
yye SSS −=
0=e ECMSe =2
2
2
2 1
x
e
S
Sr −=
Cuando la 
variable y está
en relación con x
2
2
2 1
y
e
S
Sr −=
10 2 ≤≤ r
27
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva 3.2 REGRESIÓN NO LINEAL
 Regresión Parabólica: 
 Regresión Potencial: cuando la figura que mejor se ajusta es del tipo 
potencial, la forma de hallar los coeficientes para determinar las 
estimaciones es aplicando logaritmos.
Luego, aplicando un cambio de variables llevamos la función potencial a 
una función lineal para poder determinar los coeficientes a y b.
 
 Nueva Función Lineal
Al finalizar la búsqueda de los coeficientes a y b, y poder determinarlo 
como función potencial,es necesario aplicar el antilogaritmo de A y de b.
Cálculo de V (estimada)
 
Para realizar los cálculos parciales y así determinar cada término de la 
fórmula, es necesario plantear una tabla con las transformaciones de las 
variables según sus igualdades.
 Regresión Exponencial: de la misma manera que trabajamos la 
Regresión Potencial, debemos aplicar logaritmos para poder transformar 
en Función Lineal y así aplicar el Método de los Mínimos Cuadrados:
2ˆ cxbxay ++=
baXY =
XbaY
XaY
aXY
b
b
log.loglog
logloglog
loglog
+=
+=
=
aA
XU
YV
log
log
log
=
=
=
UbAV .+=
).(ˆ
2 uU
S
SvV
U
UV −+=
28
Estadística Aplicada
Di Paolo, Claudio Javier
Estadística Descriptiva
Luego, aplicando un cambio de variables llevamos la función exponen-
cial a una función lineal para poder determinar los coeficientes a y b.
 
 Nueva Función Lineal 
Al finalizar la búsqueda de los coeficientes a y b y poder determinarlo 
como función exponencial, es necesario aplicar el antilogaritmo de A y 
de B.
Entonces, para calcular V (estimada) aplico la siguiente fórmula:
 
Para realizar los cálculos parciales y así determinar cada término de la 
fórmula, es necesario plantear una tabla con las transformaciones de las 
variables según sus igualdades.
 Regresión Logarítmica:
 
bXaY
baY
abY
abY
X
X
X
log.loglog
logloglog
loglog
+=
+=
=
=
)log(. xbay +=
).(ˆ
2 xX
S
SvV
x
XV −+=
XBAV .+=
aA
bB
YV
log
log
log
=
=
=
29
Estadística Aplicada
Di Paolo, Claudio Javier
Probabilidad DEFINICIONES PREVIAS
Debemos dar definiciones previas referentes a la Teoría de los Sucesos 
que son vinculadas al estudio de la Probabilidad como soporte para la 
Estadística Inferencial o simplemente para cálculos casuísticos:
 Espacio Muestral: es el conjunto formado por todos los casos 
posibles en la realización de un experimento.
Espacio Muestral Discreto: si es finito o infinito numerable.
Espacio Muestral Continuo: si es infinito numerable.
 Diagrama de Árbol: representación gráfica del espacio muestral.
 Suceso Aleatorio: cada uno de los posibles subconjuntos que son 
partes del espacio muestral.
 Suceso Imposible: aquel subconjunto que nunca ocurre en el 
espacio muestral. (Conjunto vacío).
 Suceso Elemental: suceso formado por un solo resultado del 
espacio muestral.
 Suceso Compuesto: suceso formado por más de un resultado del 
espacio muestral.
 Suceso cierto: es aquel que siempre ocurre.
 Álgebra de los sucesos
Suceso contrario o complemento: llamamos así al suceso que ocurre 
cuando no se realiza. Ejemplo: Suceso contrario de Q a .
Unión de sucesos: Dados dos sucesos A y B llamamos unión de sucesos 
a ( ) al suceso formado por A o B.
Intersección de sucesos: Dados dos sucesos A y B llamamos 
intersección de sucesos a ( ) al suceso formado por A y B.
Sucesos incompatibles: dos sucesos son incompatibles cuando su 
intersección da como resultado el conjunto vacío. 
Sucesos compatibles: dos sucesos son compatibles cuando su 
intersección no da como resultado el conjunto vacío. 
 Experimentos 
Experimentos deterministas: son aquellos que realizada bajo la misma 
forma y mismas condiciones iniciales un experimento, resulta siempre el 
mismo resultado. Por ej.: cuando dejamos caer al vacío, un objeto en 
reposo desde una misma altura, llega siempre al suelo con una misma 
velocidad: . 
Experimento aleatorio: son aquellos experimentos en los que no se 
puede predecir el resultado final. Por ej.: lanzamiento de un dado.
Q
BA∪
BA∩
≠∩ BA φ
=∩ BA φ
ghv 2=
30
Estadística Aplicada
Di Paolo, Claudio Javier
Probabilidad DEFINICIONES DE PROBABILIDAD
NOCIÓN FRECUENTISTA
Desde la perspectiva frecuentista de probabilidad, se observa que en los 
experimentos aleatorios, a medida que aumenta el número de experi-
mentos, las frecuencias relativas en las que ocurre un suceso A, , 
tiende a converger hacia cierta cantidad que llamamos probabilidad de 
A. De manera que:
 
La noción frecuentista de probabilidad no puede usarse en la práctica 
como definición de probabilidad porque:
Como N (el nº de experimentos) tiende a infinito, requiere infinitos 
experimentos para calcular la probabilidad.
A veces no es posible realizar experimentos aleatorios. 
Por ej.: calcular la probabilidad demorir jugando a la ruleta rusa con un 
revólver; ésto no es posible, ya que necesitamos repetir el experimento 
un número demasiado alto de veces para tender a la probabilidad. 
REGLA DE LAPLACE
Dadas las explicaciones de la noción frecuentista, podemos definir a la 
probabilidad a partir de la Regla de Laplace "Si cualquier experimento da 
como resultado un nº finito de valores posibles, sin razón alguna de forzar un valor 
por sobre otro, se calcula la probabilidad de un suceso aleatorio A, como:
 
 
AXIOMAS DE LA PROBABILIDAD
Desde otra perspectiva se puede calcular a la probabilidad de un suceso 
A, teniendo en cuenta el cumplimiento de los siguientes axiomas para 
encontrar:
 1 
La probabilidad de que se de un suceso A, resulta estar comprendida 
entre 0 y 1. 
 2 
La probabilidad de un suceso seguro es igual a 1 Espacio Muestral.
 3
La probabilidad de la unión numerable de sucesos disjuntos es igual a la 
suma de sus probabilidades (Independencia de Eventos).
( )Afr
[ ] =AP nº de casos favorables de A
nº de casos posibles
[ ]AP
( )
N (total de casos)
nº de ocurrencias de A=Afr [ ] ( )AfAP rN ∞→
= lím
[ ] 10 ≤≤ AP
[ ] 1=ΩP
[ ] [ ] [ ] �=∩+=∪ BABPAPBAP si , φ
31
Estadística Aplicada
Di Paolo, Claudio Javier
Probabilidad CONSECUENCIAS DE LOS AXIOMAS DE LA PROBABILIDAD 
(aplicando la teoría de conjuntos)
 1 
La probabilidad de un complemento del suceso A, es igual uno menos la 
probabilidad del suceso A.
 2 
La probabilidad de un suceso vacío da como resultado cero.
 3 
Si el suceso A es menor o igual al B, las Probabilidades también serán 
menor o igual.
 4 
La probabilidad es un número comprendido entre cero y uno.
 5 
La probabilidad de la unión de sucesos es igual a la suma de sus probabi-
lidades menos la Probabilidad de su intersección, por ser sus sucesos 
conjuntivos.
 6 
Cuando la intersección de 3 o más sucesos es distinto a vacío, la probabi-
lidad de la unión de los sucesos es igual a la sumas de los sucesos de A, 
B y C menos sus intersecciones pares, agregando la intersección entre 
los 3 conjuntos. 
A partir de los axiomas y sus consecuencias, es posible calcular la 
probabilidad de un suceso a partir de la teoría de conjuntos.
CÁLCULO DE LA PROBABILIDAD 
PERMUTACIONES
Cuando queremos ordenar k elementos de un conjunto de n elementos, 
para escoger uno o varios de ellos, las posibilidades de orden son n-k+1 
y se lee como permutaciones de n en k. 
Cálculo
[ ] [ ]APAP c −= 1
[ ] [ ] BA;si ⊆≤ BPAP
[ ] 10 ≤≤ AP
[ ]=∪∪ CBAP
[ ] [ ] [ ] [ ] ≠∩∩+=∪ BABAPBPAPBAP ;si- φ
[ ] 0=�P φ
φ[ ] [ ] [ ] [ ] [ ] [ ] [ ] ≠∩∩∩∩+∩∩∩++ CBACBAPCAPCBPBAPCPBPAP si ,---
( )
( )!
!,
kn
nknP
−
=
32
Estadística Aplicada
Di Paolo, Claudio Javier
Probabilidad COMBINACIONES O COMBINATORIAS
En cambio, si queremos escoger k elementos de un conjunto de n 
elementos, sin importar su orden, n en k combinaciones posibles.
PROBABILIDAD CONDICIONAL
Cuando queremos calcular la probabilidad de un evento A habiéndose 
dado un evento B, utilizamos la fórmula , teniendo en cuenta que la 
probabilidad del evento B tiene que ser mayor a cero.
PROBABILIDAD TOTAL
Dado un conjunto de sucesos independientes Ai, de manera que 
 (equivale al espacio muestral), es posible determinar como 
probabilidad total, a la sumatoria de cada Probabilidad Condicional dada 
por el suceso conocido Bi por su respectiva probabilidad a priori.
TEOREMA DE BAYES
Se aplica al cálculo de la determinación de causas, a partir de una 
consecuencia.
( )!!
!
knk
n
k
n
−
=



Coeficiente Binomial de n en k
[ ] [ ]
[ ]
[ ] 0; si/ >∩= BP
BP
BAPBAP
[ ] [ ] [ ]ABPAPBAP // ⋅=
∑ Ω=iA
[ ] [ ] [ ]i
n
i
i BPBAPAP ⋅= ∑
=1
/
[ ] [ ] [ ]
[ ] [ ]∑
=
⋅
⋅= k
j jj
ii
i
ABPAP
ABPAPBAP
1
/
//
[ ]iAP
[ ]iABP /
[ ]i BAP /
Probabilidades a priori de las causas o de las hipótesis
Verosimilitudes
Probabilidad a posteriori, es la probabilidad de que el 
suceso B, que ya ocurrió, sea la causa del suceso Ai
33
Estadística Aplicada
Di Paolo, Claudio Javier
Probabilidad VARIABLES ALEATORIAS
VARIABLE ALEATORIA DISCRETA (v.a. discreta)
Se define así a la variable que puede tomar un número finito o infinito 
numerable de valores.
 Medidas de tendencia Central y de Dispersión
De forma análoga que en la estadística descriptiva, es posible determinar 
para las variables aleatorias, su medida central equivalente a la media que 
se llama Esperanza Matemática y se denota por E(x) ó ; y su medida de 
dispersión Varianza (de igual nombre) Var[x].
FUNCIÓN DE
PROBABILIDAD
FUNCIÓN DE
DISTRIBUCIÓN
Definición Representación Gráfica
( ) [ ]ii xXPxf ==
(es la probabilidad de que 
X tome el valor xi)
(es la probabilidad de que X 
tome un valor inferior o 
igual a xi)
Diagrama de Barras - Análogo al de 
Distribución de frecuencias relativas
Diagrama de Barras - Análogo al de 
Distribución de frecuencias relativas acumuladas
( ) [ ]ii xXPxF ≤=
3/8
0 1 2 3
1/8
f
4/8
7/8
1
1/8
F
µ
34
Estadística Aplicada
Di Paolo, Claudio Javier
Probabilidad El Valor esperado o la Esperanza Matemática para una v.a. discreta se 
define como el promedio esperado de valores (a diferencia que en la 
estadística aquí no parto de datos conocidos sino de datos esperados); su 
cantidad se expresa como:
 
La varianza de una v.a. discreta se calcula a partir del momento de 
segundo orden:
 
VARIABLE ALEATORIA CONTINUA (v.a. continua)
Se define así a la variable que puede tomar un número infinito no 
numerable de valores.
[ ] ( )∑
=
=
k
i
ii xfxXE
1
[ ] [ ]( )[ ] [ ]( ) )(2
1
22
i
k
i
i xfXExxEXEXVar ∑
=
−=−==σ
FUNCIÓN DE
DENSIDAD
PROBABILÍSTICA
FUNCIÓN DE
DISTRIBUCIÓN
Definición y propiedades Representación Gráfica
( )





=
≥
∫
∞+
∞−
1)(
0
dxxf
xf
La función es mayor que cero.
La integral definida en el 
intervalo de la fun-
ción es igual a uno.
Se define como la probabilidad 
de un intervalo está dado por 
el área que existe entre la 
función y las abscisas).
(es la probabilidad de que X 
tome un valor inferior o 
igual a x)
Dados los valores a y b, de manera que a < b, 
la Probabilidad de que se de un valor X entre 
a y b es igual al área bajo la curva dado por la 
integral definida entre los puntos a y b de la 
función de densidad probabilística.
[ ] ∫=≤≤
b
a
dxxfbXaP )(
( )+∞∞− ;
a b X
f
[ ]≤≤ bXaP
( ) [ ] ∫
∞−
=≤=
x
dttfxXPxF )(
x
Área= ( )xF
( )xF
( )xf
....
...
...
...
...
...
...
..
 Medidas de tendencia Central y de Dispersión
El Valor esperado o la Esperanza Matemática para una v.a. continua, 
difiere de una discreta en que se determina a partir de una cantidad 
infinita de valores; su cantidad se expresa desde su función de densidad.
 
La varianza de una v.a. continua se calcula a partir del momento de 
segundo orden.
DISTRIBUCIONES PROBABILÍSTICAS
Hay leyes de la probabilidad que se aplican a variables aleatorias discretas 
y continuas, para su cálculo, y que son base para la inferencia estadística.
DISTRIBUCIONES PROBABILÍSTICAS DISCRETAS
35
Estadística Aplicada
Di Paolo, Claudio Javier
Probabilidad
[ ] ∫
+∞
∞−
= dxxfxXE )(.
[ ] [ ]( )[ ] [ ]( )∫
+∞
∞−
⋅−=−== dxxfXExxEXEXVar i )(222σ
Distribución
de Bernoulli
Distribución
Binomial
 Consiste en reali-
zar un experimento 
una sola vez y ob-
servar si cierto
suceso ocurre(éxito)
ó no (fracaso). 
 p es la probabili-
dad de que ocurra 
(valor 1) y q=1-p 
es la probabilidad
de fracaso.
 Ley binomial B(n,p)
que se interpreta 
como la suma de 
n v.a. independientes 
de Bernoulli con el
mismo parámetro p.
Ley de probabilidad
Ley de probabilidad
[ ]
[ ]


==→
==−=→
=⇔→
11
010
)(
XPp
XPpq
XpBerx
[ ] qpXVar ⋅=
[ ] pXE =





→
→
→
=
En cualquier otro caso 0
Si x = 0
Si x = 1)( p
q
xf
nXXXpnBx ++=⇔→ ...),( 1
Donde nipBerxi ,...,1),( =∀→
[ ] nkqp
k
n
kXPkf knk ,...,1,0)( =∀⋅





=== −
[ ] pnXE ⋅=
[ ] qpnXVar ⋅⋅=
DISTRIBUCIONES CARACTERÍSTICAS LEY DE PROBABILIDADMEDIDAS DE
SUS MOMENTOS
DISTRIBUCIONES PROBABILÍSTICAS DISCRETAS
36
Estadística Aplicada
Di Paolo, Claudio Javier
Probabilidad
Distribución
geométrica
DISTRIBUCIONES
Distribución
Binomial
Negativa
Distribución
Hiper-
geométrica
Distribución
de Poisson o
de Sucesos
raros (λ)
CARACTERÍSTICAS LEY DE PROBABILIDAD MEDIDAS DE
SUS MOMENTOS
 Parte de v.a. inde-
pendientes de 
Bernoulli, pero se 
considera la suma de
fracasos obtenidos 
hasta la aparición del 
primer éxito buscado 
en la sucesión.
 Sobre una sucesión
de v.a. independien-
tes de Bernoulli, de-
finimos el nº de 
fracasos obtenidos
hasta la aparición de
r éxitos. Con pará-
metros r y p se defi-
ne la Ley Binomial 
negativa.
Ley de probabilidad
Ley de probabilidad
Primeros experimentos
Si N, es muy grande, la distribución hipergeométri-
ca tiende a aproximarse a la distribución binomial.
Éxito final
Ley de probabilidad
Ley de probabilidad
 Se utiliza para cal-
cular la probabilidad
de ciertos sucesos en
forma proporcional al
conjunto existente. 
Sus parámetros son: 
N(tamaño de la po-
blación); n(cant. de 
extracciones sin re-
emplazamientos) y p
(probabilidad de éxi-
to deseado).
 Cuando un suceso 
tiene una probabili-
dad muy baja de 
ocurrir, y el nº de ex-
perimentos es muy 
alto, se utiliza esta 
distribución. Se la 
conoce como una 
distribución límite 
de una distribución
binomial. 
∞=→ ,...,2,1),( donde ,...,...,, 21 ipBerXXXX ii
[ ] ∞=∀⋅=== ,...,1,0)( kqpkXPkf k
[ ]
p
qXE =
[ ]
2p
qXVar =
∞=→ ,...,2,1),( donde ,...,...,, 21 ipBerXXXX ii
[ ] nkpqp
r
rk
kXPkf kr ,...,1,0 
1
1
)( 1 =∀⋅⋅





−
−+
=== −
1−+ rk
kr qpk
rk
p ⋅



 −+
=
1
→
[ ]
p
rqXE =
[ ]
2p
rqXVar =
),,( pnNHgeoX →
[ ] ;










−
⋅⋅



 ⋅
==
n
N
kn
qN
k
pN
kXP
{ } { }Npn,mínNq-n0,si máx ≤≤ k
[ ] pnXE ⋅=
[ ]
1−
−
⋅⋅⋅=
N
nNqpnXVar
positivo) es (p, ,y donde ,)B ∞→= λ⋅ npn(n,p
[ ] 0,1,2,....k,
!
)( ====
−
k
ekXPkf
k
 λ λ
 λ[ ] [ ]== XVarXE
)(),(B1,0,30 pnPoissonpnpn ⋅≅⇒≤>
DISTRIBUCIONES PROBABILÍSTICAS CONTINUAS
Las distribuciones que sintetizaremos corresponden a variables aleatorias 
continuas unidimensionales, cuyo valor de función de densidad es no 
nulo y positivo.
37
Estadística Aplicada
Di Paolo, Claudio Javier
Probabilidad
Distribución
Uniforme ó
rectangular
DISTRIBUCIONES
Distribución
exponencial
CARACTERÍSTICAS FUNCIONES DE DENSIDAD Y DISTRIBUCIÓN MEDIDAS DE
SUS MOMENTOS
 Sea X una v.a. con-
tinua, la probabilidad 
de X incluída en ; 
depende de su longi-
tud; siendo la proba-
bilidad una constante.
 Es equivalente a la 
distribución geomé-
trica discreta; descri-
be procesos en los 
que nos interesa sa-
ber el tiempo hasta 
que ocurre determi-
nado evento, sin 
considerar el tiempo 
transcurrido en el 
que nada pasó.
Se define para los reales positivos.
Función de densidad
 
[ ]ba,
),( baUnifX →
bxa
ab
xf ≤≤
−
= si,1)(
Función de densidad
Función de distribución
Función de densidad y de distribución
-0,5 0,0 1,00,5 1,5 2,0 2,5 3,0
0,8
1,0
0,6
0,4
0,2
0,0 - - - - - -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 -
 - - - - - - - - -
Unif (a=0, b=2)
( )xF
( )xf
)(, ExpXλ λ→
λ xexf xλ <= − 0si;)(


 <−
=
−
en otro caso ;0
0si ;1
)(
xe
xF
xλ
[ ]
2
abXE +
=
[ ] ( )
12
2abXVar −
=
λ
[ ] 1
=XE
λ
[ ]
2
1
=XVar
0 1 32 4
0,8
1,0
0,6
0,4
0,2
0,0
para λ=1λexf xλ= −)(
DISTRIBUCIONES PROBABILÍSTICAS CONTINUAS
38
Estadística Aplicada
Di Paolo, Claudio Javier
Probabilidad
DISTRIBUCIONES
Distribución
Normal o
Gaussiana
CARACTERÍSTICAS FUNCIONES DE DENSIDAD Y DISTRIBUCIÓN MEDIDAS DE
SUS MOMENTOS
Función de densidad
 Es la distribución 
más importante pues 
nos permite determi-
nar cuan concentra-
dos están los datos 
alrededor de la me-
dia. Es la base que 
da inicio al estudio 
de la inferencia esta-
dística.
Estudio de normalidad
Para el conjunto de los nº reales.
La forma de la función de densidad es la lla-
mada campana de Gauss.
Reales
),( 2NX →
∈∀⋅=





 −
⋅
−
xexf
x µ
σ ,
2
1)(
2
2
1
π
µ σ
[ ]=X µE
σ[ ] 2=XVar-3 -1-2 20 1 3
0,4
0,3
0,2
0,1
0,0
N ( µ=0, σ=1)
σσ
µ
Cuanto menor sea σ más concentración de da-
tos cerca de la media habrá (curva alargada), si 
σ es más grande, más aplastada será la curva.
La figura muestra la Campana de Gauss o la 
función de densidad de una v.a. de distribu-
ción normal. El parámetro µ indica el centro 
(parámetro de centralización) y σ el parámetro 
de dispersión. La distancia del centro a los 
puntos de inflexión es precisamente σ.
XXµ X ~ˆ ===
−= X µ
σz
Trabajamos con variables tipificadas de: µ=0 
σ=1. Si algunos de estos valores difieren, es 
necesario tipificar de manera tal que consegui-
remos una nueva variable para trabajar que lla-
maremos v.a. tipificada z.
DISTRIBUCIONES PROBABILÍSTICAS CONTINUAS
39
Estadística Aplicada
Di Paolo, Claudio Javier
Probabilidad
DISTRIBUCIONES CARACTERÍSTICAS FUNCIONES DE DENSIDAD Y DISTRIBUCIÓN MEDIDAS DE
SUS MOMENTOS
 
Distribución
Normal o
Gaussiana
Aproximación
a la Normal
de la 
Ley Binomial
A partir de µ y σ, estudiaremos la normalidad 
de una muestra analizando el porcentaje de 
datos contenidos en la media menos un desvío, 
dos desvíos y tres desvíos. De manera que:
1) El 68,3% de los 
datos están contenidos.
2) El 95,4% de los 
datos están contenidos.
3) El 99,7% de los 
datos están contenidos.
Si se cumplen estas condiciones podemos decir 
que estamos frente a una Distribución Normal.
[ ] 0.68261 =±∈X σµP
[ ] 0.95442 =±∈X σµP
[ ] 0.99743 =±∈X σµP
-3 -1-2 20 1 3
0,4
0,3
0,2
0,1
0,0
N ( µ=0, σ=1)
[ ] 0,681 =±∈X σµP
- - - - - - - - - - - - - - - - - - - - - - 
[ ] 0.952 =±∈X σµP
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
 Si se cumple que n 
es suficientemente 
grande y p está ubi-
cada en un valor no 
muy próximo a los 
extremos de 0 y 1, a 
partir de la Ley Bino-
mial podemos apro-
ximar a la Normal.
µ−3σ µ−2σ µ=σ µ µ+σ µ+2σ µ+3σ
Si se cumple:
Es posible la aproximación.
Otro indicador viene dado por:





>
≅⇒>
>
→
4
),(4
30
donde),(
nq
npqnpNXnp
n
pnBX
2
1
≅≅ qp
DISTRIBUCIONES PROBABILÍSTICAS CONTINUAS
40
Estadística Aplicada
Di Paolo, Claudio Javier
Probabilidad
DISTRIBUCIONES CARACTERÍSTICAS FUNCIONES DE DENSIDAD Y DISTRIBUCIÓN MEDIDAS DE
SUS MOMENTOS
Distribución
Chi-Cuadrado
( χ2)
Distribución 
t de Student
Si Zi , la suma de sus cuadrados res-
pectivos es la distribución que se llama Ley de 
Distribución con n grados de libertad ( ):
Propiedades de la distribución
1) Es de media cero y simétrica con respecto a 
la misma.
2) La varianza decrece hasta uno cuando el 
número de grados de libertad aumenta.
3) Para un número alto de grados de libertad se 
puede aproximar esta distribución a la Normal.
 Es el cociente entre 
la distribuciónnormal 
y la raíz cuadrada de 
la distribución Chi-
Cuadrado.
Cálculo de T
Distribución t de Student con n grados de 
libertad ( ):
Dada la v.a. T
[ ] nXE =
{ } 2
1
2
2
1
2
1 )1,0( n
n
i i
ii
n
n
i
i
n
ii
XZNZ →




 −⇒→⇒→
)1,0(N→
∑∑
==
=
2
n
χ
χχ
2χ
µ
σ
[ ] nXVar 2=
 Si consideramos a 
la v.a. Zi , la 
v.a. X=Z 
2 se distribu-
ye según una Ley de 
Probabilidad distri-
bución χ2 con un gra-
do de libertad
(0,1)N→
2→X( ).χ
- - - - - - - - - - - - - 
- - -
 - -
 - -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - 
- - -
 - -
 - -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
--
 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -- - - - - - - - - - - - - 
- - -
 - -
 - -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - . - . - 
. - . - 
. - . -
 . - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - . -
 . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - 
. - . - 
. - . -
 . - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - . -
 . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - 
. - . - 
. - . -
 . - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - 
. - . -
 . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - .
- - - 
- - - 
- - -
 - - 
- - -
 - - 
- - -
 - - -
 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -- - - 
- - - 
- - -
 - - 
- - -
 - - 
- - -
 - - -
 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -- - - 
- - - 
- - -
 - - 
- - -
 - - 
- - -
 - - -
 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
N(0,1)
N(0,2)
N(0,4)
0,4
-4
0,3
0,2
0,1
0
-3 -2 -1 0 1 2 3 4
 nt
, con n + 1 v.a. indep.n
n
t
n
ZT →=
21 �
n
n
i i
ii
t
X
n
X
T →





 −
−
=
∑
=1
2
1
µ
µ
σ
σ
DISTRIBUCIONES PROBABILÍSTICAS CONTINUAS
41
Estadística Aplicada
Di Paolo, Claudio Javier
Probabilidad
DISTRIBUCIONES CARACTERÍSTICAS FUNCIONES DE DENSIDAD Y DISTRIBUCIÓN MEDIDAS DE
SUS MOMENTOS
Distribución 
t de Student
Distribución 
F de Snedecor
 Esta distribución 
se define como co-
cientes entre distri-
buciones χ 
independientes.
2
n
χ
0 2 4 6 8
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - -
 - -
 - - -
 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
 - . -
 . - 
. - . -
 . - 
. - . 
- . -
 . - 
. - . - 
. - . - 
. - . - . - 
. - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . -
0,0
0,1
0,2
0,3
0,4
0,5
- - - - - - - - - - - - - - - - - - - - - - - - - ------------- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
2
2
χ2
4
χ2
6
Función de densidad de para valores pequeños de n2
n
χ
Cuando aumentan los grados de libertad, la 
distribución t de Student se aproxima a la 
distribución normal tipificada.
Distribución de Probabilidad de Snedecor, con 
(n,m) grados de libertad, de manera que:
-4 -2 0 2 4
t3
t1
t30 t =N(0,1)∞
 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- - - - - - -
 - - -
 - -
 - -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
- - - -
 - - -
 - -
 - -
 - -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- - 
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
- - - -
 - - -
 - -
 - -
 - -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- - 
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
- - - -
 - - -
 - -
 - -
 - -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- - 
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 0,0
0,1
0,2
0,3
0,4
 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
mnF
Y
X
n
m
Y
m
X
nF ,1
1
→==
nmmn FF ,, ≠
DISTRIBUCIONES PROBABILÍSTICAS CONTINUAS
42
Estadística Aplicada
Di Paolo, Claudio Javier
Probabilidad
DISTRIBUCIONES CARACTERÍSTICAS FUNCIONES DE DENSIDAD Y DISTRIBUCIÓN MEDIDAS DE
SUS MOMENTOS
Distribución 
F de Snedecor
Cuando tenemos n + m v.a. independientes 
nos encontramos con el caso de una 
Distribución F de Snedecor:
0.0 0.5 1.0 1.5 2.0 2.5 3.0
0,0
0,2
0,4
0,6
0,8
 - .
 - 
. -
 . 
- 
. -
 . 
- 
. -
 . 
- 
. -
 . 
- 
. -
 . 
- .
 - 
. -
 . 
- 
. -
 . 
- 
. -
 . 
- 
. -
 . -
 . -
 . - 
. - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - . - .
F10, 10
F10, 20
F10, 5
- - -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
 -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - 
- -
 - -
 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
mn
m
j j
jj
n
i i
ii
F
X
m
X
n
F ,
1
2
1
2
1
1
→







 −





 −
=
∑
∑
=
=
Propiedades de la distribución
Es una distribución asimétrica con densidad de 
probabilidad distinta de cero.
 
nmmn F
F
FF ,,
1
→⇔→
µ
σ
µ
σ
INTRODUCCIÓN
Como el propósito de la Estadística es obtener conclusiones a partir de 
la naturaleza de una población, y dado a que hay poblaciones muy 
grandes (difíciles de analizar en su plenitud), es necesario partir de 
técnicas de muestreo, determinar un sub conjunto de la población 
(muestra), lo más representativo posible, y a partir de él generalizar. 
Los métodos de la inferencia estadística emplean razonamientos 
inductivos, de lo general a lo particular y de lo observado a lo no 
observado.
Es costumbre simbolizar las estadísticas con letras romanas y los 
parámetros con letras griegas. 
Para ello, definimos dos categorías dentro de la Inferencia Estadística:
 La estimación: El estimador es la herramienta fundamental que 
permite caracterizar, mediante propiedades, al "mejor estimador" para 
un determinado parámetro de la población.
 El Contraste de Hipótesis: A partir de plantear dos hipótesis, una 
nula y la otra alternativa, su comparación determinará el acierto o el 
error de la suposición inicial.
LOS ESTIMADORES
Se denomina estimador a la regla o método de estimar un valor a la 
variable poblacional.
La estimación estadística es el proceso que conduce a la obtención y 
análisis de los estimadores. 
La estimación estadística se divide en:
 1 Estimación puntual o de parámetros.
 2 Estimación por intervalos.
ESTIMACIÓN PUNTUAL
Se expresa en función de la muestra aleatoria y tiene por objetivo 
aproximar el valor Θi. El estimador no es un valor concreto, sino una 
variable aleatoria, que aplicada a la muestra elegida, permite obtener un 
valor numérico (estimación).
43
Estadística Aplicada
Di Paolo, Claudio Javier
Inferencia Estadística
µ
S² σ2
S σ
R ρ
Media aritmética
Variancia
Desvío estándar
Coeficiente de correlación
Estadística 
poblacional
(Muestra)
Parámetro
poblacional
(Población)
 
Las características deseables para el estimador son:
Consistencia: a medida que la muestra crezca la estimación se aproxime 
al parámetro desconocido.
Carencia de sesgo: El valor medio obtenido de la estimación de 
diferentes muestras debe ser el valor del parámetro.
Eficiencia: El valor estimado sea lo más acercado al valor parámetro, en 
términos de varianza, que su dispersión sea próxima a cero.
Suficiencia: El estimador debería aprovechar toda lainformación 
existente en la muestra.
Estimador de máxima verosimilitud
La función de verosimilitud se obtiene a partir de la función de 
densidad, intercambiando los papeles entre parámetro y estimador. En 
una función de verosimilitud consideramos que las observaciones x1, . . . , 
xn, están fijadas, y se representa la gráfica con el valor de los valores que 
tomaría la función de densidad para todos los posibles valores del 
parámetro. El estimador máximo verosímil del parámetro buscado, , 
es aquel que maximiza su función de verosimilitud, V( ).
Propiedades de los estimadores de máxima verosimilitud:
 1 Son consistentes.
 2 Invariantes ante transformaciones.
 3 Suficiente
 4 Asintóticamente normal y eficiente.
ESTIMACIÓN POR INTERVALOS
En esta estimación buscamos un intervalo que contenga, con cierto 
grado de confiabilidad, al parámetro ; a este intervalo se lo llama 
intervalo de confianza.
 
44
Estadística Aplicada
Di Paolo, Claudio Javier
Inferencia Estadística
θmv
θ
θ
[ ] −=<< 1ˆˆ
21P θ θ θ α
−1 α
Estadística de una muestra aleatoria y conforman los 
límites inferior y superior
Grado de confianza
θ1̂θ 2̂y
[ ] −=<< 1ˆˆ
21P θ θ θ α[ ] −=<< 1ˆˆ
21P θ θ θ α
De manera que tomando a α cercana a cero, el grado de confianza es 
cercano a uno. En forma práctica, tomaremos a α = 0,05; de modo que 
el grado de confianza es del 95%.
Si una población sigue una distribución normal de parámetros y ; y 
las muestras son de tamaño , la media muestral sigue una 
distribución:
Se trata de encontrar un valor k como muestra la figura:
 
Buscaremos al valor k que deje en el intervalo al . 
100 % de la población. 
Partiremos de la Normal tabulada si queremos que el 
intervalo buscado contenga a la media muestral , con de con-
fianza; entonces el área fuera de la zona gris de la gráfica equivale a , y 
como la curva es simétrica, cada región (izquierda y derecha de la zona 
gris) mide . Surge la siguiente gráfica:
Buscamos ahora, al valor que deje en el intervalo 
al de la población en la .
 
Como en la Normal estándar se cumple que:
 o bien que: 
Debemos tipificar a la variable para trabajarla como Normal tipificada	
 de modo que; , despejando k, obtenemos el
valor deseado: 
45
Estadística Aplicada
Di Paolo, Claudio Javier
Inferencia Estadística
µ−k µ µ+k
µ σ
30≥n
µ σ



→
n
NX ,
µ µ( )kk +− ;
α
α
1− α( )
1− α( )
1− α( )
NN (0,1)
N (0,1)
Z →
X
2
-z z
1 − αα
2
α
2
α
2
α
2
z α
2
-zα
2
; zα
2 



 α
α 22
=

 ≥ zZP α
α
22
=



 zZP 1−≤
µ σ



n
N , α
µ
σ
2
z
n
k =−
αµ σ
2
znk ⋅+=
Entonces, dado el nivel de significación α ó el de confianza 1- α , deter-
minamos el intervalo de probabilidad para la media muestral que será: 
 
Ejemplo:
Determinar en una población , el valor que concentra el 75% de 
la población en un intervalo simétrico respecto a la media.
Entonces:
1- α = 0,75; α = 0,25; por lo tanto: = 0,125.
Ahora buscamos el valor z0,125 para poder dejar dentro del intervalo al 
75% de la población.
 
De modo que:
 y ; entonces z0,125=1,15 
Valor obtenido de la tabla. 
Casos de una población normal
A) Intervalo para la media de una población normal con varianza 
conocida
Sea X1, X2, X3, . . .,Xn , una muestra aleatoria de una población normal 
con µ desconocida y σ2 conocida; y si la muestra tiene un tamaño n ≥ 30, 
o bien la distribución es normal, el intervalo de confianza con nivel de 
confianza de 1- α (100%) queda constituido por: 
 
Si σ es desconocida, se utiliza S en su lugar. 
A se lo denomina Error típico o estándar.
B) Intervalo aproximado para la media de una población normal con 
varianza desconocida y tamaño de muestra grande
N (0,1)
46
Estadística Aplicada
Di Paolo, Claudio Javier
Inferencia Estadística
µ µσ σ






⋅+⋅−
22
;� z
n
z
n αα
α
2
0,75
0,125 0,125
-z0,125 z0,125
P( ) 0,1250,125 =≥ zZ P( ) 0,8750,125 =≥zZ
σ
α
σ
α 





⋅+⋅−
22
; z
n
Xz
n
X
n
σ
Sea X1, X2, X3, . . .,Xn ,una muestra aleatoria de una población normal con 
µ y σ2 desconocidas y n ≥ 30 (tomando como mayor o igual a 30 las ob-
servaciones de la muestra),entonces, la v.a. Z tiene una distribución apro-
ximada normal estándar: , a consecuencia del Teorema 
Central del Límite. 
Luego, ,determinan un 
intervalo de confianza aproximado al 100% para .
C) Intervalo exacto para la media de una población normal con varianza 
desconocida
Sea X1, X2, X3, . . .,Xn ,una muestra aleatoria de una población normal con 
µ y σ2 desconocidas, tenemos que la variable aleatoria , en 
donde tiene una distribución t-student con n −1 grados de libertad, de 
manera que podemos construir el intervalo de confianza para µ:
 , con grados de confianza 
del 100%.
Error Máximo Admisible
Definimos así, a la diferencia en valor absoluto entre la media 
poblacional y la muestral.
 ; en donde 
Cálculo del Error Máximo Admisible
Las propiedades que cumple el error máximo admisible son:
 1 E es menor cuanto más grande sea n(el tamaño de la muestra), 
porque dividimos por n.
 2 E es mayor al aumentar el nivel de confianza porque cuando crece 
1-α , aumenta .
 3 A partir del valor del Error Máximo Admisible podemos calcular el 
tamaño de la muestra despejando en la fórmula y quedará así:
 
Ejercicio: Al medir un tiempo de reacción, un psicólogo sabe que la 
desviación típica del mismo es 0,5 segundos. ¿Cuál es el número de 
medidas que debería realizar para que con una confianza del 99%, el 
error de estimación no exceda de 0,1 segundos?.
47
Estadística Aplicada
Di Paolo, Claudio Javier
Inferencia Estadística
nS
XZ /
−= µ
nS
XT /
−= µ
µ
1− αµα
2
α
2
=



 +<<− SZX
n n
SZXP
1− αµα
2
α
2
=



 +<<− StX
n n
StXP ,n-1 ,n-1
µ X− µ σ2
n
zX ⋅=− α
2
zα
2
σ
n
⋅α
2
zE =
σ
α
2
z
2





 ⋅=
E
n
D) Estimación de una proporción
Si estamos ante el caso de desconocer, en una población, la proporción p 
de individuos que posean cierta característica para estudiar y deseamos 
establecer el intervalo de confianza para p, con un nivel de confianza de 
1-α ,en un tamaño de muestra n ≥ 30, este intervalo resultaría:
 
Diferencia entre intervalos de probabilidad y de confianza
En un intervalo de probabilidad lo que conocemos es la media y la 
desviación típica poblacional, y damos el intervalo donde se encontrará 
(para un cierto nivel de confianza) la media muestral o la proporción 
muestral.
Sin embargo, en un intervalo de confianza entramos ya en el terreno de 
la estimación, es decir NO conocemos la media poblacional (y en ocasio-
nes tampoco la desviación típica poblacional) ni la proporción poblacio-
nal, sino que sólo conocemos, o podemos calcular, la media muestral o la 
proporción muestral, y de lo que se trata es de dar un intervalo en el que 
se encuentre la media poblacional (o la proporción poblacional).
El Contraste de Hipótesis o PRUEBA DE HIPÓTESIS
Una hipótesis estadística es una afirmación o conjetura con respecto a la 
distribución de una o más variables aleatorias.
Tipos de Hipótesis
 Hipótesis simple: Se refiere a un valor exacto que afirmamos o 
conjeturamos sobre el parámetro de una distribución. 
Ejemplo: Si tenemos una distribución binomial (n,p), la afirmación 
p=0,25 es una hipótesis simple, pues asigna un único valor a la variable p. 
 Hipótesis compuesta: Se refiere a un conjunto de valores aproxi-
mado que afirmamos o conjeturamos sobre

Continuar navegando

Materiales relacionados