Logo Studenta

MONOGRAFIA DE ESTADISTICA APLICADA

¡Este material tiene más páginas!

Vista previa del material en texto

UNIVERSIDAD NACIONAL JORGE BASADRE GROHMANN
FCAG – ESAM
“AÑO DE LA CONSOLIDACIÓN DEL MAR GRAU”
UNIVERSIDAD JORGE BASADRE GROHMANN
FACULTAD DE CIENCIAS AGROPECUARIAS
ESCUELA PROFESIONAL DE INGENIERÍA AMBIENTAL
	
TRABAJO MONOGRÁFICO
“ESTADISTICA APLICADA”
	
DOCENTE:
MGR. LUIS ASUNSIÓN LÓPEZ PUYCAN
CURSO:
 ESTADISTICA APLICADA
INTEGRANTES:
LAURACIO MARCA, JEAN CARLOS		(2015 – 178028)
ALE CUTIPA, KAROLAY 			(…. )
AÑO:
III semestre
Tacna- Perú
2016
DEDICATORIA:
Dedicamos este trabajo a nuestros padres quienes son los que nos forjaron y nos alientan para poder culminar nuestros estudios.
Y Agradecemos a nuestros profesores quienes siempre nos aconsejan, nos enseñan y nos tienen paciencia para que nosotros podamos culminar satisfactoriamente nuestros estudios. Les estaremos eternamente agradecidos a ellos.
ÍNDICE
 INTRODUCCION
ESTADISTICA DESCRIPTIVA
1.1 INTRODUCCIÓN
1.2 DISTRIBUCIÓN DE FRECUENCIAS
1.3 REPRESENTACION GRAFICAS
1.4 MEDIDAS DE TENDENCIA CENTRAL
1.5 MEDIDAS DE DISPERSION
1.6 ASIMETRIA Y CURTOSIS
CALCULO DE PROBABILIDADES
2.1 EXPERIMENTOS ALEATORIOS
2.2 DEFINICION DE PROBABILIDAD
2.3 PROBABILIDAD CONDICIONAL Y REGLA DE MULTIPLICACION
2.4 VARIABLES ALEATORIAS DISCRETAS
2.5 VARIABLES ALEATORIAS CONTINUAS
DISTRIBUCIONES TEORICAS
3.1 DISTRIBUCIONES DE VARIABLES DISCRETAS
3.2 DISTRIBUCIONES DE VARIABLES CONTINUAS
INFERENCIA ESTADISTICA
4.1 ESTIMACIÓN
4.2 ESTIMACION DE INTERVALOR
4.3 PRUEBA DE HIPOTESIS
4.4PRUEBA DE CHI CUADRADA Y SUS APLICACIONES
REGRESION LINEAL SIMPLE Y MULTIPLE
5.1 REGRESION Y CORRELACION SIMPLE
5.2 REGRESION Y CORRELACION MULTIPLE
5.3 INTRODUCCION A LA ESTADISTICA NO PARAMETRICA
CONCLUSIONES
BIBLIOGRAFIA
INTRODUCCIÓN
La palabra estadística se origina, en las técnicas de recolección, organización, conservación, y tratamiento de los datos propios de un estado, con que los antiguos gobernantes controlaban sus súbditos y dominios económicos. Estas técnicas evolucionaron a la par con el desarrollo de las matemáticas, utilizando sus herramientas en el proceso del análisis e interpretación de la información.
En nuestros días, son de uso cotidiano las diferentes técnicas estadísticas que partiendo de observaciones muestrales o históricas, crean modelos lógico-matemáticos que se "aventuran" describir o pronosticar un determinado fenómeno con cierto grado de certidumbre medible. El avance tecnológico en la informática ha contribuido enormemente al desarrollo de la estadística, sobre todo en la manipulación de la información, pues en el mercado existen paquetes estadísticos de excelente calidad, como el SAS, SPSS, SCA, STATGRAPHICS, amén de otros, que "corren" en un ordenador sin mayores exigencias técnicas, permitiendo el manejo de grandes volúmenes de información y de variables. La estadística, entonces, dejó de ser una técnica exclusiva de los estados, para convertirse en una herramienta imprescindible de todas las ciencias, de donde proviene la desconcertante des-uniformidad en las definiciones de los diferentes autores, ya que cada estudioso la define de acuerdo con lo que utiliza de ella y tenemos definiciones como que: la estadística es la tecnología del método científico, o que es el conocimiento relacionado con la toma de decisiones en condiciones de incertidumbre, o que la estadística son métodos para obtener conclusiones a partir de los resultados de los experimentos o procesos, o que es un método para describir o medir las propiedades de una población. En fin, no se trata de discutir si la estadística es una ciencia, una técnica o una herramienta, sino de la utilización de sus métodos en provecho de la evolución del conocimiento.
La estadística hace inferencias sobre una población, partiendo de una muestra representativa de ella. Es a partir del proceso del diseño y toma de la muestra desde donde comienzan a definirse las bondades y confiabilidad de nuestras aseveraciones, hechas, preferentemente, con un mínimo costo y mínimo error posible.
CAPITULO I
ESTADISTICA DESCRIPTIVA
1.1 INTRODUCCIÓN
La estadística es una ciencia auxiliar para todas las ramas del saber; su utilidad se entiende mejor si tenemos en cuenta que los quehaceres y decisiones diarias embargan cierto grado de incertidumbre y la Estadística ayuda a trabajar con ella y nos orienta para tomar las decisiones con un determinado grado de confianza.
La estadística descriptiva se encarga de la recolección, clasificación y descripción de datos muestrales o poblacionales, para su interpretación y análisis, que es de la que nos ocuparemos en este curso. (LINCOLN, L. Chao. Estadística para Ciencias Administrativas. Trad. Jesús María Castaño.)
La población se define como un conjunto de individuos o de objetos que poseen una o varias características comunes. No se refiere esta definición únicamente a los seres vivientes; una población puede estar constituida por los habitantes de un país o por los peces de un estanque, así como por los establecimientos comerciales de un barrio o las unidades de vivienda de una ciudad. La muestra es un subconjunto de la población a la cual se le efectúa la medición con el fin de estudiar las propiedades del conjunto del cual es obtenida.
1.2 DISTRIBUCIÓN DE FRECUENCIAS
Son los datos y cifras desordenadas los cuales, al ser tomados como observaciones individuales, dicen muy poco sobre la población estudiada; es, entonces, tarea del investigador “hacer hablar las cifras”, comenzando por la clasificación y ordenación, consignando la información en tablas inteligibles que denominamos distribuciones de frecuencias.
El número de clases y la amplitud de los intervalos los fija el investigador de acuerdo con el conocimiento que posea de la población, la necesidad de hacer comparación con otras investigaciones y la presentación de la información. Sin embargo, se recomienda que la información no sea demasiado compacta, lo cual le restaría precisión, ni demasiado dispersa, ya que no se tendría claridad. En términos generales, es usual que el número de intervalos no sea inferior a 5 ni superior a 15. Struges propone que el número de clases o intervalos sea determinado por la expresión K = 1 + 3.3 log(n). La amplitud debe ser igual para todos los intervalos y, en lo posible, no se debe trabajar con clases abiertas.
La frecuencia absoluta o simplemente frecuencia, es el número de veces que se repite la variable Xi.
Fa: La frecuencia acumulada, se obtiene acumulando la frecuencia absoluta.
Fr: Frecuencia relativa; es el resultado de dividir c/u de las frecuencias absolutas por el tamaño de la muestra. 
Fra: Frecuencia relativa acumulada; se obtiene dividiendo la frecuencia acumulada entre el tamaño de la muestra.
1.3 REPRESENTACIONES GRÁFICAS
Una gráfica o diagrama es un dibujo complementario a una tabla o cuadro, que permite observar las tendencias de un fenómeno en estudio y facilita el análisis estadístico de las variables allí relacionadas. 
1.3.1 Gráfico en Barras. El gráfico de barras, como su nombre lo indica, está constituido por barras rectangulares de igual ancho, conservando la misma distancia de separación entre sí. Se utiliza básicamente para mostrar y comparar frecuencias de variables cualitativas o comportamientos en el tiempo, cuando el número de ítems es reducido. Éstos gráficos suelen ser de barras verticales, aunque se pueden utilizar de forma horizontal.
1.3.2 Gráfico en sectores circulares. Usualmente llamado gráfico de pastel, debido a su forma característica de una circunferencia dividida en cascos, por medio de radios que dan la sensación de un pastel tajado en porciones. Se usa para representar variables cualitativas en porcentajes o cifras absolutas cuando el número de ítems no es superior a 5 y se quiere resaltar uno de ellos. Para su construcción se procede de la siguiente forma: La circunferencia tiene en su interior 360 grados, los cuales hacemos corresponder al total de la información, es decir al 100%; luego, para determinar el número de grados correspondiente a cada componente se multiplica el porcentaje respectivo por 360 y se dividepor 100, los cuales se miden con la ayuda de un transportador para formar los casquetes de los diferentes ítems.
1.3.3 Histograma. Para la construcción de un histograma de frecuencias de fácil interpretación y que no falsee la información, debe disponerse de una distribución de frecuencias por intervalos con amplitud igual para cada clase o intervalo. En el eje de las abscisas procedemos a representar los intervalos de la variable, y en el eje de las ordenadas las frecuencias de cada clase. El histograma se construye dibujando barras contiguas que tienen como base la amplitud de cada intervalo y como alturas las frecuencias respectivas.
1.3.4 Polígono de frecuencias. Para la construcción de un polígono de frecuencias, se marcan los puntos medios de cada uno los intervalos en la parte superior de cada barra del histograma de frecuencias, los cuales se unen con segmentos de recta.
1.4 MEDIDAS DE TENDENCIA CENTRAL
Las medidas de tendencia central, llamadas así porque tienden a localizarse en el centro de la información, son de gran importancia en el manejo de las técnicas estadísticas, sin embargo, su interpretación no debe hacerse aisladamente de las medidas de dispersión, ya que la representatividad de ellas está asociada con el grado de concentración de la información. Las principales medidas de tendencia central son: Media aritmética, mediana y moda.
1.4.1 Media Aritmética. Se denomina simplemente media es el valor numérico que se obtiene dividiendo la suma total de los valores observados de una variable entre el número de observadores.
Posee las siguientes propiedades:
· La suma de las diferencias de los datos con respecto a la media aritmética es igual cero.
· La suma de las diferencias cuadráticas de los datos, con respecto a la Media Aritmética, es mínima.
· Si a cada uno de los resultados le sumamos o le restamos una constante C , la Media Aritmética queda alterada en esa constante.
· Si cada uno de los datos se multiplica por una constante k, entonces la media aritmética queda multiplicada por esa constante.
1.4.2 Mediana. Otra medida de tendencia central, utilizada principalmente en estadística no paramétrica, es la mediana, la cual no se basa en la magnitud de los datos, como la media aritmética, sino en la posición central que ocupa en el orden de su magnitud, dividiendo la información en dos partes iguales, dejando igual número de datos por encima y por debajo de ella. 
1.4.3 Moda. La moda, como su nombre lo indica, es el valor más común (de mayor frecuencia dentro de una distribución. Una información puede tener una moda y se llama unimodal, dos modas y se llama bimodal, o varias modas y llamarse multimodal. Sin embargo puede ocurrir que la información no posea moda.
Los percentiles son ciertos parámetros posicionales muy útiles en la interpretación porcentual de la información. Las cuartillas o cuartiles son valores posicionales que dividen la información en cuatro partes iguales, el primer cuartil deja el 25% de la información por debajo de él, y el 75% por encima, el segundo cuartil, al igual que la mediana, divide la información en dos partes iguales, y por último el tercer cuartil deja el 75% por debajo de sí, y el 25% por encima. Gráficamente: Se necesita, entonces calcular tres cuartillas ya que la cuarta queda automáticamente determinada.
1.5 MEDIDAS DE DISPERSIÓN
1.5.1 Varianza. El problema de los signos en la desviación media, es eludido tomando los valores absolutos de las diferencias de los datos con respecto a la media aritmética. Ahora bien, la varianza obvia los signos elevando las diferencias al cuadrado, lo cual resulta ser más elegante, aparte de que es supremamente útil en el ajuste de modelos estadísticos que generalmente conllevan formas cuadráticas. La varianza es uno de los parámetros más importantes en estadística paramétrica, se puede decir que, teniendo conocimiento de la varianza de una población, se ha avanzado mucho en el conocimiento de la población misma. Numéricamente definimos la varianza, como desviación cuadrática media de los datos con respecto a la media aritmética:
1.5.2 Coeficiente de variación. Generalmente interesa establecer comparaciones de la dispersión, entre diferentes muestras que posean distintas magnitudes o unidades de medida. El coeficiente de variabilidad tiene en cuenta el valor de la media aritmética, para establecer un número relativo, que hace comparable el grado de dispersión entre dos o mas variables, y se define como: 
1.5.3 Desviación estándar. Es la raíz cuadrada positiva de la varianza.
1.6 ASIMETRÍA Y CURTOSIS
La Asimetría es una medida de forma de una distribución que permite identificar y describir la manera como los datos tiende a reunirse de acuerdo con la frecuencia con que se hallen dentro de la distribución. Permite identificar las características de la distribución de datos sin necesidad de generar el gráfico.
Asimetría Negativa o a la Izquierda. Se da cuando en una distribución la minoría de los datos está en la parte izquierda de la media. Este tipo de distribución presenta un alargamiento o sesgo hacia la izquierda, es decir, la distribución de los datos tiene a la izquierda una cola más larga que a la derecha. También se dice que una distribución es simétrica a la izquierda o tiene sesgo negativo cuando el valor de la media aritmética es menor que la mediana y éste valor de la mediana a su vez es menor que la moda, en símbolos
Simétrica.- Se da cuando en una distribución se distribuyen aproximadamente la misma cantidad de los datos a ambos lados de la media aritmética. No tiene alargamiento o sesgo. Se representa por una curva normal en forma de campana llamada campana de Gauss (matemático Alemán 1777-1855) o también conocida como de Laplace (1749-1827).También se dice que una distribución es simétrica cuando su media aritmética, su mediana y su moda son iguales, en símbolos Md=Mo
Asimetría Positiva o a la Derecha. Se da cuando en una distribución la minoría de los datos está en la parte derecha de la media aritmética. Este tipo de distribución presenta un alargamiento o sesgo hacia la derecha, es decir, la distribución de los datos tiene a la derecha una cola más larga que a la izquierda.
También se dice que una distribución es simétrica a la derecha o tiene sesgo positivo cuando el valor de la media aritmética es mayor que la mediana y éste a valor de la mediana a su vez es mayor que la moda, en símbolos 
La curtosis mide el grado de agudeza o achatamiento de una distribución con relación a la distribución normal, es decir, mide cuán puntiaguda es una distribución.
La curtosis determina el grado de concentración que presentan los valores en la región central de la distribución. Así puede ser:
Leptocúrtica.- Existe una gran concentración.
Mesocúrtica.- Existe una concentración normal.
Platicúrtica.- Existe una baja concentración.
CAPITULO II
CALCULO DE PROBABILIDADES
2.1 EXPERIMENTOS ALEATORIOS
El experimento Aleatorio, conservando las mismas condiciones experimentales, los resultados no se pueden predecir, con exactitud, para ninguna repetición. Sí, por ejemplo lanzamos una moneda al aire para observar de cual lado cae, no podemos pronosticar con certeza, si se presenta sello o se presenta cara. Tenemos entonces presente el componente del azar y por consiguiente un experimento aleatorio. No ocurriría igual si la moneda estuviese diseñada igual por ambos lados y por consiguiente sería un experimento determinístico: Todos los posibles resultados de un experimento aleatorio, conforman el espacio muestral que representaremos por “S”, a cualquier subconjunto del espacio muestral se le denomina suceso o evento aleatorio y lo denotaremos con “E”. Cada uno de los elementos del espacio muestral se denomina evento elemental “e”.
· Si un suceso A puede ocurrir de n maneras y otro suceso B puede ocurrir m maneras, entonces el suceso A ó B (Sucede el evento A ó sucede el evento B) puede ocurrir de n + m formas, siempre y cuando los eventos no puedan suceder simultáneamente.
· Si un seceso A puede sucederde n maneras y un suceso B de m formas, entonces el suceso A y B (sucede el evento A y sucede el Evento B) puede ocurrir de n(m) modos.
Las permutaciones. Se le llaman así a cada uno de los arreglos de n elementos, cuya diferenciación mutua se debe al orden en que están colocados sus elementos.
Las combinaciones. Se les llama a cada uno de los arreglos de r elementos obtenidos de un grupo de n elementos, cuya diferenciación mutua se deba a los elementos sin importar el orden de colocación de ellos, se le denomina combinación. El número total de combinaciones se representa por:
2.2 DEFINICIÓN DE PROBABILIDAD
Los eventos aleatorios no son predecibles con absoluta certeza, no obstante podemos medir el grado de confianza con que se hace un pronóstico, sobre la ocurrencia o no de un determinado suceso.
2.2.1 Definición Clásica. Si un evento puede ocurrir de n maneras, equiprobables y mutuamente excluyentes, de las cuales m maneras son favorables al suceso A; se define probabilidad del suceso A como: 
2.2.2 Definición Axiomática.
Para todo experimento, la probabilidad de ocurrencia de un evento A, p(A), es una función que cumple con los siguientes axiomas: 
Si dos o más sucesos son incompatibles entre sí, entonces la probabilidad de la unión de ellos, es igual a la suma de sus probabilidades respectivas.
2.3 PROBABILIDAD CONDICIONAL Y REGLA DE MULTIPLICACION
Si tenemos los sucesos A, B en un experimento aleatorio, con p(B)>0, se llama probabilidad condicional a: p(A/B) La probabilidad de ocurrencia del evento “A” dado que ya se ha presentado el suceso “B”
Teorema de Bayes. Si se conoce Pr(A|Bi ) para cada i, el teorema de Bayes proporciona una fórmula útil para calcular las probabilidades condicionales de los Bi eventos dado A .
Sea Bi ,...,Bk los eventos que forman una partición del espacio S tal que Pr(Bi )>0 para j=1,2,...,k y sea A un evento tal que Pr(A) >0. Entonces para i=1,...,k.
2.4 VARIABLES ALEATORIAS DISCRETAS
Una variable aleatoria es discreta cuando su campo de variación (dominio de definición) está constituido por un conjunto finito o infinito numerable de valores posibles. Cada suceso de W se corresponde con un valor.
Ej. 1 : ante el experimento : lanzar un dado diez veces se aleatoria de forma que la variable aleatoria X = nº de ases que se obtengan : X ={0,1,2,3,4,5,6,7,8,9,10} (v.a. discreta de orden finito)
Ej. 2: ante el experimento: contemplar los coches que pasen por un tramo de carretera se aleatoria de forma que la variable aleatoria X = nº de coches que pasen: X={0,1,2,3,...} ( X= N ) (v. a. discreta de orden infinito)
Si la variable aleatoria es discreta, cada valor de los pertenecientes al campo de variación se corresponderá con un suceso del álgebra de sucesos. (Lo que permitirá después asignar probabilidades a cada valor).
Una variable aleatoria discreta es el modelo teórico de una variable estadística discreta (con valores sin agrupar).
Una variable aleatoria discreta es aquella cuya función de distribución es escalonada.
La función de distribución puede observarse que:
· Presenta un perfil escalonado produciéndose un salto en cada uno de los valores definidos de la variable aleatoria. Es continua por la derecha, pero no por la izquierda.
· La cuantía de cada salto es precisamente la probabilidad en ese punto, la función de cuantía.
· Es semejante al DIAGRAMA ACUMULATIVO de una distribución de frecuencias de valores sin agrupar.
· Entre cada dos puntos (de los definidos) no hay probabilidad (y por tanto no se acumula).
2.5 VARIABLES ALEATORIAS CONTINUAS
Es aquella cuyo dominio de definición (campo de variación) es un intervalo (compacto) de la recta real , una unión de varios intervalos , o la totalidad de la recta real.(Por lo tanto los valores definidos de la variable aleatoria son un conjunto infinito no numerable .) El álgebra de sucesos del que surge debe contener un número infinito no numerable de sucesos, cada uno de ellos se corresponderá con alguno de los (infinitos) intervalos incluidos en el campo de definición.
Ejemplo 3. Ante el experimento: contemplar los coches que pasen por un tramo de carretera se aleatoria de forma que la variable aleatoria X =tiempo que hay que esperar hasta que pase un coche X = [0,µ [ ,es decir X=R+
En el caso continuo no podremos hacer corresponder a los valores (puntuales) con sucesos de álgebra de sucesos, la correspondencia se establecerá entre sucesos del álgebra e intervalos pertenecientes al campo de variación de la variable .En consecuencia no podremos asignar probabilidades a los valores de la variable, sino sólo a intervalos. Una variable aleatoria continua es el modelo teórico de una variable estadística continua (agrupada por intervalos).
En una distribución de variable continua se induce probabilidad sobre todos los infinitos intervalos que integran el campo de definición de la variable .En consecuencia ante cualquier incremento de la variable (por pequeño que sea) le corresponderá un incremento de la probabilidad de que se va acumulando, lo que hará que la función de probabilidad acumulada, la función de distribución tenga que ser continua en todos lo puntos del campo de definición de la variable. Es esta la razón de que se llamen distribuciones continuas, ya que acumulan de forma continua su probabilidad.
CAPITULO III
DISTRIBUCIONES TEORICAS
3 DISTRIBUCION DE VARIABLE DISCRETA
Existen muchos fenómenos naturales que obedecen a distribuciones de probabilidad similares. En este tema vamos a conocer algunas de las más frecuentes e importantes. El comportamiento de una variable aleatoria queda, en general, descrito por su distribución de probabilidad, o función de probabilidad f(x), que, en el caso de que la variable sea discreta, indica la probabilidad de que se de cada uno de los valores x posibles de la variable aleatoria (f(x) = P(X = x)). La práctica indica que muchos experimentos aleatorios tienen comportamientos similares, de forma que sus resultados siguen la misma distribución de probabilidad. En este capítulo se van a presentar las principales distribuciones discretas de probabilidad. Existen otras distribuciones discretas que no se abordarán aquí por brevedad.
 La distribución binomial. Supongamos un experimento aleatorio consistente en realizar un número de ensayos o pruebas repetidas, cada una de ellas con únicamente dos posibles resultados mutuamente excluyentes, que denominaremos éxito o fracaso. Supongamos que la probabilidad de obtener un éxito en un ensayo es siempre constante y que los diferentes ensayos son independientes, en el sentido de que el resultado de un ensayo no afecta a los otros. En este caso diremos que tenemos un proceso de Bernoulli. En concreto, el proceso de Bernoulli debe tener las siguientes propiedades 1. El experimento consiste en n ensayos repetidos. 2. El resultado de cada uno de los ensayos puede clasificarse en éxito o fracaso (excluyentes). 3. La probabilidad de éxito, que denotaremos por p, es constante en todos los ensayos. 4. Los diferentes ensayos son independientes. Ejemplos de procesos de Bernoulli son la prueba de artículos de una cadena de producción para determinar cuáles son defectuosos, la extracción de una carta para ver si es de un palo o no (siempre que se devuelva la carta extraída a la baraja) o la observación del sexo de recién nacidos. Se define la variable aleatoria binomial como la función que da el número de éxitos en un proceso de Bernoulli. Evidentemente, la variable binomial X podrá tener valores en el rango X = {0, 1, 2,...,n}, donde n es el número de veces que se repite el ensayo. La distribución de probabilidad asociada con esta variable aleatoria se denomina distribución binomial
La distribución de Poisson. Consideremos un experimento aleatorio consistente en medir el número de resultados, o sucesos de un tipo dado, que se producen en un cierto intervalo continuo. Este intervalo puede ser un intervalo de tiempo, de espacio, una región dada, etc. Ejemplos de este experimento podrían ser: el número de partículas radiactivas emitidaspor un material en un tiempo dado, el número de fotones que llegan a un detector en un tiempo fijado, el número de días al año en que llueve en un cierto lugar, el número de estrellas que se observan en el cielo en cuadriculas del mismo tamaño, etc. Diremos que un experimento de este tipo sigue un proceso de Poisson cuando se cumplan las siguientes condiciones: 1. El número de resultados que ocurren en un intervalo es independiente del n´umero que ocurre en otro intervalo disjunto. Es decir, los sucesos aparecen aleatoriamente de forma independiente. Se dice entonces que el proceso no tiene memoria. 2. La probabilidad de que un resultado sencillo ocurra en un intervalo pequeño es proporcional a la longitud de dicho intervalo. Además dicha probabilidad permanece constante, de forma que se puede definir un número medio de resultados por unidad de intervalo. Se dice que el proceso es estable. 3. La probabilidad de que ocurra más de un resultado en un intervalo suficientemente pequeño es despreciable. Se define entonces la variable aleatoria de Poisson como el número de resultados que aparecen en un experimento que sigue el proceso de Poisson. Nótese que el campo de variabilidad de la variable de Poisson será: X = {0, 1, 2,...}. La distribución de probabilidad asociada con esta variable se denomina distribución de Poisson y dependerá fundamentalmente del número medio de resultados (o sucesos) por intervalo, que denotaremos por λ.
3.1 DISTRIBUCION DE VARIABLE CONTINUA
En este tema se presentan algunas de las distribuciones continuas de probabilidad más comunes y frecuentemente utilizadas en Física. También resultan fundamentales a la hora de tomar decisiones en inferencia estadística y al realizar contrastes de hipótesis, como se estudiará más adelante.
La distribución normal. La distribución continua de probabilidad más importante de toda la estadística es, sin duda alguna, la distribución normal. La importancia de esta distribución se debe a que describe con gran aproximación la distribución de las variables asociadas con muchos fenómenos de la naturaleza. En particular, las medidas de magnitudes físicas suelen distribuirse según una distribución normal. Por ejemplo, la distribución de alturas de un grupo de población, las medidas de calidad de procesos industriales, o la distribución de temperaturas de una población, se pueden aproximar por distribuciones normales. Además, los errores en las medidas también se aproximan con mucha exactitud a la distribución normal. Por otra parte, bajo ciertas condiciones, la distribución normal constituye una buena aproximación a otras distribuciones de probabilidad, como la binomial y la de Poisson.
La Distribución de X2 de Pearson. La importancia de la distribución χ2 en estadística se basa en la siguiente propiedad: Sea σ2 la varianza de una población normal y s2 la varianza de una muestra de tamaño extraída al azar de dicha población. 
La Distribución T de Students. La distribución t de Student es sumamente importante para la estimación y el contraste de hipótesis sobre la media de una población, como se verá en temas posteriores. Si se tiene una población que sigue una distribución normal con media µ y desviación típica σ (N(µ, σ)), y se extrae una muestra aleatoria de tamaño n sobre la que se calcula una media x y una desviación típica s, entonces la variable aleatoria dada por tn−1 = x − µ s/√n
La Distribución F de Fisher. La distribución F de Fisher es muy utilizada en el análisis de varianza y, en particular, es usada para comparar las varianzas de dos poblaciones normales. Efectivamente, sea X1 una variable aleatoria normal N(µ1, σ1) y X2 una variable normal N(µ2, σ2), independientes entre sí. Si de la primera población se extrae una muestra aleatoria de tamaño n1 en la cual se mide una desviación típica s1, y de la segunda población se extrae una muestra de tamaño n2, con desviación típica s2.
CONCLUSIONES 
Sdasf
Fas
F
Asf
As
Fas
F
BIBLIOGRAFÍA
Bibliografía
(s.f.). Obtenido de https://www.uv.es/ceaces/base/variable%20aleatoria/varalea.htm
Cao, R. (s.f.). Estadistica Aplicada. Obtenido de http://dm.udc.es/profesores/ricardo/Archivos/Presentaciones.pdf
Javier Gordas García, Nicolas Gardiel López, Jaime Zamorano Calvo. (17 de febrero de 2011). Estadistica Basica. Obtenido de http://pendientedemigracion.ucm.es/info/Astrof/users/jaz/ESTADISTICA/libro_GCZ2009.pdf
S., N. G. (15 de 09 de 2002). Estadistica Aplicada. Obtenido de http://fcbi.unillanos.edu.co/proyectos/Facultad/php/tutoriales/upload_tutos/Curso%20De%20Estadistica%20Aplicada.pdf
ESTADISTICA APLICADA
6

Continuar navegando