Logo Studenta

Estadistica General - Conceptos Basicos

¡Este material tiene más páginas!

Vista previa del material en texto

ESPOCH. Facultad de Industrias Pecuarias
	Estadística General
	Escuela de Ingeniería en Industrias Pecuarias
	Conceptos Básicos
Conceptos Básicos
Estadística
Spiegel (1961), “la Estadística es la ciencia que usa métodos para reunir, organizar, resumir y analizar datos, así como para obtener conclusiones válidas y tomar decisiones razonables, a base de tales análisis”.
Steel y Torrie (1960), definen a la Estadística como “la ciencia pura y aplicada que crea, desarrolla y aplica procedimientos, en tal forma, que se pueda evaluar la certeza de la inferencia inductiva”.
La simple colección y ordenación de datos, se llama Estadística Descriptiva, mientras que la obtención sistemática de una o más conclusiones a partir de los datos, se llama Inferencia Estadística. Así vemos que los datos obtenidos por la Estadística Descriptiva, constituyen un fin para ésta, pero tan solo un medio para llegar a la Inferencia Estadística.
Datos
Los datos son los elementos de información que recopilas durante el estudio. Por ejemplo, les pregunto a cinco amigos míos cuántas mascotas tienen y me dan los siguientes datos: 0, 2, 1, 4, 18 . Pero no todos los datos son números; también tomo nota del sexo de todos mis amigos y obtengo lo siguiente: varón, varón, mujer, varón, mujer.
Existen dos grandes grupos de datos:
Datos numéricos o cuantitativos.
 Estos datos tienen significado como medida, P. Ej. la altura, el peso, el coeficiente intelectual o la presión arterial; o bien son el resultado de un recuento, P.Ej. el número de acciones que posee una persona, los dientes de un perro.
Los datos numéricos, a su vez, se dividen en dos tipos: discretos y continuos.
Datos discretos 
Representan elementos que pueden ser contados; adoptan valores posibles que se pueden enumerar. La lista de valores posibles puede estar restringida (finita) o puede ir desde 0, 1, 2 hasta el infinito (infinita numerable). Por ejemplo, el número de caras obtenidas al lanzar 100 veces una moneda al aire adopta valores que van desde 0 hasta 100 (caso finito), pero el número de lanzamientos necesarios para sacar 100 caras adopta valores que van desde 100 (el número mínimo de lanzamientos) hasta el infinito. Los valores posibles son 100, 101, 102, 103... (representan el caso infinito numerable).
Datos continuos 
Representan mediciones; sus valores posibles no se pueden contar y tan sólo pueden describirse utilizando intervalos de la recta de números reales. Por ejemplo, la cantidad exacta de gasolina que cargan los propietarios de vehículos con depósitos de 75 litros de capacidad puede adoptar cualquier valor posible entre 0,00 litros y 75,00 litros, lo cual se representa con el intervalo [0, 75]. 
Datos categóricos o cualitativos. 
Los datos categóricos representan características como el sexo de una persona, su estado civil, su lugar de nacimiento o el tipo de películas que le gustan. Los datos categóricos pueden adoptar valores numéricos (por ejemplo el “1” para indicar un varón y el “2” para indicar una mujer), pero esos números no tienen un significado. No puedes sumarlos entre sí.
Los datos ordinales combinan los datos numéricos y los categóricos. Los datos entran en dos categorías, pero los números asignados a esas categorías tienen significado. Por ejemplo, al valorar un restaurante en una escala de 0 a 5 se obtienen datos ordinales. Los datos ordinales generalmente se consideran categóricos, de manera que los grupos se ordenan al elaborar los gráficos y diagramas.
Conjunto de datos
Un conjunto de datos es la totalidad de los datos obtenidos de la muestra. 
Por ejemplo, si has pesado cinco envases y los pesos obtenidos son 6, 8, 11, 34 y 2 kilos, esos cinco números (6, 8, 11, 34, 2) forman tu conjunto de datos. Si únicamente anotas el tamaño del envase (por ejemplo pequeño, mediano o grande), el conjunto de datos podría ser el siguiente: mediano, mediano, mediano, grande, pequeño.
Variable
Una variable es una característica, propiedad o atributo que varía para cada individuo.
Una variable puede representar el resultado de un recuento (por ejemplo, el número de mascotas que tienes) o una medición (el tiempo que tardas en levantarte por la mañana). O bien la variable puede ser categórica, de manera que cada persona se incluye en un grupo (o categoría) según unos criterios determinados (por ejemplo, filiación política, raza o estado civil). Los elementos de información registrados sobre unidades de análisis en relación con una variable son los datos.
Población
Es el grupo de elementos o unidades que quieres estudiar para responder a la pregunta que da pie a la investigación.
Para responder prácticamente a cualquier pregunta que se te ocurra investigar, debes enfocar tu atención a un grupo concreto de unidades de análisis (por ejemplo un grupo de personas, ciudades, animales, especímenes de roca, puntuaciones de examen, etc.). Por ejemplo:
¿Cuál es el pronóstico de las enfermas de cáncer de mama que toman un nuevo fármaco experimental?
¿Qué porcentaje de cajas de cereales llevan la cantidad de producto que consta en el envase?
En cada uno de estos ejemplos se plantea una pregunta. Y en cada caso puedes identificar un grupo concreto de unidades de análisis: todas las enfermas de cáncer de mama y todas las cajas de cereales, respectivamente. Sin embargo, a veces cuesta mucho definir una población. En un buen estudio, los investigadores definen la población de forma muy clara, mientras que en uno malo la población no está bien definida.
Una población es un conjunto de elementos acotados en un tiempo y en un espacio determinados, con alguna característica común observable o medible.
Si la población es finita, diremos que el tamaño poblacional es el número de elementos de la misma y lo denotaremos con N.
Muestras y aleatoriedad
Los investigadores quieren averiguar algo sobre una población pero no tienen suficiente tiempo o dinero para estudiar a todos los elementos de esa población, de manera que eligen un subconjunto de elementos, los estudian y utilizan la información obtenida para extraer conclusiones sobre toda la población.
Se entiende por muestra a todo subconjunto de elementos de la población.
Una unidad muestral es el elemento o entidad de la muestra.
Tamaño muestral es el número de elementos de la población que conforman la muestra y se denota con n.
Aunque seleccionar una muestra parece algo muy sencillo, en realidad no lo es. La manera de seleccionar una muestra de la población puede marcar la diferencia entre obtener resultados correctos y acabar con un montón de basura. 
Las encuestas a través de Internet son un claro ejemplo de tergiversación estadística por culpa de una mala selección de la muestra. En la red hay miles de encuestas de opinión en las que se puede participar visitando un determinado sitio web. Pero incluso si contestaran una encuesta en Internet 50.000 ecuatorianos, esa muestra no sería representativa de toda la población de Ecuador; tan sólo representaría a las personas que tuvieran acceso a Internet, visitaran ese sitio web en particular y estuvieran suficientemente interesadas en el tema como para participar en la encuesta (lo cual generalmente significa que tienen opiniones tajantes al respecto). El resultado de todos estos problemas es el sesgo, el favoritismo sistemático de determinadas personas o determinados resultados del estudio.
¿Cómo debe seleccionarse una muestra de forma que se evite el sesgo? La palabra clave es aleatoriedad. Una muestra aleatoria es aquella que se selecciona con igualdad de oportunidades, es decir, cada muestra posible del mismo tamaño que la tuya tiene la misma probabilidad de ser seleccionada de la población. El significado real de aleatorio es que ningún grupo de población se ve favorecido ni excluido del proceso de selección.
Las muestras no aleatorias (o sea, mal hechas) son las que se seleccionan con algún tipo de preferencia o de exclusión automática de una parte de la población. 
Para tomar una muestra auténticamente aleatoria necesitas un mecanismo de aleatorización para elegira los participantes. Por ejemplo, el empleo de generadores de números aleatorios. En este proceso, los elementos de la muestra se eligen utilizando una lista de números aleatorios generados por computador; de manera que cada muestra de elementos tiene la misma probabilidad de ser seleccionada. Los investigadores pueden utilizar este método de aleatorización para asignar enfermos al grupo experimental y al grupo de control en un experimento. Este proceso es el equivalente a extraer nombres de un sombrero o extraer los números del bombo de la lotería.
Por muy grande que sea una muestra, si está basada en métodos no aleatorios los resultados no serán representativos de la población sobre la cual el investigador quiere extraer conclusiones. 
El muestreo aleatorio simple es el método de selección de n unidades de una población de tamaño N de tal modo que cada una de las muestras posibles tenga la misma oportunidad de ser elegida (Cochran,1981).
Estadístico
Un estadístico es un número que resume los datos recopilados de una muestra. 
Existen muchos estadísticos diferentes para resumir datos. Por ejemplo, los datos se pueden resumir como porcentaje (el 60% de las unidades familiares de la muestra tienen más de dos coches), promedio (el precio medio de una vivienda en esta muestra es de...), mediana (el sueldo mediano de los 1.000 ingenieros de industrias pecuarias que componen la muestra es de...) o percentil (este mes tu bebé está en el percentil 90 de peso según datos recopilados de más de 10.000 bebés).
El tipo de estadístico que se calcule depende del tipo de datos. Por ejemplo, los porcentajes se utilizan para resumir datos categóricos y las medias se utilizan para resumir datos numéricos. El precio de una casa es una variable numérica, de manera que puedes calcular su media o su desviación estándar. Por el contrario, el color de una casa es una variable categórica; no tiene sentido buscar la desviación estándar ni la media de color. En este caso los estadísticos importantes son los porcentajes de casas de cada color.
Parámetro
Los estadísticos se basan en datos de una muestra, no en datos de la población. Si recopilas datos de la población entera, estás haciendo un censo. Si a continuación resumes toda la información del censo en un único número procedente de una variable, ese número es un parámetro, no un estadístico. Las más de las veces, los investigadores intentan estimar los parámetros utilizando estadísticos. El INEC quiere dar a conocer el número total de habitantes del país, así que lleva a cabo un censo. Sin embargo, debido a los problemas logísticos que entraña una tarea tan ardua (por ejemplo ponerse en contacto con las personas sin hogar), a la postre las cifras del censo sólo pueden llamarse estimaciones, y se corrigen al alza para dar cuenta de las personas no incluidas en el censo.
Sesgo
Es una inclinación sistemática que está presente en el proceso de recopilación de datos y que da lugar a resultados desviados y engañosos. El sesgo puede aparecer por varias razones:
· Por la manera de seleccionar la muestra.
· Por la manera de recopilar los datos. Las preguntas de las encuestas son una causa importante de sesgo, así como el momento de hacer la encuesta, la longitud y la dificultad de las preguntas, y la forma de ponerse en contacto con las personas de la muestra.
Media (Promedio)
La media, también llamada promedio, es el estadístico más utilizado para medir el centro de un conjunto de datos numérico. La media es la suma de todos los números dividida por la cantidad total de números. La media de la población entera se denomina media poblacional, y la media de una muestra se denomina, lógicamente, media muestral.
La media puede no ser una representación ecuánime de los datos, ya que se ve influenciada fácilmente por los valores atípicos (valores muy grandes o muy pequeños que se alejan mucho de otros valores del conjunto de datos).
Mediana
La mediana es otra manera de medir el centro de un conjunto de datos numéricos. 
En un conjunto de datos numéricos, la mediana es el valor que divide dicho conjunto en dos partes iguales, una con valores superiores y otra con valores inferiores al valor de la mediana. Así pues, la mediana es el centro auténtico del conjunto de datos. 
Desviación estándar (o típica) (s)
La desviación estándar es una medida utilizada para referirse al grado de variabilidad (o dispersión) de los números de un conjunto de datos. Como el propio término indica, la desviación estándar es el grado estándar (o típico) de desviación (o divergencia) respecto del promedio (media). Así pues, dicho de manera muy burda, la desviación estándar es el alejamiento medio respecto de la media.
¿Alguna vez has oído a alguien decir que un resultado en particular presenta “dos desviaciones estándares por encima de la media”? Cada vez más, la gente quiere comunicar la importancia de los resultados que han obtenido, y una manera de hacerlo es diciendo el número de desviaciones estándares por encima o por debajo de la media. 
La desviación estándar también se utiliza para describir la zona donde deberían estar la mayoría de los datos, en relación con la media. Por ejemplo, si los datos siguen una curva con forma de campana (lo que se llama distribución normal), aproximadamente el 95% de los valores se encuentran a no más de dos desviaciones estándares de la media.
Percentil
Los percentiles se utilizan de varias formas con fines de comparación y para determinar la posición relativa (es decir, la situación de un valor en concreto en comparación con el resto de los valores). El peso de los bebés suele indicarse como percentil. Las empresas también utilizan los percentiles para saber en qué situación se encuentran, en comparación con otras empresas, en cuanto a ventas, beneficios, satisfacción del cliente, etc.
Probablemente hayas oído hablar antes de los percentiles. Si alguna vez has hecho alguna prueba normalizada, junto con la puntuación obtenida debieron de darte una medida de tu resultado en comparación con el resto de las personas que hicieron la prueba. Esta medida comparativa
probablemente te fue comunicada en forma de percentil. El percentil para un dato concreto es el porcentaje de valores de la muestra que están por debajo de ese dato concreto. Por ejemplo, si te dicen que tu puntuación está en el percentil 90, significa que el 90% de las personas que
hicieron la misma prueba obtuvieron una puntuación inferior a la tuya (y el 10% de los que se examinaron obtuvieron una puntuación más alta que tú). La mediana está justo en el centro de un conjunto de datos, de manera que representa el percentil 50.
Distribución y distribución normal
La distribución de un conjunto de datos (o de una población) es una lista o función que muestra todos los valores posibles (o intervalos) de los datos y la frecuencia con la que aparecen. Cuando se organiza una distribución de datos categóricos, ves el número o porcentaje de elementos que hay en cada grupo. Cuando se organiza una distribución de datos numéricos, generalmente se ordenan del más pequeño al más grande, se dividen en grupos de tamaño razonable (si conviene) y luego se pasan a gráficos y diagramas para ver la forma, el centro y el grado de variabilidad de los datos.
Existen muchas distribuciones distintas para datos categóricos y numéricos, y las más comunes tienen sus propios nombres. Una de las distribuciones más conocidas es la distribución normal, cuya representación gráfica es la popular campana de Gauss (también llamada curva gaussiana o curva de campana). 
La distribución normal se basa en datos numéricos continuos, cuyos valores posibles se encuentran en la recta numérica real. Cuando los datos se organizan a manera de gráfico, esta distribución tiene forma de campana simétrica. Dicho de otro modo, la mayoría (el 68%) de los datos están centrados en torno a la media (la parte central de la campana), y a medida que te alejas de la media hacia los lados encuentras cada vez menos valores (las curvas descendentes de ambos lados de la campana).La media (y, por tanto, la mediana) está justo en el centro de la distribución normal debido a la simetría, y la desviación estándar se mide por la distancia desde la media hasta el punto de inflexión (el punto donde la curva cambia de ser convexa a ser cóncava). La figura muestra un gráfico de una distribución normal en la que la media es 0 y la desviación estándar es 1 (esta distribución tiene un nombre especial, la distribución normal estándar o distribución Z). La curva tiene forma acampanada.
Valores z
 Si un conjunto de datos tiene una distribución normal y tú normalizas todos los datos para obtener puntuaciones estándares, esas puntuaciones estándares se llaman valores z. Todos los valores z presentan lo que se conoce como distribución normal estándar (o distribución Z). 
La distribución normal estándar es una distribución normal especial donde la media es igual a 0 y la desviación estándar es igual a 1.
La distribución normal estándar resulta útil para analizar los datos y determinar estadísticos como percentiles, o el porcentaje de datos que se encuentra entre dos valores. Así pues, si los investigadores determinan que los datos poseen una distribución normal, generalmente empiezan por normalizar los datos (convirtiendo cada punto de datos en un valor z) y luego utilizan la distribución normal estándar para analizar los datos más a fondo. 
Teorema del límite central
La distribución normal también se utiliza para medir la exactitud de muchos estadísticos, incluida la media, por medio de un importante resultado llamado teorema del límite central. Este teorema permite medir cuánto variará la media muestral sin tener que compararla con otras medias muestrales. Teniendo en cuenta esta variabilidad podemos utilizar los datos para responder a preguntas sobre la población, por ejemplo, “¿Cuáles son los ingresos medios por unidad familiar en Ecuador?” o “este informe dice que el 75% de las tarjetas regalo no llegan a utilizarse nunca, ¿es eso cierto?”. (Estos dos análisis en particular, posibles gracias al teorema del límite central, se llaman intervalos de confianza y contrastes de hipótesis, respectivamente.)
El teorema del límite central (TLC) dice básicamente que, para datos no normales, la media muestral presenta una distribución aproximadamente normal con independencia de cómo sea la distribución de los datos originales (siempre que la muestra sea suficientemente grande). Y esto no se aplica sólo a la media muestral; el TLC también se cumple para otros estadísticos como, por ejemplo, la proporción muestral. Como los estadísticos conocen a la perfección la distribución normal (tratada en el apartado anterior), estos análisis son mucho más sencillos. 
Experimentos
Un experimento es un estudio que impone un tratamiento (o control) a los sujetos (participantes), controla su entorno (por ejemplo limitando su alimentación, administrándoles cierta dosis de un fármaco o placebo o pidiéndoles que permanezcan despiertos durante un tiempo determinado) y registra las respuestas. 
El propósito de la mayoría de los experimentos es encontrar una relación causa-efecto entre dos factores (por ejemplo el consumo de alcohol y la vista defectuosa, o la dosis de un fármaco y la intensidad de sus efectos secundarios). 
Grupo experimental y grupo de control
La mayoría de los experimentos intentan dilucidar si un determinado tratamiento experimental (o factor importante) tiene un efecto significativo en un resultado. Por ejemplo, ¿el zinc ayuda a reducir la duración de un resfriado? Los sujetos que participan en el experimento suelen dividirse en dos grupos: un grupo experimental y un grupo de control (también puede haber más de un grupo experimental).
· El grupo experimental está compuesto por personas que toman el tratamiento experimental cuyos efectos se quiere estudiar (en este caso, comprimidos de zinc).
· El grupo de control está compuesto por personas que no tomarán los comprimidos de zinc. En su lugar se les administra un placebo (un tratamiento ficticio, por ejemplo una pastilla de azúcar), un tratamiento no experimental (por ejemplo vitamina C, en el estudio sobre el zinc) o nada en absoluto, según la situación.
Al final, las respuestas de los integrantes del grupo experimental se comparan con las respuestas del grupo de control para buscar diferencias estadísticamente significativas (diferencias que difícilmente puedan deberse al azar).
Placebo
Un placebo es un tratamiento ficticio, por ejemplo una pastilla de azúcar. Los placebos se administran al grupo de control para producir un fenómeno psicológico llamado efecto placebo, que consiste en que algunas personas presentan una respuesta como si se tratara de un tratamiento real. Por ejemplo, después de tomar una pastilla de azúcar, una persona que experimente el efecto placebo puede decir: “Sí, ya me siento mejor”, o “Vaya, estoy empezando a marearme un poco”. Midiendo el efecto placebo en el grupo de control puedes averiguar qué informes del grupo experimental son reales y cuáles se deben probablemente al efecto placebo (los experimentadores dan por sentado que el efecto placebo afecta tanto al grupo experimental como al grupo de control).
Enmascarado y doblemente enmascarado
Un experimento enmascarado (a veces se llama “a ciegas” o “ciego”) es un estudio clínico en el que los sujetos participantes no saben si están en el grupo experimental (el que recibe el tratamiento) o en el de control. Siguiendo con el ejemplo del zinc, los investigadores se asegurarían de que los comprimidos de vitamina C y los comprimidos de zinc tuvieran exactamente el mismo aspecto, y no dirían a los pacientes cuál de los dos tipos les estarían administrando. Un experimento enmascarado intenta controlar el sesgo por parte de los participantes.
Un experimento doblemente enmascarado, o con doble enmascaramiento, controla el sesgo potencial por parte de los pacientes y de los investigadores. Ni los pacientes ni los investigadores que recopilan los datos saben qué sujetos han recibido el tratamiento y cuáles no. Entonces, ¿quién está enterado? Generalmente es un tercero (alguien que no participa en el experimento de ninguna otra forma) quien se encarga de juntar las piezas. Un estudio con doble enmascaramiento es mejor porque, aunque los investigadores aseguren actuar de forma no sesgada, a menudo tienen un interés especial en los resultados.
Encuestas (sondeos)
Una encuesta (a veces llamada sondeo) es un cuestionario; generalmente se utiliza para obtener las opiniones de la gente junto con algunos datos demográficos relevantes. 
Si se hace como es debido, una encuesta puede ser muy informativa.
Margen de error
Posiblemente hayas visto u oído resultados como el siguiente: “Esta encuesta tiene un margen de error de más/menos tres puntos porcentuales”. La mayoría de las encuestas (salvo los censos) se basan en información recopilada de una muestra de personas, no de la población entera. Forzosamente existirá cierto grado de error, y no me refiero a un error de cálculo (aunque también puede haberlo), sino a un error de muestreo (también llamado error muestral), que ocurre simplemente porque los investigadores no están preguntando a todo el mundo.
El margen de error mide la diferencia máxima que puede haber entre los resultados de la muestra y los resultados de la población real. Puesto que los resultados de la mayoría de las preguntas pueden expresarse como porcentajes, el margen de error casi siempre se indica también como porcentaje. ¿Cómo se interpreta un margen de error? Pongamos que sabes que el 51% de las personas de la muestra han dicho que piensan votar por la señora X en las próximas elecciones. Si quisieras extrapolar esos resultados a todos los votantes, tendrías que sumar y restar el margen de error y proporcionar un intervalo de resultados posibles para estar suficientemente seguro de que salvas la distancia existente entre la muestra y la población entera. Suponiendo que el margen de error es de más/menos tres puntos porcentuales, estarías bastante seguro de que entreel 48% (51–3) y el 54% (51+3) de la población votará por la señora X en las elecciones, basándote en los resultados muestrales.
En este caso la señora X podría obtener un poco más o un poco menos de la mayoría de los votos, de manera que podría ganar o perder las elecciones. 
El margen de error mide la exactitud; no mide la cantidad de sesgo que pueda haber. Unos resultados que sean numéricamente exactos no significan nada en absoluto si se han recopilado de forma sesgada.
Intervalo de confianza
Una de las aplicaciones más importantes de la estadística consiste en estimar un parámetro poblacional utilizando un valor muestral. O dicho de otro modo: utilizar un número que resume una muestra para ayudarte a estimar el número correspondiente que resume a toda la población.
En cada una de las siguientes preguntas estás buscando un parámetro poblacional:
· ¿Cuáles son los ingresos medios por unidad familiar en Riobamba? (Población=todas las unidades familiares de Riobamba; parámetro=ingresos medios por unidad familiar.)
· ¿Qué porcentaje de ecuatorianos vieron este año la ceremonia de entrega de los Oscar? (Población=todos los ecuatorianos; parámetro=porcentaje que vieron este año la ceremonia de entrega de los Oscar.)
· ¿Cuál es la esperanza media de vida de un bebé que nazca hoy? (Población=todos los bebés que nazcan hoy; parámetro=esperanza media de vida.)
· ¿Qué eficacia tiene este nuevo medicamento para los adultos con alzhéimer? (Población=todas las personas que padezcan alzhéimer; parámetro=porcentaje de esas personas que experimenten alguna mejoría al tomar ese medicamento.)
Es imposible conocer esos parámetros con exactitud; cada uno de ellos requiere una estimación basada en una muestra. Primero se toma una muestra aleatoria de una población (pongamos una muestra de 1.000 unidades familiares de Riobamba) y a continuación se encuentra el estadístico muestral correspondiente (los ingresos medios por unidad familiar de la muestra). Como sabes que los resultados varían para cada muestra, tienes que añadir un “más/menos algo” a los resultados de la muestra si quieres extraer conclusiones sobre toda la población (todas las unidades familiares de Riobamba). Este “más/menos” que añades al estadístico muestral para estimar un parámetro es el margen de error.
Cuando coges un estadístico de la muestra (por ejemplo la media muestral o un porcentaje muestral) y sumas/restas un margen de error, obtienes lo que en estadística se llama intervalo de confianza. Un intervalo de confianza representa un intervalo de valores probables para el parámetro poblacional, a partir del estadístico muestral. Por ejemplo, pongamos que todos los días tardas una media de 35 minutos en ir de casa al trabajo, con un margen de error de más/menos 5 minutos. Puedes estimar que el tiempo medio que tardas en llegar al trabajo está comprendido entre 30 y 40 minutos. Esta estimación es un intervalo de confianza.
Algunos intervalos de confianza son mayores que otros (y cuanto mayor sea, peor, porque la precisión será menor). 
Existen varios factores que influyen en la amplitud de un intervalo de confianza, por ejemplo el tamaño de la muestra, el grado de variabilidad de la población estudiada y la confianza que quieres tener en los resultados (la mayoría de los investigadores se contentan con tener un 95% de confianza en sus resultados).
Contrastes de hipótesis
Cada vez que oyes a alguien decir que su estudio presenta un resultado “estadísticamente significativo” te tropiezas con un contraste de hipótesis (un resultado estadísticamente significativo es uno que difícilmente puede haber ocurrido por casualidad).
Básicamente, un contraste de hipótesis es un procedimiento estadístico mediante el cual se recopilan datos de una muestra y se cotejan con una afirmación referida a un parámetro poblacional. Por ejemplo, si una cadena de pizzerías asegura que entrega todas las pizzas en un tiempo máximo de treinta minutos tras recibir el pedido, como media, podrías comprobar si esa afirmación es cierta recopilando una muestra de tiempos de entrega durante un determinado período y determinando el tiempo medio de entrega para esa muestra. Para tomar una decisión también debes tener en cuenta cuánto pueden variar tus resultados de una muestra a otra (lo cual está relacionado con el margen de error).
Puesto que tu decisión se basa en una muestra y no en la población entera, el contraste de hipótesis puede conducirte a veces a una conclusión errónea. Sin embargo, la estadística es todo lo que tienes, y si la utilizas en la forma debida tendrás muchas posibilidades de acertar. 
En los estudios científicos se realizan muchos contrastes de hipótesis, incluidas pruebas t (comparan dos medias poblacionales), pruebas t para datos apareados (se examinan las diferencias entre el antes y el después) y pruebas de afirmaciones referidas a proporciones o medias de una o más poblaciones. 
Valores p
Los contrastes de hipótesis sirven para verificar la validez de una afirmación referida a una población. Esa afirmación que se somete a juicio se llama hipótesis nula. La hipótesis alternativa es la que creerías si concluyeras que la hipótesis nula está equivocada. Las pruebas de este juicio son los datos y los estadísticos que los acompañan. Todos los contrastes de hipótesis utilizan un valor p para ponderar la solidez de las pruebas (lo que los datos te están diciendo sobre la población). El valor p es un número comprendido entre 0 y 1 que se interpreta de la manera siguiente:
Un valor p pequeño (por lo general, ≤0,05) indica una prueba sólida en contra de la hipótesis nula, de manera que puedes rechazar dicha hipótesis.
Un valor p grande (por lo general,>0,05) indica una prueba débil en contra de la hipótesis nula, de manera que no rechazas dicha hipótesis.
Los valores p muy próximos al valor límite (0,05) se consideran marginales (caben ambas posibilidades). Debes indicar siempre el valor p para que quienes lean tus resultados puedan extraer sus propias conclusiones.
Por ejemplo, imagina que una pizzería dice que entrega las pizzas en treinta minutos o menos, en promedio, pero tú crees que tardan más.
Realizas un contraste de hipótesis porque crees que la hipótesis nula H0 (según la cual el tiempo medio de entrega es de treinta minutos como máximo) es incorrecta. Tu hipótesis alternativa (Ha) es que el tiempo medio de entrega es superior a treinta minutos. Tomas una muestra aleatoria de varios tiempos de entrega y sometes los datos al contraste de hipótesis, y el valor p resulta ser 0,001, muy por debajo de 0,05.
Concluyes que la pizzería está equivocada; el tiempo de entrega de las pizzas supera los treinta minutos en promedio.
Significación estadística
Cuando se recopilan datos para realizar un contraste de hipótesis, el investigador generalmente busca algo que se salga de lo normal. Los estadísticos utilizan los contrastes de hipótesis para medir cuánto se sale de lo normal un determinado resultado. Para ello, consideran que un resultado es estadísticamente significativo cuando existe una probabilidad muy pequeña de que haya ocurrido por mero azar, y proporcionan un número llamado valor p para reflejar dicha probabilidad.
Por ejemplo, si se comprueba que un fármaco es más eficaz que el tratamiento actual para el cáncer de mama, los investigadores dicen que el nuevo fármaco supone una mejora estadísticamente significativa en la tasa de supervivencia de las pacientes con cáncer de mama. Esto significa que, a partir de los datos obtenidos, la diferencia entre los resultados generales de las pacientes que tomaron el nuevo fármaco y los resultados de las que tomaron el tratamiento anterior es tan grande que sería muy difícil decir que obedece a una simple coincidencia. 
A veces los estadísticos llegan a la conclusión equivocada sobre la hipótesis nula porque la muestra no representa a la población. Por ejemplo, un efecto positivo experimentado por una muestra de personas que hayan tomado un nuevo tratamiento puede haberse debido a un golpe de suerte; o siguiendo elejemplo del apartado anterior, es posible que la pizzería sí entregue las pizzas a tiempo y tú, por mala suerte, hayas elegido una muestra de pizzas entregadas con retraso.
No te apresures a tomar decisiones por haber obtenido un resultado estadísticamente significativo. En ciencia, un estudio aislado, por extraordinario que sea, generalmente no tiene tanto valor como un conjunto de pruebas acumuladas a lo largo de mucho tiempo, junto con varios estudios de seguimiento bien diseñados. Cuando te hablen de algún logro extraordinario, acéptalo con reservas y espera a que salgan a la luz nuevas investigaciones antes de utilizar la información de un único estudio para tomar decisiones importantes que afecten a tu vida. Puede que los resultados no puedan reproducirse o que, incluso en tal caso, no puedas saber si son aplicables a todo el mundo.
Correlación y causalidad
La correlación, como término estadístico, es la medida en que dos variables numéricas presentan una relación lineal (es decir, una relación que aumenta o disminuye a un ritmo constante). Aquí tienes tres ejemplos de variables correlacionadas:
· El número de chirridos que emite un grillo en un minuto está estrechamente relacionado con la temperatura: cuando hace frío, el grillo canta menos veces, y a medida que aumenta la temperatura canta con una frecuencia cada vez mayor. En términos estadísticos, decimos que el número de chirridos y la temperatura presentan una fuerte correlación positiva.
· Se ha encontrado una relación entre el número de delitos (por habitante) y el número de policías en una determinada zona. Cuando hay más policías patrullando en la zona, tiende a haber menos delitos y viceversa, cuando hay menos policías presentes en la zona, generalmente se cometen más delitos. En términos estadísticos decimos que el número de policías y el número de delitos presentan una fuerte correlación negativa.
· El consumo de helado (litros por persona) y el número de homicidios en Nueva York presentan una correlación positiva. Es decir, a medida que aumentan las ventas de helado por habitante, aumenta también el número de homicidios. ¡Por extraño que parezca, es cierto!
Pero la correlación como estadístico no puede explicar por qué existe una relación entre dos variables x e y; tan sólo nos dice que existe.
La causalidad va un paso más allá que la correlación y significa que un cambio en el valor de la variable x causará un cambio en el valor de la variable y.
¿Cuándo puedes decir que existe una relación de causalidad? El caso más claro es cuando se lleva a cabo un experimento bien diseñado que descarta otros factores que podrían estar relacionados con los resultados. 
Es posible que al observar una correlación sientas el deseo de anunciar una relación causa-efecto; los investigadores, los medios y el público en general lo hacen continuamente. Sin embargo, antes de extraer ninguna conclusión averigua cómo se han recopilado los datos y espera a ver si otros investigadores logran reproducir los resultados.
David Pazmiño M:. – dpazmino@logica.ec 11 / 12

Continuar navegando