Logo Studenta

Metodologia de la Investigacion 2do parcial (Ynoub 2021)

¡Este material tiene más páginas!

Vista previa del material en texto

RESUMEN 2do PARCIAL METODO
TEMA 14: PRUEBA DE HIPOTESIS
Una prueba de hipótesis es un procedimiento estadístico que permite contrastar lo sostenido en una hipótesis científica, a partir de datos empíricos obtenidos de una muestra extraída de la población, sobre la cual versa dicha hipótesis.
Poner a prueba una hipótesis es una cuestión de probabilidad. Lo que el investigador quiere estar seguro es de la probabilidad de que sus resultados no hayan ocurrido por azar, porque quiere que las variaciones entre sus tratamientos o grupos se deban al efecto de la variable independiente. 
La estadística pone a prueba los datos, pone a prueba la hipótesis nula (H0), esta en el contexto experimental afirma por lo general la inexistencia del efecto de la VI sobre la VD, en contexto no experimental sostiene que la variable predictora no sirve para predecir la variable criterio.. La hipótesis alternativa o de trabajo (H1) afirma que hay relación entre las variables. Nunca podemos decir que una hipótesis es verdadera o falsa, decimos que cuan probable o improbable que la H0 sea verdadera. Si es muy poco probable que mi resultado haya ocurrido por azar, puedo rechazar la H0 y aceptar la H1. Por el contrario, si es muy probable que mis resultados hayan ocurrido por azar, mantengo la H0. La hipótesis alternativa y la hipótesis nula se excluyen mutuamente
p: probabilidad de obtener los valores muestrales observados o aun más extremos. 
El problema es a qué llamo muy probable o poco probable, y ese nivel crítico de probabilidad de que los resultados hayan ocurrido pro azar, lo determina el investigador. Es el nivel crítico a partir del cual va a aceptar o rechazar la H0 en función de los datos. Ese nivel crítico se llama nivel de significación (α alfa), por convención es 0.05. Entonces la probabilidad de que mi resultado haya ocurrido por azar tiene que ser igual o menos a alfa para poder rechazar la hipótesis nula y aceptar la alternativa.
Cuando el investigador haya llegado a un resultado, tiene que tomar una decisión respecto a la H0, si la rechaza o no. Dos errores fundamentales que pueden suceder:
· Error tipo I: el investigador rechaza H0, cuando en realidad era verdadera. Esto quiere decir que afirma que existe una relación entre las variables, cuando en realidad no la había. Este es un error que queremos evitar. Puede poner alfa en 0.01 incluso para disminuir la probabilidad. Si el rechazo la H0 es porque la probabilidad de su resultado cayó en la zona de rechazo, no es porque no entendió, fue por azar, es una cuestión de probabilidad, por eso las investigaciones se replican.
· Error tipo II: en este caso no rechaza la hipótesis nula, cuando en realidad era falsa. El investigador concluye que no hay relación cuando en realidad si la había, entonces se perdió de poder encontrar esta relación. Este tipo de error suele estar relacionado con errores en el diseño, tal vez son valores de la VI muy cercanos entonces no generaron una diferencia significativa, o los grupos no eran homogéneos, se filtro alguna variable contaminadora. Lo primero que hay que hacer es revisar el diseño. Este error ocurre porque el alfa cae por fuera de la zona de rechazo.
En función del nexo que utilizo entre mis variables en juego, hay 2 tipos de hipótesis. 
· Direccionales o unidireccionales: estas hipótesis me indician la dirección en la que yo espero que varíen los datos. Por ejemplo el ruido disminuye la memoria, espero que los datos vayan en esa dirección.
· No direccionales o bidireccionales: no indican la dirección en la que se espera que varíen los datos. Por ejemplo la terapia influye en tal patología. 
Esto es importante porque según la hipótesis sea de un tipo u otra voy a tener que llevar la prueba de hipótesis de una manera. Cuando al hipótesis es direccional la prueba de hipótesis se hace a una cola, esto quiere decir que todo mi nivel de significación esta en un extremo de la distribución. En las hipótesis no direccionales la prueba de hipótesis se lleva adelante a dos colas, esto quiere decir que mi nivel de significación se reparte en los dos extremos de la distribución.
Procedimiento para realizar una prueba de hipótesis es el siguiente:
1. Formular la hipótesis nula (H0) y la hipótesis alternativa (H1).
2. Seleccionar un estadístico de prueba.
3. Establecer el valor de alfa α.
4. Determinar la zona de rechazo y establecer la regla de decisión.
5. Recolectar los datos y realizar el análisis estadístico.
6. Comparar el valor de p con el valor de α.
7. A partir de esta comparación decidir si se rechaza o no la hipótesis nula, y en función de esto si se acepta o se rechaza la hipótesis alternativa. De lo que va a depender si corroboramos o no nuestra hipótesis de investigación.
Ejemplo: el ruido aumenta a la memoria. t=3.7 p=0.032 se rechaza
TEMA 15: TÉCNICAS PSICOMÉTRICAS
Al aplicar una técnica psicométrica se juegan cuestiones relacionadas con la validez y confiabilidad del instrumento.
El propósito de una técnica de evaluación ya sea psicométrica o proyectiva en principio seria operacionalizar algún constructo hipotético. Ejemplo: al evaluar la variable de personalidad extraversión, mediante alguna técnica psicométrica, lo que estamos haciendo es operacionalizar mediante un instrumento dicho constructo hipotético.
Es de fundamental importancia que el instrumento esté midiendo lo que dice medir, la precisión y la congruencia, tienen que ver con la confiabilidad del instrumento. Que el instrumento mida realmente lo que dice medir, se relaciona con la validez.
Confiabilidad
Toda medición tiende a presentar errores, de manera que el valor observado en la medición, está formado por el valor verdadero y por el error de medición. Si se pudiera llegar a una medición que, en un sentido ideal no tuviera márgenes de error, el valor observado y el valor verdadero coincidirían. Obviamente, cuanto más error incluya la medición, más contaminada quedaría la variable de interés y más imprecisa sería la técnica que intenta medirla.
Un instrumento será más confiable en la medida que maximice el valor verdadero, es decir que éste aproxime lo más posible al valor observado u obtenido. Al maximizar el valor verdadero, minimizamos el error de medición, con el consecuente incremento de la confiabilidad.
La confiabilidad se refiere, específicamente a los errores aleatorios. Podemos hablar de dos tipos de errores: los errores aleatorios que, como tales, no pueden ser controlados y no se pueden predecir y los errores sistemáticos que son controlables y pueden ser explicados por alguna fuente de variación sistemática. 
La confiabilidad es la consistencia en un conjunto de medidas de un atributo. Podríamos también definir la confiabilidad como la proporción de la variabilidad verdadera respecto de la variabilidad obtenida.
En el análisis de la confiabilidad tenemos que considerar tres aspectos: su congruencia o consistencia interna, la estabilidad del instrumento y la equivalencia.
Congruencia o consistencia interna: consiste en que las distintas partes que componen el instrumento estén midiendo lo mismo. Al hablar de confiabilidad del instrumento, estamos hablando de que los reactivos que componen el instrumento, son distintas formas del mismo atributo, de manera que estaríamos frente al mismo constructo, observado en conductas diferentes. Ejemplo: en el test EPQ-A de Eysenck (TEA Ediciones, 1982) las preguntas: ¿Tiene Ud. muchos “hobbys”, muchas aficiones?, ¿Es Ud. una persona conversadora?, ¿Es Ud. una persona animada, alegre?, remiten junto con otras al factor Extraversión, en consecuencia, se esperaría que las respuestas que dieran los sujetos a estas preguntas estuvieran relacionadas entre sí.
Los procedimientos para calcular la congruencia interna podemos dividirlos en dos métodos principales:
· Métodos basados en la división del instrumento en dos mitades: 1º. Se divide el instrumento en dos mitades. 2º. Se obtiene la puntuación para cada mitad en forma independiente. 3º. Se usan estos puntajes para estimar el coeficiente de correlaciónentre ambas mitades. Este coeficiente de correlación se ajusta mediante la fórmula de Spearman- Brown.
· Métodos basados en la covarianza de los ítems.
Si el instrumento es errático, inconsistente e impreciso difícilmente pueda medir con validez el atributo en cuestión. Esto no quiere decir que si un instrumento tiene alta confiabilidad, eso signifique que tenga que ser válido; un instrumento puede ser confiable y al mismo tiempo no ser válido. Pero a la baja confiabilidad, se la puede relacionar con problemas de validez y, justamente, si la aplicación de un instrumento es para operacionalizar un constructo, el que tenga baja confiabilidad debe servir como un alerta respecto de la validez del mismo y a la conveniencia de aplicar el instrumento para medir el correspondiente atributo.
Estabilidad: al analizarse la estabilidad de un instrumento contemplamos las variaciones que podían darse en las medidas y la consecuente disminución de la confiabilidad, debidas al paso del tiempo, y lo que se observa es en qué grado se obtienen las mismas medidas al aplicar dos veces el mismo instrumento, mediando entre ambas tomas un tiempo determinado. Entre ambas tomas pueden intervenir una serie de factores que sean fuentes de varianza de error, disminuyendo la confiabilidad de las medidas.
El procedimiento consiste en aplicar la misma prueba en dos momentos diferentes al mismo grupo de sujetos y luego, correlacionar entre sí, los puntajes obtenidos en cada toma. Esta correlación sirve para establecer la confiabilidad del instrumento.
Hay varias cuestiones que podrían afectar la confiabilidad en estos estudios test-retest:
· Modificaciones en la actitud de los sujetos respecto de la prueba o cambios en la información que éstos manejen podrían afectar los puntajes de la segunda toma del test, incidiendo sobre los valores de correlación, ya sea incrementando artificialmente la confiabilidad o infravalorándola.
· Puede haber efectos derivados de la primera aplicación del test que afecten el rendimiento en el segundo. Por. éj., que algunos sujetos recuerden las respuestas y al contestar el segundo test tiendan a poner las mismas respuestas, no tanto por que se correspondan con su perfil en el atributo que se mide, sino por contestarlo igual. También en tests que midan aptitudes o destrezas los sujetos pueden ver condicionado su rendimiento por la práctica previa.
· Un tema de fundamental importancia es el lapso que medie entre ambas tomas. Un lapso demasiado breve podría incrementar el efecto distorsivo de la memoria y la práctica. Si bien esto se solucionaría incrementando el tiempo, esto a su vez produciría otro problema, la aparición de variables relacionadas con la maduración y la historia:
· La maduración que, según define Arnau Gras (1982), “abarca el conjunto de procesos biológicos y psicológicos que se operan en los sujetos como consecuencia del paso del tiempo.” Suele ser mucho más relevante si los sujetos son niños, ya que en ellos se pueden esperar cambios pronunciados en lapsos de tiempo breve.
· La historia incluye todos aquellos eventos que pudieran tener lugar en el lapso que medie entre ambas aplicaciones y que podrían llegar a afectar el resultado de la segunda prueba. Esto se manifestaría menos en atributos estables como rasgos de personalidad, que en aquellos que describieran estados. 
Uno de los problemas de las técnicas para evaluar la confiabilidad mediante test-retest es que pueden llegar a confundir las fluctuaciones aleatorias con cambios que se producen realmente en el atributo. Los cambios que se podrían producir en el atributo, modificarían (en aquellos sujetos en que se produjeran), los puntajes en el instrumento que se estuviera evaluando, con la consecuente disminución de la confiabilidad. Pero en este caso la disminución de la confiabilidad sería ficticia, no se correspondería con errores aleatorios, sino con errores sistemáticos, los cuales no son de interés de la teoría de la fiabilidad. En este caso hablamos de errores sistemáticos desde el punto de vista de la confiabilidad, pero en otro sentido, representarían realmente varianza sistemática producida en la variable que evalúe el test.
Puede haber también otras fuentes de errores sistemáticos, que alteren los puntajes del test, sin modificar básicamente el atributo, como ser por éj., factores que modifiquen el contexto de la medida. 
Consideramos entonces, que los efectos no identificados derivados de la historia y que contribuyeran a la varianza de error, de producir un descenso en la correlación entre ambas tomas, constituirían un déficit real de confiabilidad del instrumento, que deberá ser contemplado, por ejemplo, cuando el instrumento se utilice para evaluar el transcurso de un tratamiento, como así también en otras aplicaciones del test. Por el contrario, las diferencias en las medidas, claramente atribuibles, a fuentes de variación sistemática, deberían ser controladas dentro de lo posible, para que no sean incluidas como déficit de confiabilidad.
Equivalencia: se aplica cuando se quiere determinar la confiabilidad de dos instrumentos que se consideran paralelos. Se trata de poder establecer la consistencia o equivalencia de los instrumentos, que suponen medir el mismo constructo, al aplicarlos a los mismos sujetos. En este caso se aplican las dos formas del test en forma simultánea, se va variando el orden de presentación de las formas de sujeto en sujeto (para controlar posibles efectos de orden) y luego se correlacionan los puntajes de ambas formas. De ser ambas formas equivalentes tendría que obtenerse un coeficiente de correlación elevado. En la práctica es muy difícil establecer que las formas sean realmente paralelas, por tal motivo suele tratárselas más bien como formas alternativas. A diferencia de las otras técnicas de confiabilidad, en ésta, no solo se establece la confiabilidad, respecto de la magnitud de los errores aleatorios, sino que también se establece cual es el grado de paralelismo que hay entre ambas formas.
A veces ambas formas no se aplican simultáneamente, sino que se deja transcurrir un tiempo entre ambas, de manera que la correlación que se obtendría serviría tanto para estimar la equivalencia como la estabilidad de las dos formas para medir el atributo.
Otra forma de equivalencia consiste en determinar la confiabilidad entre evaluadores u observadores. Esta forma de confiabilidad no se puede aplicar a cualquier instrumento, sino que es específica de aquellos instrumentos en los cuales dos o más evaluadores u observadores tienen que calificar o puntuar la conducta y/o el rendimiento como parte de la aplicación del instrumento.
Validez: los instrumentos tienen como propósito operacionalizar constructos, o sea, medir determinados atributos. La validez tiene que ver con poder determinar si el instrumento está midiendo realmente el atributo que dice medir. Tipos más importantes de validez:
· Validez de contenido: al construir un test elegimos determinados ítems de un conjunto de conductas que tienen un interés específico, por suponer que remiten al atributo a ser evaluado por el test. En el instrumento no colocamos todas las conductas posibles, elegimos algunas de ellas, o sea, que hacemos una muestra de conductas. Al analizar la validez de contenido, lo que hacemos es evaluar si los ítems que hemos usado para construir el test, son relevantes para el uso que se le va a dar al test, es decir, si todos los ítems están dentro del dominio de interés. Una vez establecida la relevancia, lo que importa es saber si los ítems constituyen una muestra representativa del universo de conductas que podrían haberse elegido como indicadores del atributo en cuestión. 
· Validez de criterio: se trata fundamentalmente de relacionar las puntuaciones del instrumento con otras variables a las que llamaremos criterio. Es útil especialmente cuando deseamos hacer inferencias a partir de los puntajes que se obtienen en el test respecto de alguna otra variable de interés. Dentro de la validez de criterio se habla de:
· Validezconcurrente: las puntuaciones del test se utilizan para predecir alguna medida del criterio que se va a realizar a futuro.
· Validez predictiva: relacionamos las puntuaciones del test con alguna medida del criterio tomada en el mismo momento.
La diferencia entre ambas formas de validez, no tiene que ver con si son predictivas o no sino más bien con el diseño que involucran en cuanto a su dimensión temporal.
· Validez de constructo: gran parte de las variables psicológicas, no son observables directamente, o sea, que constituyen constructos hipotéticos, que forman parte de las diversas teorías que tratan de explicar la conducta humana. Estas variables al no poder ser observadas directamente, para toda investigación, deben ser operacionalizadas, o sea, indicarse los procedimientos de medida para observar la variable, hacerla empírica. Los instrumentos psicométricos se refieren a constructos hipotéticos, siendo el instrumento una forma de operacionalizar los mismos. De esta manera la validez de constructo, consiste en tratar de probar que las conductas que registra el test, pueden ser consideradas indicadores válidos del constructo al cual refieren. Se trata de establecer que las puntuaciones del test constituyen en forma válida una de las manifestaciones del constructo. La validez de constructo, es el principal tipo de validez y a su vez, la más difícil de comprobar. Si queremos establecer que las conductas que registra el test, son indicadores válidos del constructo, tendremos que considerar que sólo podremos aproximar a ese objetivo. Hay distintos procedimientos para evaluarla:
· Análisis factorial: se utiliza cuando el test está dividido en factores y sirve para medir la validez de constructo, debido a que desde la teoría del instrumento se plantean los distintos factores como atributos diferenciados. Para comprobar la validez de constructo factorial se utiliza el análisis factorial. Esta técnica analiza las intercorrelaciones de un conjunto de datos, para establecer determinadas agrupaciones de ítems correlacionados entre sí, las cuales remiten a factores subyacentes, que no son observables, o sea que constituyen distintos constructos. Estos constructos forman parte de la teoría del test. Se utiliza no solo para evaluar la validez del instrumento, sino también en su construcción. Una vez construido el test y establecidos los correspondientes factores, la técnica puede aplicarse sobre los datos obtenidos a partir de una muestra de sujetos para establecer si la estructura factorial planteada, puede ser replicada, lo cual nos permitiría hablar de la validez factorial del instrumento. Hay que aclarar al respecto que, en general, las estructuras factoriales pueden tender a ser inestables y dependen mucho del tamaño de la muestra. El tamaño necesario depende en parte de la cantidad de ítems involucrados en el análisis y hay diferentes criterios para establecer el número de sujetos indicado. Uno de los criterios, es que el número de sujetos no sea menor a cinco veces la cantidad de ítems del instrumento.
· Diferenciación entre grupos: se aplica el instrumento a dos o más grupos, los cuales debieran diferir en el atributo que se mide, en razón de alguna característica que se usó para formar los grupos, y que se podría inferir a partir de la teoría del constructo que mide el instrumento, que dicha característica estaría relacionada con diferencias predecibles en el atributo.
· Correlaciones con otras medidas del constructo: cuando existe otro test ya validado que mide el mismo constructo, o varios tests, se puede correlacionar el nuevo con aquél, o con los varios tests ya existentes, para establecer su validez de constructo. Este procedimiento, depende de que exista, por lo menos un test, con un constructo idéntico o muy similar, al que se intenta validar.
· Matrices multimétodo-multirasgo: para poder aplicar esta técnica se precisa que existan como mínimo dos métodos diferentes para medir el constructo que se va a validar. También se necesitan otros constructos que puedan ser medidos por los mismos métodos. Se miden en los sujetos de la muestra los distintos constructos con métodos diferentes. Se calculan las correlaciones entre todas las medidas y se forma con ellas una matriz que contendría los siguientes datos:
· Coeficientes de fiabilidad: serían las correlaciones obtenidas entre medidas del mismo constructo con el mismo método. Se espera que sean elevados.
· Coeficientes de validez convergente: son las correlaciones entre las medidas del mismo constructo, obtenidas con métodos diferentes. Se espera que las correlaciones sean altas.
· Coeficientes de validez divergente: son las correlaciones de constructos diferentes medidos con igual método y las correlaciones de diferentes constructos medidos con distintos métodos. Se espera que sean mucho más bajas que las obtenidas en la validez convergente y en el cálculo de la confiabilidad.
TEMA 16: DISEÑO DE SUJETO UNICO
Si queremos información acerca de los factores que afectan la conducta de una persona en particular tenemos que usar el diseño de sujeto único. En este tipo de diseño la unidad de análisis es un individuo y no el grupo. Las repuestas no se comparan ni promedian con otro individuo, se compara con el mismo sujeto. Se usa en los programas de análisis conductual. Estos diseños ponen a prueba una hipótesis funcional, lo que se quiere ver es si una intervención modifica una conducta.
Las ventajas de estos diseños es que generan principios conductuales aplicables a un individuo particular, a veces esos principios pueden ser aplicables a un número de sujetos (principio general). Otra ventaja es la reducción de la confusion que generan las diferencias individuales de los sujetos. Igualmente se deben controlar todas las posibles VC (procedimiento, investigador, etc.). Además permite hacer estudios intensivos y controlados sobre un sujeto y determinar con detalle cómo responde ese individuo en particular a las intervenciones implementadas. Sin embargo hay que tener en cuenta que la capacidad de generalización de los resultados se ve sumamente limitada.
Por otra parte, requieren del diseño de una situación sumamente estructurada, con controles rigurosos, para poder establecer y analizar la influencia que ejercen los programas e intervenciones sobre la conducta en situaciones aplicadas.
Estos diseños pueden ser de 2 tipos: 
· Diseños de reversión o ABAB: se pone a prueba es si los cambios en la variable dependiente ocurren como consecuencia de la presentación y la retención de la variable independiente. Buscan confirmar el efecto de un tratamiento al demostrar que la conducta cambia sistemáticamente al alternar condiciones de tratamiento y no tratamiento. La variable independiente en estos diseños es la intervención. Se llama ABAB porque tienen 2 fases A y 2 fases B.
· Fase A: rendimiento de línea de base. En esta fase el investigador genera la línea de base, la cual es una medida confiable de la ocurrencia de la variable dependiente (conducta) como se da naturalmente, es decir, antes que el investigador haga su intervención. La medición de línea de base puede tomar un tiempo, generalmente se continua midiendo hasta que tengo una estimación confiable de los límites entre los cuales fluctúa la conducta. Ej. cuantos cigarrillos diarios fuma una persona que está tratando de fumar.
· Fase B: se introduce la VI. Produzco mi intervención, una conducta reforzada, un beneficio. Lo que se espera es que si realmente hay una relación funcional entre el tratamiento y la conducta, es que la conducta se modifique. Puede que encuentre el cambio deseado y decido introducir la segunda fase A.
· Fase A: reversión o de sondeo, se retira la VI, retiro el tratamiento, el reforzador. Sil efectivamente hay una relación entre el tratamiento y la conducta, al retirar la VI debería volver al nivel de línea de base. 
· Fase B: se reintroduce la VI. Si existe esta relación entre el tratamiento y la conducta, es que al ser la conducta reforzada, un beneficio, debería volver aver que la conducta se modifique.
Sus ventajas son que demuestra la relación funcional entre las variables y facilita la transferencia de programas continuos a intermitentes. Y sus desventajas son que la medición de línea de base lleva tiempo, el temor a que la conducta no regrese al nivel modificado (fase B) y además se cuestiona la ética de la reversión.
La finalidad es que en algún momento al retirar la VI ya no se regrese a la línea de base, la idea es que la persona se independice del tratamiento. Se llama pasar de un reforzador externo a un reforzador interno.
En las dos fases A lo que hay es ausencia de la VI, y en las dos fases B lo que hay es presencia de la VI.
· Línea de base múltiple: pueden ser de 3 tipos.
· A través de las conductas: se miden varias conductas de un mismo individuo hasta tener una línea de base de cada una. Luego se aplica la VI a una sola de estas conductas y se evalúa su efecto. Luego se aplica la VI a las otras conductas, una a la vez, evaluando su efecto.
· A través de los individuos: se recopilan líneas de base de la misma conducta con varios individuos, 1 conducta, varios individuos. Luego se aplica la VI a la conducta de una sola persona y se evalúa su efecto. Luego se aplica la VI a la conducta de los otros individuos, uno a la vez, evaluando su efecto.
· A través de las situaciones: se recopilan líneas de base de una conducta que aparece en distintas situaciones. Se aplica la VI a la conducta en una de las situaciones y se evalúa su efecto. Luego se aplica la VI a la conducta en las restantes situaciones, una a la vez, evaluando su efecto.
Se caracterizan por no presentar fase de reversión, una vez que se introduce la VI dentro del diseño no se quita, luego la persona que esté trabajando, va a tener que ingeniárselas para quitar el reforzador positivo para ver si la persona se logra independizar de eso, pero no está incluido en el diseño eso. También se utiliza con conductas que no se reviertan, como ansiedad, conductas evolutivas como lecto-escritrura.
TEMA 17: Muestreo
La intención que se persigue mediante este proceso de selección de muestra, es poder hacer inferencias hacia la población, a partir de lo detectado en la muestra. Para esto es necesario una serie de pasos que nos brinden la posibilidad de generalizar los resultados.
Población: La podemos definir como un conjunto de individuos o de objetos (unidades de análisis) que poseen una o varias características comunes. Ej. Total de pacientes con enfermedad renal crónica en tratamiento de hemodiálisis en CABA.
Muestra: Es un subconjunto de la población y se espera que sea representativa de la misma. La muestra se toma con el fin de estudiar las propiedades del conjunto del cual es obtenida. Ej. Una muestra (obtenida a través de una técnica de muestreo en particular) de pacientes con enfermedad renal crónica en tratamiento de hemodiálisis en CABA
Unidad de análisis: es cada uno de los elementos que constituyen la población estudiada. Por lo general en Psicología la unidad de análisis última son personas.
Estadísticos y Parámetros
Los estadísticos de resumen son aquellos que se obtienen a partir de la medición de una muestra. En cambio, si midiéramos a toda la población, esto se denomina parámetro, por ejemplo la media poblacional. Efectuar esto (medir todos los componentes de la población), en general, implica una imposibilidad práctica, entonces se trata de aproximar al valor del parámetro por medio del estadístico obtenido a partir de la muestra.
Si bien Estadístico y Parámetro pueden coincidir exactamente, esto es altamente improbable. Pero a partir del estadístico podemos obtener un rango de valores dentro del cual con cierto nivel de confianza debiera ubicarse el valor correspondiente al parámetro, este rango se llama intervalo de confianza. La mitad del intervalo de confianza constituye el margen de error de la estimación que se hace del parámetro a partir del estadístico. Entonces cada estadístico tiene un equivalente que describe a la población de la cual proviene la muestra que se lo denomina parámetro.
Muestra representativa: definimos a una muestra como representativa cuando la medida que arroja un estadístico es lo más cercana posible al parámetro correspondiente. De manera que en una muestra representativa, se encuentran presentes las distintas características de la población.
Finalmente, los objetivos del estudio ayudarán a definir la población y a partir de allí la muestra, para lo cual se elegirán dos métodos generales de muestreo: aleatorio (o probabilístico) y no aleatorio (o no probabilístico). Su elección también estará condicionada por la pretensión de exactitud, el tiempo y dinero disponible.
Muestreo aleatorio (probabilístico): estos son los que garantizan en mayor medida que la muestra sea representativa. Se utiliza el azar para la elección de los sujetos. En una muestra aleatoria cada elemento de la población tiene una probabilidad igual, o cuantificable, de ser seleccionado. Hay varios tipos de muestreos aleatorios o probabilísticos:
· Muestreo aleatorio simple: consiste en llevar a cabo una serie de pasos
· Se delimita la población.
· Se decide el tamaño de la muestra.
· Se asigna un código (por lo general un número si ya no lo tiene) a cada elemento de la población (unidad de análisis).
· Se escoge mediante alguna técnica de selección aleatoria (programa computadora que genere números al azar - tabla de números aleatorios).
Ejemplo: Pacientes con enfermedad renal crónica que requieren tratamiento de hemodiálisis en CABA que asisten al Centro de hemodiálisis Fresenius Medical Care. Se procederá a considerar todos los pacientes activos que efectúan dicho tratamiento en la mencionada entidad: este conjunto se constituye como la población. En función del tamaño de la población se considerará el tamaño de la muestra que resultará más adecuado. A cada paciente le corresponde un número de historia clínica, el cual se tomará como su código. Finalmente se utilizará alguno de los procedimientos citados para escoger a los pacientes aleatoriamente.
· Muestreo aleatorio sistemático: requiere que se decida un tamaño de muestra y efectuar el cociente entre la población y la muestra. Luego al azar se elige un número de inicio entre la población.
Ejemplo: Población 2500 pacientes con enfermedad renal crónica en tratamiento de hemodiálisis de CABA que asisten a Fresenius Medical Care. Muestra 100 pacientes. Entonces 2500 / 100 = 25
Número de inicio 70. La primera persona de la muestra es la 70, la siguiente será (70+25=95) la número 95, la siguiente (95+25=120) la número 120 y así sucesivamente hasta completar el total de la muestra, en este caso 100 pacientes. La persona 98 para la muestra será la 2495 de la población, si a ésta le sumamos 25, obtendremos 2520, un número superior al tamaño de la población. Entonces, debemos restarle a la cifra obtenida (2520), el total de la población (2500), entonces 2520-2500= 20, y elegiremos a la persona número 20. La siguiente será (20+25=45) la 45 , y así completaremos la cantidad estipulada de la muestra : 100 individuos.
· Muestreo Estratificado: requiere la división de la población en subgrupos o estratos mutuamente excluyentes. Presenta como ventaja que se garantizará que la muestra contenga representantes suficientes de cada estrato. Una vez que se han elegido los estratos puede aplicarse el muestreo aleatorio simple o el muestreo aleatorio sistemático, garantizando que la muestra esté constituida por el porcentaje de sujetos establecido para cada estrato. Ejemplo: podríamos dividir a la muestra por género. En este ejemplo el porcentaje de mujeres y hombres previamente establecido. Hay dos maneras de conducir el muestreo:
· Proporcionado: refleja las proporciones de la población. Ejemplo: 2500 pacientes renales de CABA que asisten a Centros de hemodiálisis FMC. 1500 hombres 1000 mujeres. Entonces la muestra presentará un 60% de hombres y un 40% de mujeres.
· Desproporcionado: no refleja las proporciones de la población. En este caso no se puedeextrapolar directamente a la misma, se requiere de un análisis más complejo. Ejemplo: la muestra podría presentar un 50% de hombres y un 50% de mujeres.
· Muestreo de Conglomerados: requiere un muestreo inicial con base en una unidad mayor que el elemento de la población. En algunas oportunidades, los elementos de la población, pueden estar muy dispersos geográficamente, entonces este tipo de recurso, permite que la muestra se aglomere en un número limitado de lugares. Puede hacerse de dos maneras:
· En una sola etapa: antes de llegar a la unidad de análisis, hay una sola etapa previa en la que se toma una unidad mayor. Ejemplo: si requiriera llevar a cabo la investigación con todos los pacientes de hemodiálisis del país, entonces, sería conveniente implementar este tipo de muestreo, tomando como base del mismo una unidad inicial mayor que cada elemento de la población (paciente de hemodiálisis). Se escogerían aleatoriamente un número determinado de servicios de hemodiálisis del país, supongamos que dicha empresa cuenta con 123 centros, de tal modo que se simplificaría el trabajo, puesto que en vez de extraer los pacientes de cada centro, solo se trabajaría con los provenientes de los centros escogidos aleatoriamente.
· En varias etapas: antes de llegar a la unidad de análisis, se pasa por más de una etapa previa, se toman en forma sucesiva varias unidades mayores que los elementos de la población. Ejemplo: 1° Considerando todas las provincias del país (que tienen Centros de hemodiálisis) se seleccionan aleatoriamente un número de ellas. 2° De las provincias seleccionadas, se seleccionan aleatoriamente alguna/s ciudades entre aquellas que tengan centros de hemodiálisis. 3° De los centros de hemodiálisis seleccionados se procederá a elegir al azar pacientes de cada uno de ellos.
Muestreo no aleatorio (no probabilístico): en este caso no todo elemento de la población tiene la misma probabilidad de ser parte de la muestra, y por lo tanto puede suceder que algún sector carezca sistemáticamente de representación adecuada. Tiende a generar muestras menos precisas y representativas. Pese a ello, la mayor parte de las investigaciones en nuestra disciplina, son no probabilísticas.
· Muestreo accidental/de oportunidad/de conveniencia: se seleccionan las personas que uno encuentra por casualidad. Ejemplo: se les pide participar de la muestra a pacientes de hemodiálisis que se encuentran efectuando el tratamiento en el horario en el que los investigadores asisten al lugar, siendo que hay distintos turnos a lo largo del día.	
· Muestreo por cuotas: es un muestreo de oportunidad, pero con cuotas establecidas para el numero de personas que habrán de incluirse en las submuestras determinadas a partir de alguna/s variable/s. Es el equivalente en los muestreos no aleatorios, al muestreo estratificado de los muestreos aleatorios. Y la cuota es el equivalente al estrato. El investigador establece “cuotas” para cada uno de los valores de la variable que interese que esté representada en la muestra. Al recolectar los datos cuando se ha cubierto una cuota se continúa únicamente con sujetos que apliquen para la otra cuota. Ejemplo: establecer cuotas para la variable sexo en la población de pacientes de hemodiálisis. Cuando se hubiera cubierto por ej. la cuota para mujeres, se tomarían únicamente hombres. Si las cuotas se establecen en varias dimensiones (tomando más de una variable), se lo denomina muestreo dimensional. Siguiendo el ejemplo anterior considerar no solo el sexo sino agregar otra dimensión por ej. turno de asistencia al tratamiento.
· Muestreo propositivo: se aplica cuando desea estudiarse una muestra definida claramente, y que cumpla con ciertas características en función de las necesidades de la investigación. Ejemplo: identificar pacientes en diálisis, que presentan distintas comorbilidades asociadas a la insuficiencia renal crónica, por ejemplo diabetes, hipertensión, lupus, etc. para explorar respuestas diferenciales a la terapéutica dialítica.
· Muestreo bola de nieve: se usan contactos iniciales para identificar a otras posibles personas que podrían integrar la muestra. Ejemplo: los investigadores se contactan con algunos pacientes en diálisis que su vez los ponen en contacto con otros pacientes en diálisis y estos pueden ponerlos a su vez con otros.
 
TEMA 18: Diseño factorial
Para analizar la interacción hay que seguir la siguiente secuencia de pasos:
1° Observar si el factor deja de tener efecto bajo algún nivel del otro factor. Para ello hay que tener en cuenta si todos los efectos simples son significativos o si alguno no lo es. Si queda un solo efecto simple significativo se deja el análisis ya que no habría contra qué comparar.
2° Observar cual es la dirección del efecto. Si la dirección del efecto es igual o diferente en cada efecto simple.
3° Observar el tamaño del efecto. Si el tamaño del efecto es igual o es diferente en cada efecto simple.
En un diseño factorial 2 x 2, que es el más sencillo de todos, la interacción puede darse únicamente de cuatro formas diferentes:
· El factor deja de tener efecto bajo algún nivel del otro factor.
· Cambia la dirección del efecto.
· Cambia el tamaño del efecto.
· Cambian la dirección del efecto y el tamaño del efecto.
Completar esta info con la fotocopia
TEMA 19: Observación sistemática
No hay investigación donde no se mida algo, siempre se mide algo. La investigación cuantitativa se basa en datos empíricos. La calidad de esas mediciones es fundamental a la validez de los conocimientos que generamos porque si nuestras mediciones están mal hechas nuestras conclusiones y resultados están distorsionados por una decisión que no es correcta y llegamos a conclusiones erróneas.
Para eso sirve la psicometría, que nos ayudan a medir los constructos. Se encarga de desarrollar los instrumentos y de hacer los estudios de validez y confiabilidad. Nuestros instrumentos tienen que ser objetivos, validos y confiables. Objetivos implica que las mediciones no estén distorsionadas por sentimientos, interpretaciones del observador que lleva adelante la medición. Validos implica que mida lo que dice que está midiendo. Confiable implica que mida con precisión y consistencia, indistintamente de quien esté utilizando el aparato de medición. 
Hasta acá siempre pensamos instrumentos que midan cuestiones fisiológicas, instrumentos psicométricos. Pero a veces el investigador va a querer medir directamente lo que está observando, una medición conductual, que implica la observación directa de cualquier cosa, esto se llama observación sistemática. Esta observación me permite una medición de esa conducta o constructo que quiero observar, por eso me tiene que servir para poder cuantificar ese suceso o conducta.
Observación no sistemática: permite describir los comportamientos. Ej en una escuela una maestra dice que Pedro se porta mal, voy y veo que es lo que hace. A partir de esta primera aproximación puedo entender que es lo que me dice la maestra con que se porta mal, porque cómo mido eso, hay que ver qué implica que se porte mal.
Observación sistemática: me permita cuantificar esta conducta de “se porta mal”. Lo primero es definir con exactitud esa conducta que voy a medir. Por ej. cantidad de veces que se levanta de la silla, tiempo que se pasa revolviendo la mochila, cantidad de bolitas de papel que arroja a sus compañeros. Lo que quiero generar son mediciones confiables. Se operacionalizan los constructos hipotéticos mediante categorías bien definidas de comportamientos a observar y se acuerda el tiempo durante el cual se realizara la observación y cómo voy a realizar el registro de la misma.
Cuando realizamos la observación, las conductas tienen distintas características. Hay conductas que llamamos permanentes y conductas transitorias. Las conductas permanentes son aquellas que dejan evidencia física, por ej. cantidad de preguntas respondidas correctamente en una evaluación, después puedo contabilizar. Muchas de las conductas no son permanentes, se pasan rápido, las conductastransitorias son aquellas que no arrojan evidencia física, estas son más complicadas de medir porque lo tengo que hacer en el momento, a menos que lo filme o grabe. Estas conductas transitorias se dividen en dos tipos las conductas discretas que son conductas que tienen un principio y un fin bien claramente delimitado ej. Pedrito se levanto de su silla, camino y se volvió a sentar. También pueden ser conductas no discretas, que son aquellas donde no es tan claro establecer cuando empiezan y cuando terminan. 
Técnicas de registro de la conducta
· Registro de producto permanente: conductas permanentes, registrar a partir del material que tenemos, contabilizamos.
· Registro de duración: conductas transitorias discretas, registra el lapso de tiempo en el que ocurre una conducta. Ej. María llego a casa las 16 y se puso a hacer la tarea a las 17, entonces el tiempo desde que llega hasta que se pone a hacerla es de 1 hora.
· Registro de sucesos: conductas transitorias discretas, cuento cuantas veces ocurre la conducta dentro de un intervalo especifico. Ej. Pedrito se levanto 4 veces durante la hora de clase.
· Registro de muestreo temporal de intervalo: conductas transitorias no discretas, registro presencia o ausencia de la conducta dentro de un cuadro temporal breve. Entonces ya no cuento cuantas veces sucede sino si estuvo o no presente dentro de los cuadros temporales, por breve nos referimos a 10 o 15 segundos. Por ej. sirve para tics nerviosos. 
· Registro temporal de intervalo completo: se registra la conducta como presente si sucedió durante todo el intervalo. Ej. Pedrito estuvo sentado quieto en la silla durante todo el intervalo. Sirve para conductas que pueden permanencer en el tiempo, no para un tic por ejemplo. Tiende a subestimar la ocurrencia de la conducta.
· Registro temporal de intervalo parcial: si aparece la conducta en cualquier momento del intervalo, se registra como presente, incluso si aparece un milisegundo. Es particularmente útil para conductas de muy breve duración. Tiende a sobrestimar la ocurrencia de la conducta.
· Registro temporal momentáneo: se registra la conducta cuando ocurre en el momento que se termina el intervalo (cuando suena la chicharra). Sirve para conductas que tengan una determinada duración.
Numero de acuerdos de los observadores
Numero de acuerdo de los observadores + numero de desacuerdos de los observadores
X 100
Cualquier indicie de confiabilidad superior al 80% es suficiente.
Chequear este tema con la fotocopia
12

Continuar navegando