Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
1 Unidad Académica UCES Virtual Asignatura: Metodología de la Investigación Social Unidad Temática Nº 4: Procedimientos para el análisis de datos CICLOS DE COMPLEMENTACIÓN CURRICULAR Recursos Humanos Marketing Comercio Exterior Administración de Empresas 2 Índice 1. Introducción 2. Contenidos: Procedimientos para el análisis de datos 2.1 Enfoque cuantitativo 2.1.1. Media 2.1.2. Medidas de dispersión 2.1.3. Métodos de análisis estadísticos 2.2 Enfoque cualitativo 3. Conclusiones 4. Referencias bibliográficas 1-Introducción En esta unidad desarrollaremos el tercer paso de la investigación. Una vez transitado los dos momentos iniciales, el planteo del problema y la recolección de datos, llegamos al tercer momento: el análisis de los datos. Este análisis debe articularse con los enfoques cuantitativo y cualitativo de la investigación social. En el enfoque cuantitativo obtendremos datos numéricos o estadísticos, objetivos, obtenidos de una muestra estadística y cuyos datos forman parte de un corpus numérico correspondiente a determinada muestra representativa de determinada población. El investigador mediante el uso de un programa estadístico analizará los resultados buscando la relación entre variables y respondiendo al alcance de su investigación. Así probablemente prediga un fenómeno o explique los motivos de la generación del mismo. El investigador obtendrá un resultado estadístico y realizará un análisis y conclusión final. En muchas ocasiones, esta investigación puede generar una nueva línea de investigación. Por otro lado, bajo el enfoque cualitativo el investigador se sumerge en la interpretación de los datos desde el momento que sale al territorio. Aquí la información que se obtiene no es numérica, lo que se busca es entender el fenómeno desde la vivencia que expresan las unidades muestrales. El investigador apela a su subjetividad para analizar, comprender, repreguntar. 2 3 El análisis es circular, se busca patrones y emergentes que describan vivencias, percepciones, subjetividades, representaciones, etc. El investigador se involucra con esos datos y debe apelar a los objetivos de la investigación para considerar esa circularidad. En el presente material, abordaremos esquemáticamente la diferencia metodológica que requiere el análisis de acuerdo al origen de los datos y al alcance de la investigación. El material bibliográfico es exhaustivo con respecto al desarrollo de ambos enfoques. 2- Contenidos Procedimientos para el análisis de datos 2.1 Enfoque cuantitativo Una vez recolectados los datos mediante algunas de las técnicas mencionadas en la Unidad 3, y antes de someterlos al análisis, suele ser útil llevar a cabo algunas operaciones y descomposiciones preliminares. En este sentido, quienes estemos realizando la investigación deberíamos: - apartar los datos que son erróneos o irrelevantes. Esto debe realizarse con precaución, datos incompletos, o aquellos que no respondan a las características de exclusividad y exhaustividad requeridos en este enfoque. No debiéramos borrar datos que a priori parecieran “anómalos” y no se ajusten a nuestras hipótesis, ya que pueden servir para demostrar sus defectos. - normalizar o reducir nuestros datos significa que eliminamos la influencia de algún factor bien conocido pero sin interés. Por ejemplo, podemos eliminar el efecto de la inflación dividiendo todos los precios por el índice de precios de la fecha de la compra. En el análisis propiamente dicho de los datos, el propósito es extraer una estructura objetiva. Desde el inicio del proyecto, el investigador tiene 4 preseleccionado un modelo matemático que aplicará a los datos. Este modelo también proporciona las hipótesis eventuales para el proyecto de investigación, o al menos actúa como una hipótesis de trabajo inicialmente no exacta, que se puntualizará durante el análisis. Los datos empíricos pueden analizarse del modo siguiente: primero, el investigador dispone los datos de acuerdo con el modelo matemático, y después considera en qué grado el marco es adecuado a los datos, o si ha de buscarse un modelo que se adapte mejor. De este modo, el investigador suele primero decidir qué tipo de patrón es el que está buscando en los datos. Esto determinará los métodos para un análisis matemático. Así, la primera cuestión a la hora de elegir el método de análisis es: ¿Queremos usar las variables medidas para clasificar casos o individuos? ¿O deseamos analizar variables inconexas, o bien las relaciones entre diversas variables? Recolectados los datos, el investigador necesitará plasmarlos en el instrumento de recolección (probablemente cuestionarios) y en un programa estadístico diseñado por él mismo o alguno de los más utilizados como el SPSS o el S-Plus. De ninguna manera el investigador pasará esos datos (decodificación) a una tabla manual, ya que por un lado, no es económico en tiempo, y por otro lado, el riesgo de error humano es muy alto. Además, los programas estadísticos a partir de la expresión del investigador, arrojan las medidas y estadísticos de manera automática (como veremos más adelante, el chi cuadrado, r de Pearson, la dispersión, el modo, la mediana, etc.). El programa seleccionado es el aliado del investigador, a partir del procesamiento de estos datos, comenzará a analizar sus variables y la correlación entre los datos obtenidos y su planteo en el problema de investigación. A continuación nombraremos las medidas estadísticas más representativas y frecuentes en el análisis de datos cuantitativos, y que se tenga en cuenta que lo que se busca es una introducción. El desarrollo de cada uno de ellos, su aplicación, articulación y explicación que forma parte del corpus bibliográfico obligatorio de esta materia. Hecha esta salvedad, comenzaremos a enumerar estos métodos de análisis estadísticos. Si pensamos en el análisis de las variables individuales lo que buscamos es el análisis estadístico de una sola variable. El cuadro siguiente expresa los métodos de acuerdo con la escala de medición de la variable en cuestión, que luego desarrollarán a través de la bibliografía de la unidad. http://www2.uiah.fi/projects/metodi/25b.htm http://www2.uiah.fi/projects/metodi/277.htm#hypo http://www2.uiah.fi/projects/metodi/277.htm#tasment http://www2.uiah.fi/projects/metodi/273.htm http://www2.uiah.fi/projects/metodi/280.htm#1muut http://www2.uiah.fi/projects/metodi/280.htm#2muut http://www2.uiah.fi/projects/metodi/254.htm#aste 4 5 2.1.1. Medias Una media es una estadística que caracteriza el valor típico de nuestros datos y elimina la dispersión aleatoria de valores. Para cada una de las distintas escalas de medición hay un tipo adecuado de media: la moda (o modo), la mediana y la media (aritmética). - La moda es el valor que tiene mayor frecuencia absoluta y se representa como Mo. Por ejemplo; si tenemos la siguiente distribución de datos 2, 3, 3, 3, 4, 4, 5, 5 Mo= 3 Pueden presentar otras posibles situaciones donde se estima la moda a partir de otras operaciones; por ejemplo; si en un grupo hay dos o varias puntuaciones con la misma frecuencia y esa frecuencia es la máxima, la distribución es bimodal o multimodal, es decir, tiene varias modas: 1, 1, 1, 4, 4, 5, 5, 5, 7, 8, 9, 9, 9Mo= 1, 5, 9. Cuando todas las puntuaciones de un grupo tienen la misma frecuencia, no hay moda: 2, 2, 3, 3, 6, 6, 9, 9. - La mediana es el valor que ocupa el lugar central de todos los datos cuando éstos están ordenados de menor a mayor y se representa por Me. La mediana se puede hallar sólo para variables cuantitativas. - La media aritmética es el valor obtenido al sumar todos los datos y dividir el resultado entre el número total de datos. En la bibliografía seleccionada para la unidad encontrarán estos desarrollos. 2.1.2. Medidas de dispersión Ahora bien, una vez que hemos calculado el valor medio, puede ser a veces interesante describir a qué distanciaen torno a la media están diseminados los valores particulares. Para este fin, podemos elegir entre diversas estadísticas. La elección depende del tipo de media que hayamos usado: En conexión con la moda la dispersión de valores raramente es interesante. En lugar de ello, si hemos calculado una mediana, muchas veces querremos señalar la dispersión de valores en torno a ella. Una forma adecuada para esto es la desviación de cuartiles. Un “cuartil más alto” es aquel valor que es sobrepasado por el 25% del conjunto de todas las mediciones; del mismo, modo el 25% de todos los valores son más bajos que el “cuartil bajo”. La desviación media de los cuartiles a partir de la mediana es llamada desviación de cuartiles y es calculada con facilidad dividiendo por la mitad la diferencia de Escala nominal Escala ordinal Escala de intervalo Escala de pro- porción Métodos de presentación de datos Tabulación, presentación gráfica Medias La Moda La Mediana Media aritmética Medidas de dispersión Desviación cuartil El rango Desviación estándar http://www2.uiah.fi/projects/metodi/280.htm#keskil http://www2.uiah.fi/projects/metodi/280.htm#keskil 6 los cuartiles. Una estadística alternativa y muy simple es el rango que es la diferencia entre el mayor y el menor valor. En conexión con la media aritmética muchas veces queremos calcular la desviación estándar dentro de determinada población. La raíz cuadrada de la desviación estándar se llama varianza, y también ésta es usada con frecuencia para describir y analizar la dispersión. 2.1.2. Medidas de dispersión La presentación grafica de una variable y su distribución de valores significa mostrar cada valor como un punto en una escala. Si hay un gran número de valores, puede ser mejor clasificarlos primero y entonces presentar la frecuencia de cada clase como un histograma. Si nuestros estudios tienen que ver con personas, ocurrirá con bastante frecuencia que nuestras mediciones estarán distribuidas de acuerdo con cierta curva, la llamada curva de Gauss es la que expresa la distribución normal. La curva normal es simétrica, lo que expresa que la media, mediana y modo tienen el mismo valor. Si lo que queremos es poner énfasis no en la distribución absoluta, sino en la proporcional o de porcentaje, el diagrama apropiado para esto es el gráfico de sectores, también llamado grafico ´´torta´´. http://www2.uiah.fi/projects/metodi/280.htm#keskil 6 7 Por otro lado, si lo que deseamos según lo formulado en nuestro planteo del problema de investigación es analizar las relaciones entre variables, podríamos ver si dos variables evolucionan de modo tal que existe una asociación o covarianza estadística entre ellas. Por ejemplo, la altura y peso de las personas están estadísticamente asociadas: aunque el peso de nadie esté causado por su altura ni la altura por el peso, no obstante, es habitual que las personas altas pesen más que las personas bajas. Los datos habitualmente incluyen también excepciones, lo que significa que una asociación estadística es inherentemente estocástica. Un proceso estocástico en la teoría de la probabilidad, es un concepto matemático que sirve para caracterizar una sucesión de variables aleatorias (estocásticas) que evolucionan en función de otra variable. Cada una de las variables aleatorias del proceso tiene su propia función de distribución de probabilidad y, entre ellas, pueden estar correlacionadas o no. La estadística ofrece numerosos métodos para mostrar y presentar las asociaciones entre dos y hasta más variables. Los medios más utilizados son los medios de presentación gráfica y tabulación. La intensidad de la asociación entre variables puede también describirse como una estadística especial, como el coeficiente de contingencia y una correlación, esto hay varios métodos de análisis disponibles. Si, al analizar los datos, descubrimos alguna asociación entre las variables, buscaremos la explicación a esa asociación. Así, podemos designar una variable independiente que presumiría la causa y una variable dependiente que generaría el efecto del fenómeno. De esta manera estaríamos analizando estadísticamente una relación y una explicación causal; o sea la existencia (o no) de una correlación entre las variables. Una fuerte correlación entre A y B, puede deberse a cuatro razones alternativas: A es la causa de B / B es la c Tanto A como B son causadas por C. / A y B no tienen nada que ver con uno al otro. Su asociación en los datos analizados está una coincidencia / B es la causa de A. Meta de análisis Escala nomi- nal Escala ordinal Escala inter- valo Escala de proporción Presentar datos y su estructura a grandes rasgos Tabulación - gráficos Encontrar qué variables en- tre varios son asociadas Coeficiente de contingencia Correlación ordinal Correlación r de Pearson Transcribir una asocia- ción esta- dística en una función matemática Calcular contingencias o correlaciones para todos los pares de variables ; análisis factorial Análisis de regresión El investigador debe encontrar la causalidad o la otra explicación para la asociación de las variables. Muchas veces, en la teoría original del investigador puede estar explicitada la explicación. http://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_probabilidad http://es.wikipedia.org/wiki/Variable_aleatoria http://es.wikipedia.org/wiki/Estoc%C3%A1stico http://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_probabilidad http://es.wikipedia.org/wiki/Correlaci%C3%B3n 8 2.1.3. Métodos de análisis estadístico A continuación veremos algunos métodos usuales de análisis estadístico que pueden usarse al estudiar la interdependencia entre una o más variables. Los métodos han sido dispuestos siguiendo a qué escala de medición corresponden la mayor parte de las variables. Presentación de datos La tabulación es una forma habitual de presentar las asociaciones entre dos o más variables. Una tabla tiene la ventaja de que se puede disponer de una cantidad extensa de datos y se conservan las cifras exactas. Una desventaja es que una tabla grande no es ilustrativa: raras veces revela algo más que las más obvias regularidades o interdependencias entre datos. Con frecuencia sólo interesan los valores numéricos de las mediciones. Si se considera así, lo primero que debiéramos plantearnos al elegir el tipo de gráficos es conocer qué estructura tienen los datos que queremos mostrar. Por ejemplo: si nuestros datos consisten en unas pocas mediciones, es posible mostrarlos todos como un diagrama de dispersión. Podemos exhibir los valores de dos variables sobre los ejes de abscisas y ordenadas, y adicionalmente unas cuantas variables más utilizando los colores o formas de los puntos. Diagrama de dispersión (de los datos de las variables) El histograma puede adaptarse para presentar hasta cuatro o cinco variables, además de utilizarse en el análisis univariado como hemos visto anteriormente. Podemos hacer esto variando las anchuras de las columnas, sus colores, sus tramados y por una representación tridimensional. Los patrones que rellenan o marcan las columnas del histograma pueden ser elegidos para que simbolicen una de las variables. El investigador suele estar interesado en las relaciones de dos o más variables antes que en las parejas de mediciones tomadas separadamente. La curva es la forma normal de presentar dos o más variables interdependientes. Esto implica una variable continua (es decir, el número de posibles valores es infinito). 8 9 Medición de asociación entre variables Hemos introducido anteriormente el concepto de covarianza estadística, que implica el vínculo entre dos variables y suele ser expresado en una tabla o una presentación gráfica, pero también hay disponibles estadísticas especiales para indicar su intensidad. Los medios disponibles para el análisis de los vínculos entre las variables dependen del tipo de escala: - Cociente decontingencia puede aplicarse a todo tipo de variables incluyendo aquellas que se han medido solo con una escala de clasificación (una estadística alternativa es Chi cuadrado) - Correlación ordinal es adecuada cuando al menos una de las variables se han medido con una escala ordinal, la otra variable puede ser ordinal o aritmética. - Para variables sobre escalas aritméticas, el método usual es la correlación estándar, mejor dicho la correlación del momento- producto o correlación de Pearson (r de Pearson) Las fórmulas para calcular las estadísticas de contingencia pueden encontrarse en número bibliografía, como así también se ha detallado programas que suelen utilizarse. La correlación suele abreviarse con la letra r. Si el coeficiente de correlación es bajo, por ejemplo algo entre -0.3 y +0.3, las dos variables no tienen mucho que ver entre sí (más exactamente, no tienen casi ninguna covariación lineal). Si es alto su valor se aproxima ya sea a +1 o a -1. El análisis de correlación es capaz de manejar solamente dos variables, puede utilizarse para el análisis inicial de un gran número de variables, cuando no tenemos una idea clara de las relaciones entre ellas. Una vez que tenemos las variables con correlación o contingencia fuerte, podremos realizar las siguientes operaciones: - Considerar, cuál variable del par es independiente (es decir la razón) y cuál es el dependiente (la consecuencia), y si la relación puede implicar más variables. - Descubrir el patrón exacto de la relación. Los métodos posibles para esto incluyen los análisis de serie temporal y de regresión. Si la correlación se calcula a partir de una muestra, debemos probar su representatividad estadística (ello se realiza con la denominada prueba t). En el análisis de regresión, el investigador suele tener razones teóricas y prácticas para creer que determinada variable es causalmente dependiente de una o más variables distintas. Si hay ydatos empíricos sobre estas variables, el análisis de regresión clásico o “multivariante” es un método apropiado para desvelar el patrón exacto de esta asociación. El análisis de regresión encuentra la ecuación lineal que se desvía lo menos posible de las observaciones empíricas. Si tenemos amplios datos con muchas variables, al principio del análisis no estaremos seguros de qué variables están mutuamente conectadas, y cuales debieran ser incluidas en la ecuación. Podríamos primero estudiar esto http://www2.uiah.fi/projects/metodi/280.htm#2taul http://www2.uiah.fi/projects/metodi/254.htm#aste http://www2.uiah.fi/projects/metodi/288.htm#chi http://www2.uiah.fi/projects/metodi/274.htm#aikasarj http://www2.uiah.fi/projects/metodi/280.htm#regr http://www2.uiah.fi/projects/metodi/252.htm#otanta http://www2.uiah.fi/projects/metodi/288.htm#merkitsevyys http://www2.uiah.fi/projects/metodi/288.htm#ttesti http://www2.uiah.fi/projects/metodi/250.htm#kausal 10 con una matriz de correlación correlación, o dejar al programa de análisis de regresión elegir las variables “correctas” (x1, x2 etc.) para la ecuación. “Correctas” son aquellas variables que mejoran la exactitud del ajuste entre la ecuación y los valores empíricos. Todas las preguntas de un cuestionario se pueden considerar como variables, las respuestas de cada pregunta, representan valores. Generalmente la mayor parte de las preguntas conciernen más o menos el mismo tema, y es por lo tanto, normal que algunas de estas variables resultan tener una alta correlación mutua. El investigador puede desear descubrir si hay “variables de fondo” o los factores latentes que combinan algunas variables originales. Si se podría encontrar estas variables de fondo, los datos contenidos en los cuestionarios serían comprimidos y llegarían a ser más fáciles de comprender. El análisis factorial es el método normal para encontrar estas variables latentes. Con la ayuda de un análisis factorial, las variables de combinación o factores latentes tras los atributos medidos pueden detectarse y especificarse, y el análisis también dice lo estrechamente que estos factores están vinculados con las variables originalmente verificadas. 2.2 Enfoque cualitativo Una de las características particulares de la investigación cualitativa es la paradoja aunque muchas veces se tomen como unidades muestrales a pocas personas, la cantidad de información obtenida es enorme. Como hemos visto en las unidades anteriores, existen multiplicidad de fuentes y formatos de datos; información que proviene de observaciones estructuradas o no estructuradas, de entrevistas, ya sean abiertas, estructuradas o etnográficas, y también de medidas menos intrusivas, como documentos cotidianos o iales, registros o diarios. En algunos estudios puede haber información proveniente de cuestionarios y encuestas, películas y vídeos. La mayor parte de las investigaciones generan una buena cantidad de hojas escritas, transcripciones de entrevistas, de grupos de discusión, de observaciones y de otros tipos de fuentes. Una característica de la investigación cualitativa es que se trabaja principalmente con palabras y no con números, y las palabras ocupan más espacio que los números. http://www2.uiah.fi/projects/metodi/280.htm#korr http://www2.uiah.fi/projects/metodi/280.htm#korr 10 11 La información crece geométricamente, en las primeras fases del estudio todo parecerá importante. En este sentido, la recolección de datos es inevitablemente un proceso selectivo, no podemos ni logramos abarcar todo, aunque pensEs importante resaltar, que las investigaciones cualitativas requieren mucho tiempo y recursos. Por ejemplo, se estima que se necesita de dos a cinco veces más tiempo para procesar y ordenar los datos, que el tiempo necesario para recolectarlos. Además, el análisis de la información recolectada es un proceso que también requiere tiempo, incluso decimos que el análisis es circular porque desde que salimos al campo estamos analizando lo que observamos. Cuando se habla de datos cualitativos generalmente se habla de textos: periódicos, películas, comedias, historias de vida; y también de narrativas. En este sentido, es posible distinguir entre la tradición lingüística, que trata al texto como un objeto de análisis en sí mismo, y la tradición sociológica, que trata al texto como una ventana a la experiencia humana. La tradición lingüística incluye el análisis narrativo, el análisis conversacional (o del discurso), el análisis de ejecución y el análisis lingüístico formal. Por su parte, la tradición sociológica incluye dos tipos de textos escritos: (a) las palabras o frases generadas por medio de técnicas de selección sistemática y textos libres, como las narrativas, los discursos y las respuestas a entrevistas no estructuradas o semi-estructuradas. Hay varios métodos para recolectar y analizar palabras o frases. Las técnicas de recolección de datos incluyen listas libres, clasificación en pilas, comparaciones pareadas, pruebas con tríadas y tareas de substitución de estructuras. Las técnicas de análisis de estos tipos de datos incluyen el análisis componencial, las taxonomías y los mapas mentales. El análisis de textos libres incluye, por un lado, métodos para analizar textos “crudos”, como el método de palabras claves en contexto, el conteo de palabras, el análisis de redes semánticas y los mapas cognitivos, y por el otro, métodos que requieren la reducción del texto en códigos. Estos últimos incluyen la teoría fundamentada, el análisis de esquemas, el análisis de contenido clásico, los diccionarios de contenido, la inducción analítica y los modelos de decisión etnográficos. El investigador buscará aquellos datos que respondan a su planteo como problema de investigación y hará hincapié en aquellos datos que se denominan ´´emergentes´´. Estos datos son significativos per se, novedosos para el investigador y soncorrespondientes a la subjetividad de la muestra. Es importante remarcar que el enfoque cualitativo también cuenta con programas computarizados de análisis de datos como el Atlas Ti, el cual analiza conceptos claves. Pasos para el análisis de datos cualitativos. 12 El análisis de datos cualitativos es como hemos dicho circular, flexible y desestructurado: mientras se recolectan los datos, se releen y se analizan se descubren temas y conceptos. A medida que se avanza en el análisis, esos temas y conceptos se tejen en una explicación más amplia de importancia teórica y práctica, que luego guía el reporte final. Si el análisis final es sistemático, seguirá una secuencia y un orden. Este proceso puede resumirse en los siguientes pasos o fases: 1. Obtener la información: a través del registro sistemático de notas de campo, de la obtención de documentos de diversa índole, y de la realización de entrevistas, observaciones o grupos de discusión. 2. Capturar, transcribir y ordenar la información: la captura de la información se hace a través de diversos medios. Específicamente, en el caso de entrevistas y grupos de discusión, a través de un registro electrónico. Toda la información obtenida, sin importar el medio utilizado para capturarla y registrarla, debe ser transcrita en un formato que sea perfectamente legible. 3. Codificar la información: codificar es el proceso mediante el cual se agrupa la información obtenida en categorías que concentran las ideas, conceptos o temas similares descubiertos por el investigador, o los pasos o fases dentro de un proceso. Los códigos son etiquetas que permiten asignar unidades de significado a la información descriptiva o inferencial compilada durante una investigación. En otras palabras, son recursos mnemónicos utilizados para identificar o marcar los temas específicos en un texto. 4. Integrar la información: relacionar las categorías obtenidas en el paso anterior, entre sí y con los fundamentos teóricos de la investigación. El proceso de codificación fragmenta las transcripciones en categorías separadas por temas, conceptos, eventos o estados. La codificación obliga al investigador a ver cada detalle, cada cita textual, para determinar el aporte que hace al análisis. Una vez que se han encontrado esos conceptos y temas individuales, se deben relacionar entre sí para poder elaborar una explicación integrada. 12 13 Al pensar en los datos se sigue un proceso en dos fases: • Primero, el material se analiza, examina y compara dentro de cada categoría. • Luego, el material se compara entre las diferentes categorías, buscando los vínculos que puedan existir entre ellas. Una vez que la información ha sido recolectada, transcrita y ordenada, la primera tarea consiste en intentar darle sentido. Aquí el investigador deberá simplificar y encontrarle sentido a toda la complejidad contenida en las notas de campo y las transcripciones textuales. El proceso de codificación es complejo y es desarrollado extensamente en el material bibliográfico correspondiente a esta unidad. Una vez realizado el proceso de codificación, el investigador comenzara a delinear el análisis de los mismos. Es relevante recordar que los objetivos de nuestro estudio serán el hilo conductor de toda la investigación, y en este caso, de lo que busquemos responder con la conclusión final. El investigador cualitativo interpreta esos datos, busca interrelaciones, realiza analogías y busca patrones que le permitan construir teoría. Recordemos que una de las características de la investigación bajo el enfoque cualitativo tiene que ver con la flexibilidad de la muestra, y el investigador podrá volver al campo si considera que alguno de los emergentes surgidos debe conocerse con mayor profundidad. Los emergentes son claves en el análisis de los datos cualitativos. Los invito a ver y analizar el siguiente video: https://www.youtube.com/watch?v=_7tXEXwPGJY 4-Conclusiones Como indicamos al iniciar esta unidad temática, analizar los datos denota que la investigación comienza a dar sus frutos y nos encontramos próximos a obtener el producto final en la metáfora del embudo. Es importante en el inicio del estudio que el investigador tenga en claro que tipo de datos busca, o sea cual será el propósito de la investigación. Los datos cuantitativos responderán al planteo del problema de investigación https://www.youtube.com/watch?v=_7tXEXwPGJY https://www.youtube.com/watch?v=_7tXEXwPGJY 14 y la clave estará en la correlación de esta, con lo recolectado en el campo. Si esta relación fue diseñada correctamente, los datos responderán al planteo. El investigador obtendrá los resultados a partir del uso de un programa estadístico lo que le permitirá refutar o aceptar su hipótesis. Se recomienda que el enfoque cualitativo este guiado por un investigador experimentado debido a la complejidad del diseño, recolección de datos, análisis e interpretación. Cuando nos encontramos en esta etapa, el investigador tiene la sensación de que el arduo trabajo transitado está dando sus frutos y que aquella primera etapa confusa y abstracta fue necesaria depurarla para lograr un resultado satisfactorio. 5-Referencias bibliográficas - Hernández Sampieri, R, Fernández Collado, C. y Baptista Lucio, P. (2010). Metodología de la investigación. (5° edición. Capítulo 10, 14) México DF: Mc Graw-Hill Interamericana Editores. - Mayan, M. (2001). Una introducción a los métodos cualitativos: módulo de entrenamiento para estudiantes y profesionales. (Capítulo 6) México DF: Universidad Autónoma Metropolitana- Iztapalapa. Recuperado de http: http://www.ualberta.ca/~iiqm//pdfs/ introduccion.pdf
Compartir