Logo Studenta

Unidad 4

¡Este material tiene más páginas!

Vista previa del material en texto

1
Unidad Académica UCES Virtual
Asignatura: Metodología de la 
Investigación Social
Unidad Temática Nº 4:
Procedimientos para el análisis de 
datos
CICLOS DE COMPLEMENTACIÓN CURRICULAR
Recursos Humanos
Marketing
Comercio Exterior
Administración de Empresas
2
Índice 
1. Introducción
2. Contenidos: Procedimientos para el análisis de datos
2.1 Enfoque cuantitativo
2.1.1. Media
2.1.2. Medidas de dispersión
2.1.3. Métodos de análisis estadísticos
2.2 Enfoque cualitativo
3. Conclusiones
4. Referencias bibliográficas
1-Introducción 
En esta unidad desarrollaremos el tercer paso de la investigación. Una 
vez transitado los dos momentos iniciales, el planteo del problema y la 
recolección de datos, llegamos al tercer momento: el análisis de los datos. 
Este análisis debe articularse con los enfoques cuantitativo y cualitativo de 
la investigación social.
En el enfoque cuantitativo obtendremos datos numéricos o estadísticos, 
objetivos, obtenidos de una muestra estadística y cuyos datos forman 
parte de un corpus numérico correspondiente a determinada muestra 
representativa de determinada población. El investigador mediante el uso de 
un programa estadístico analizará los resultados buscando la relación entre 
variables y respondiendo al alcance de su investigación. Así probablemente 
prediga un fenómeno o explique los motivos de la generación del mismo. 
El investigador obtendrá un resultado estadístico y realizará un análisis y 
conclusión final. En muchas ocasiones, esta investigación puede generar una 
nueva línea de investigación. 
Por otro lado, bajo el enfoque cualitativo el investigador se sumerge en la 
interpretación de los datos desde el momento que sale al territorio. Aquí 
la información que se obtiene no es numérica, lo que se busca es entender 
el fenómeno desde la vivencia que expresan las unidades muestrales. El 
investigador apela a su subjetividad para analizar, comprender, repreguntar. 
2 3
El análisis es circular, se busca patrones y emergentes que describan vivencias, 
percepciones, subjetividades, representaciones, etc. El investigador se 
involucra con esos datos y debe apelar a los objetivos de la investigación 
para considerar esa circularidad.
En el presente material, abordaremos esquemáticamente la diferencia 
metodológica que requiere el análisis de acuerdo al origen de los datos y 
al alcance de la investigación. El material bibliográfico es exhaustivo con 
respecto al desarrollo de ambos enfoques.
2- Contenidos 
Procedimientos para el análisis de datos
2.1 Enfoque cuantitativo
Una vez recolectados los datos mediante algunas de las técnicas mencionadas 
en la Unidad 3, y antes de someterlos al análisis, suele ser útil llevar a cabo 
algunas operaciones y descomposiciones preliminares.
 En este sentido, quienes estemos realizando la investigación deberíamos: 
- apartar los datos que son erróneos o irrelevantes. Esto debe 
realizarse con precaución, datos incompletos, o aquellos que no 
respondan a las características de exclusividad y exhaustividad 
requeridos en este enfoque. No debiéramos borrar datos que a 
priori parecieran “anómalos” y no se ajusten a nuestras hipótesis, 
ya que pueden servir para demostrar sus defectos.
- normalizar o reducir nuestros datos significa que eliminamos 
la influencia de algún factor bien conocido pero sin interés. Por 
ejemplo, podemos eliminar el efecto de la inflación dividiendo todos 
los precios por el índice de precios de la fecha de la compra.
En el análisis propiamente dicho de los datos, el propósito es extraer una 
estructura objetiva. Desde el inicio del proyecto, el investigador tiene 
4
preseleccionado un modelo matemático que aplicará a los datos. Este 
modelo también proporciona las hipótesis eventuales para el proyecto de 
investigación, o al menos actúa como una hipótesis de trabajo inicialmente 
no exacta, que se puntualizará durante el análisis. 
Los datos empíricos pueden analizarse del modo siguiente: primero, el 
investigador dispone los datos de acuerdo con el modelo matemático, y 
después considera en qué grado el marco es adecuado a los datos, o si ha de 
buscarse un modelo que se adapte mejor. 
De este modo, el investigador suele primero decidir qué tipo de patrón es 
el que está buscando en los datos. Esto determinará los métodos para un 
análisis matemático. Así, la primera cuestión a la hora de elegir el método 
de análisis es: ¿Queremos usar las variables medidas para clasificar casos o 
individuos? ¿O deseamos analizar variables inconexas, o bien las relaciones 
entre diversas variables? 
Recolectados los datos, el investigador necesitará plasmarlos en el 
instrumento de recolección (probablemente cuestionarios) y en un programa 
estadístico diseñado por él mismo o alguno de los más utilizados como 
el SPSS o el S-Plus. De ninguna manera el investigador pasará esos datos 
(decodificación) a una tabla manual, ya que por un lado, no es económico en 
tiempo, y por otro lado, el riesgo de error humano es muy alto. Además, los 
programas estadísticos a partir de la expresión del investigador, arrojan las 
medidas y estadísticos de manera automática (como veremos más adelante, 
el chi cuadrado, r de Pearson, la dispersión, el modo, la mediana, etc.). 
El programa seleccionado es el aliado del investigador, a partir del 
procesamiento de estos datos, comenzará a analizar sus variables y la 
correlación entre los datos obtenidos y su planteo en el problema de 
investigación.
A continuación nombraremos las medidas estadísticas más 
representativas y frecuentes en el análisis de datos cuantitativos, 
y que se tenga en cuenta que lo que se busca es una introducción. 
El desarrollo de cada uno de ellos, su aplicación, articulación y 
explicación que forma parte del corpus bibliográfico obligatorio 
de esta materia.
Hecha esta salvedad, comenzaremos a enumerar estos métodos de análisis 
estadísticos. 
Si pensamos en el análisis de las variables individuales lo que buscamos es 
el análisis estadístico de una sola variable. El cuadro siguiente expresa los 
métodos de acuerdo con la escala de medición de la variable en cuestión, 
que luego desarrollarán a través de la bibliografía de la unidad.
http://www2.uiah.fi/projects/metodi/25b.htm
http://www2.uiah.fi/projects/metodi/277.htm#hypo
http://www2.uiah.fi/projects/metodi/277.htm#tasment
http://www2.uiah.fi/projects/metodi/273.htm
http://www2.uiah.fi/projects/metodi/280.htm#1muut
http://www2.uiah.fi/projects/metodi/280.htm#2muut
http://www2.uiah.fi/projects/metodi/254.htm#aste
4 5
2.1.1. Medias
Una media es una estadística que caracteriza el valor típico de nuestros datos 
y elimina la dispersión aleatoria de valores. Para cada una de las distintas 
escalas de medición hay un tipo adecuado de media: la moda (o modo), la 
mediana y la media (aritmética).
- La moda es el valor que tiene mayor frecuencia absoluta y se 
representa como Mo. Por ejemplo; si tenemos la siguiente distribución de 
datos 2, 3, 3, 3, 4, 4, 5, 5 Mo= 3
Pueden presentar otras posibles situaciones donde se estima la 
moda a partir de otras operaciones; por ejemplo; si en un grupo hay 
dos o varias puntuaciones con la misma frecuencia y esa frecuencia 
es la máxima, la distribución es bimodal o multimodal, es decir, tiene 
varias modas: 1, 1, 1, 4, 4, 5, 5, 5, 7, 8, 9, 9, 9Mo= 1, 5, 9. Cuando 
todas las puntuaciones de un grupo tienen la misma frecuencia, no 
hay moda: 2, 2, 3, 3, 6, 6, 9, 9.
- La mediana es el valor que ocupa el lugar central de todos los datos 
cuando éstos están ordenados de menor a mayor y se representa por Me. 
La mediana se puede hallar sólo para variables cuantitativas. 
- La media aritmética es el valor obtenido al sumar todos los datos y 
dividir el resultado entre el número total de datos.
En la bibliografía seleccionada para la unidad encontrarán estos 
desarrollos.
2.1.2. Medidas de dispersión
Ahora bien, una vez que hemos calculado el valor medio, puede ser a veces 
interesante describir a qué distanciaen torno a la media están diseminados 
los valores particulares. Para este fin, podemos elegir entre diversas 
estadísticas. La elección depende del tipo de media que hayamos usado: 
	En conexión con la moda la dispersión de valores raramente es 
interesante.
	En lugar de ello, si hemos calculado una mediana, muchas veces 
querremos señalar la dispersión de valores en torno a ella. Una 
forma adecuada para esto es la desviación de cuartiles. Un “cuartil 
más alto” es aquel valor que es sobrepasado por el 25% del conjunto 
de todas las mediciones; del mismo, modo el 25% de todos los 
valores son más bajos que el “cuartil bajo”. La desviación media de 
los cuartiles a partir de la mediana es llamada desviación de cuartiles 
y es calculada con facilidad dividiendo por la mitad la diferencia de 
Escala nominal Escala ordinal Escala de 
intervalo
Escala de pro-
porción
Métodos de 
presentación 
de datos
 
Tabulación, presentación gráfica
Medias
La Moda
La Mediana
Media aritmética
Medidas de 
dispersión
Desviación cuartil
El rango
Desviación estándar
http://www2.uiah.fi/projects/metodi/280.htm#keskil
http://www2.uiah.fi/projects/metodi/280.htm#keskil
6
los cuartiles.
	Una estadística alternativa y muy simple es el rango que es la 
diferencia entre el mayor y el menor valor. 
	En conexión con la media aritmética muchas veces queremos calcular 
la desviación estándar dentro de determinada población. 
	La raíz cuadrada de la desviación estándar se llama varianza, y 
también ésta es usada con frecuencia para describir y analizar la 
dispersión. 
2.1.2. Medidas de dispersión
La presentación grafica de una variable y su distribución de valores significa 
mostrar cada valor como un punto en una escala. Si hay un gran número 
de valores, puede ser mejor clasificarlos primero y entonces presentar la 
frecuencia de cada clase como un histograma. 
Si nuestros estudios tienen que ver con personas, ocurrirá con bastante 
frecuencia que nuestras mediciones estarán distribuidas de acuerdo con 
cierta curva, la llamada curva de Gauss es la que expresa la distribución 
normal. La curva normal es simétrica, lo que expresa que la media, mediana 
y modo tienen el mismo valor. 
Si lo que queremos es poner énfasis no en la distribución absoluta, sino en la 
proporcional o de porcentaje, el diagrama apropiado para esto es el gráfico 
de sectores, también llamado grafico ´´torta´´. 
http://www2.uiah.fi/projects/metodi/280.htm#keskil
6 7
Por otro lado, si lo que deseamos según lo formulado en nuestro planteo 
del problema de investigación es analizar las relaciones entre variables, 
podríamos ver si dos variables evolucionan de modo tal que existe una 
asociación o covarianza estadística entre ellas. Por ejemplo, la altura y peso 
de las personas están estadísticamente asociadas: aunque el peso de nadie 
esté causado por su altura ni la altura por el peso, no obstante, es habitual 
que las personas altas pesen más que las personas bajas. 
Los datos habitualmente incluyen también excepciones, lo que significa 
que una asociación estadística es inherentemente estocástica. Un proceso 
estocástico en la teoría de la probabilidad, es un concepto matemático que 
sirve para caracterizar una sucesión de variables aleatorias (estocásticas) que 
evolucionan en función de otra variable. Cada una de las variables aleatorias 
del proceso tiene su propia función de distribución de probabilidad y, entre 
ellas, pueden estar correlacionadas o no.
La estadística ofrece numerosos métodos para mostrar y presentar 
las asociaciones entre dos y hasta más variables. Los medios más 
utilizados son los medios de presentación gráfica y tabulación. 
La intensidad de la asociación entre variables puede también 
describirse como una estadística especial, como el coeficiente de 
contingencia y una correlación, esto hay varios métodos de análisis 
disponibles.
Si, al analizar los datos, descubrimos alguna asociación entre las variables, 
buscaremos la explicación a esa asociación. Así, podemos designar una 
variable independiente que presumiría la causa y una variable dependiente 
que generaría el efecto del fenómeno. De esta manera estaríamos analizando 
estadísticamente una relación y una explicación causal; o sea la existencia (o 
no) de una correlación entre las variables. 
Una fuerte correlación entre A y B, puede deberse a cuatro razones 
alternativas: A es la causa de B / B es la c Tanto A como B son causadas 
por C. / A y B no tienen nada que ver con uno al otro. Su asociación en los 
datos analizados está una coincidencia / B es la causa de A.
Meta de 
análisis
Escala nomi-
nal
Escala ordinal Escala inter-
valo
Escala de 
proporción
Presentar 
datos y su 
estructura 
a grandes 
rasgos
 
Tabulación - gráficos
Encontrar qué 
variables en-
tre varios son 
asociadas
Coeficiente de contingencia
Correlación ordinal
Correlación r de Pearson
Transcribir 
una asocia-
ción esta-
dística en 
una función 
matemática
Calcular contingencias o correlaciones para todos los pares de 
variables ; análisis factorial
Análisis de regresión 
El investigador debe encontrar la causalidad o la otra explicación para 
la asociación de las variables. Muchas veces, en la teoría original del 
investigador puede estar explicitada la explicación. 
http://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_probabilidad
http://es.wikipedia.org/wiki/Variable_aleatoria
http://es.wikipedia.org/wiki/Estoc%C3%A1stico
http://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_probabilidad
http://es.wikipedia.org/wiki/Correlaci%C3%B3n
8
2.1.3. Métodos de análisis estadístico
A continuación veremos algunos métodos usuales de análisis 
estadístico que pueden usarse al estudiar la interdependencia entre 
una o más variables. Los métodos han sido dispuestos siguiendo a 
qué escala de medición corresponden la mayor parte de las variables. 
Presentación de datos
La tabulación es una forma habitual de presentar las asociaciones entre 
dos o más variables. Una tabla tiene la ventaja de que se puede disponer 
de una cantidad extensa de datos y se conservan las cifras exactas. Una 
desventaja es que una tabla grande no es ilustrativa: raras veces revela 
algo más que las más obvias regularidades o interdependencias entre 
datos. 
Con frecuencia sólo interesan los valores numéricos de las mediciones. 
Si se considera así, lo primero que debiéramos plantearnos al elegir 
el tipo de gráficos es conocer qué estructura tienen los datos que 
queremos mostrar. Por ejemplo: si nuestros datos consisten en unas 
pocas mediciones, es posible mostrarlos todos como un diagrama de 
dispersión. Podemos exhibir los valores de dos variables sobre los ejes 
de abscisas y ordenadas, y adicionalmente unas cuantas variables más 
utilizando los colores o formas de los puntos. 
Diagrama de dispersión (de los datos de las variables)
El histograma puede adaptarse para presentar hasta cuatro o cinco 
variables, además de utilizarse en el análisis univariado como hemos visto 
anteriormente. Podemos hacer esto variando las anchuras de las columnas, 
sus colores, sus tramados y por una representación tridimensional. Los 
patrones que rellenan o marcan las columnas del histograma pueden ser 
elegidos para que simbolicen una de las variables. 
El investigador suele estar interesado en las relaciones de dos o más variables 
antes que en las parejas de mediciones tomadas separadamente. La curva 
es la forma normal de presentar dos o más variables interdependientes. 
Esto implica una variable continua (es decir, el número de posibles valores 
es infinito). 
8 9
Medición de asociación entre variables
Hemos introducido anteriormente el concepto de covarianza estadística, 
que implica el vínculo entre dos variables y suele ser expresado en una 
tabla o una presentación gráfica, pero también hay disponibles estadísticas 
especiales para indicar su intensidad. Los medios disponibles para el análisis 
de los vínculos entre las variables dependen del tipo de escala: 
- Cociente decontingencia puede aplicarse a todo tipo de variables 
incluyendo aquellas que se han medido solo con una escala de 
clasificación (una estadística alternativa es Chi cuadrado)
- Correlación ordinal es adecuada cuando al menos una de las 
variables se han medido con una escala ordinal, la otra variable 
puede ser ordinal o aritmética.
- Para variables sobre escalas aritméticas, el método usual es la 
correlación estándar, mejor dicho la correlación del momento-
producto o correlación de Pearson (r de Pearson)
Las fórmulas para calcular las estadísticas de contingencia pueden 
encontrarse en número bibliografía, como así también se ha detallado 
programas que suelen utilizarse. 
La correlación suele abreviarse con la letra r. Si el coeficiente de correlación 
es bajo, por ejemplo algo entre -0.3 y +0.3, las dos variables no tienen mucho 
que ver entre sí (más exactamente, no tienen casi ninguna covariación 
lineal). Si es alto su valor se aproxima ya sea a +1 o a -1. 
El análisis de correlación es capaz de manejar solamente dos variables, 
puede utilizarse para el análisis inicial de un gran número de variables, 
cuando no tenemos una idea clara de las relaciones entre ellas. 
Una vez que tenemos las variables con correlación o contingencia fuerte, 
podremos realizar las siguientes operaciones: 
- Considerar, cuál variable del par es independiente (es decir la razón) 
y cuál es el dependiente (la consecuencia), y si la relación puede 
implicar más variables. 
- Descubrir el patrón exacto de la relación. Los métodos posibles para 
esto incluyen los análisis de serie temporal y de regresión. 
Si la correlación se calcula a partir de una muestra, debemos probar su 
representatividad estadística (ello se realiza con la denominada prueba t).
En el análisis de regresión, el investigador suele tener razones teóricas y 
prácticas para creer que determinada variable es causalmente dependiente 
de una o más variables distintas. Si hay ydatos empíricos sobre estas 
variables, el análisis de regresión clásico o “multivariante” es un método 
apropiado para desvelar el patrón exacto de esta asociación. El análisis de 
regresión encuentra la ecuación lineal que se desvía lo menos posible de las 
observaciones empíricas. 
Si tenemos amplios datos con muchas variables, al principio del análisis no 
estaremos seguros de qué variables están mutuamente conectadas, y cuales 
debieran ser incluidas en la ecuación. Podríamos primero estudiar esto 
http://www2.uiah.fi/projects/metodi/280.htm#2taul
http://www2.uiah.fi/projects/metodi/254.htm#aste
http://www2.uiah.fi/projects/metodi/288.htm#chi
http://www2.uiah.fi/projects/metodi/274.htm#aikasarj
http://www2.uiah.fi/projects/metodi/280.htm#regr
http://www2.uiah.fi/projects/metodi/252.htm#otanta
http://www2.uiah.fi/projects/metodi/288.htm#merkitsevyys
http://www2.uiah.fi/projects/metodi/288.htm#ttesti
http://www2.uiah.fi/projects/metodi/250.htm#kausal
10
con una matriz de correlación correlación, o dejar al programa de análisis 
de regresión elegir las variables “correctas” (x1, x2 etc.) para la ecuación. 
“Correctas” son aquellas variables que mejoran la exactitud del ajuste entre 
la ecuación y los valores empíricos. 
Todas las preguntas de un cuestionario se pueden considerar como variables, 
las respuestas de cada pregunta, representan valores. Generalmente la 
mayor parte de las preguntas conciernen más o menos el mismo tema, y es 
por lo tanto, normal que algunas de estas variables resultan tener una alta 
correlación mutua. El investigador puede desear descubrir si hay “variables 
de fondo” o los factores latentes que combinan algunas variables originales. 
Si se podría encontrar estas variables de fondo, los datos contenidos 
en los cuestionarios serían comprimidos y llegarían a ser más fáciles de 
comprender. El análisis factorial es el método normal para encontrar estas 
variables latentes.
Con la ayuda de un análisis factorial, las variables de combinación 
o factores latentes tras los atributos medidos pueden detectarse y 
especificarse, y el análisis también dice lo estrechamente que estos 
factores están vinculados con las variables originalmente verificadas.
 
2.2 Enfoque cualitativo
Una de las características particulares de la investigación cualitativa es la 
paradoja aunque muchas veces se tomen como unidades muestrales a pocas 
personas, la cantidad de información obtenida es enorme. Como hemos 
visto en las unidades anteriores, existen multiplicidad de fuentes y formatos 
de datos; información que proviene de observaciones estructuradas o no 
estructuradas, de entrevistas, ya sean abiertas, estructuradas o etnográficas, 
y también de medidas menos intrusivas, como documentos cotidianos o 
iales, registros o diarios. 
En algunos estudios puede haber información proveniente de cuestionarios 
y encuestas, películas y vídeos. 
La mayor parte de las investigaciones generan una buena cantidad de 
hojas escritas, transcripciones de entrevistas, de grupos de discusión, 
de observaciones y de otros tipos de fuentes. Una característica de la 
investigación cualitativa es que se trabaja principalmente con palabras 
y no con números, y las palabras ocupan más espacio que los números.
http://www2.uiah.fi/projects/metodi/280.htm#korr
http://www2.uiah.fi/projects/metodi/280.htm#korr
10 11
 La información crece geométricamente, en las primeras fases del estudio 
todo parecerá importante. En este sentido, la recolección de datos es 
inevitablemente un proceso selectivo, no podemos ni logramos abarcar 
todo, aunque pensEs importante resaltar, que las investigaciones cualitativas 
requieren mucho tiempo y recursos. 
Por ejemplo, se estima que se necesita de dos a cinco veces más tiempo para 
procesar y ordenar los datos, que el tiempo necesario para recolectarlos. 
Además, el análisis de la información recolectada es un proceso que también 
requiere tiempo, incluso decimos que el análisis es circular porque desde 
que salimos al campo estamos analizando lo que observamos.
 
Cuando se habla de datos cualitativos generalmente se 
habla de textos: periódicos, películas, comedias, historias 
de vida; y también de narrativas. En este sentido, es 
posible distinguir entre la tradición lingüística, que trata 
al texto como un objeto de análisis en sí mismo, y la 
tradición sociológica, que trata al texto como una ventana 
a la experiencia humana. La tradición lingüística incluye 
el análisis narrativo, el análisis conversacional (o del 
discurso), el análisis de ejecución y el análisis lingüístico 
formal.
Por su parte, la tradición sociológica incluye dos tipos de textos escritos: 
(a) las palabras o frases generadas por medio de técnicas de selección 
sistemática y textos libres, como las narrativas, los discursos y las 
respuestas a entrevistas no estructuradas o semi-estructuradas.
Hay varios métodos para recolectar y analizar palabras 
o frases. Las técnicas de recolección de datos incluyen 
listas libres, clasificación en pilas, comparaciones pareadas, 
pruebas con tríadas y tareas de substitución de estructuras. 
Las técnicas de análisis de estos tipos de datos incluyen 
el análisis componencial, las taxonomías y los mapas 
mentales.
El análisis de textos libres incluye, por un lado, métodos para analizar 
textos “crudos”, como el método de palabras claves en contexto, 
el conteo de palabras, el análisis de redes semánticas y los mapas 
cognitivos, y por el otro, métodos que requieren la reducción del texto 
en códigos. Estos últimos incluyen la teoría fundamentada, el análisis 
de esquemas, el análisis de contenido clásico, los diccionarios de 
contenido, la inducción analítica y los modelos de decisión etnográficos.
El investigador buscará aquellos datos que respondan a su planteo 
como problema de investigación y hará hincapié en aquellos datos que 
se denominan ´´emergentes´´. Estos datos son significativos per se, 
novedosos para el investigador y soncorrespondientes a la subjetividad 
de la muestra.
Es importante remarcar que el enfoque cualitativo también cuenta 
con programas computarizados de análisis de datos como el Atlas 
Ti, el cual analiza conceptos claves. Pasos para el análisis de datos 
cualitativos.
12
El análisis de datos cualitativos es como hemos dicho circular, flexible 
y desestructurado: mientras se recolectan los datos, se releen y se 
analizan se descubren temas y conceptos. A medida que se avanza en 
el análisis, esos temas y conceptos se tejen en una explicación más 
amplia de importancia teórica y práctica, que luego guía el reporte 
final. Si el análisis final es sistemático, seguirá una secuencia y un orden. 
Este proceso puede resumirse en los siguientes pasos 
o fases:
1. Obtener la información: a través del registro 
sistemático de notas de campo, de la obtención de 
documentos de diversa índole, y de la realización de 
entrevistas, observaciones o grupos de discusión.
2. Capturar, transcribir y ordenar la información: 
la captura de la información se hace a través de 
diversos medios. Específicamente, en el caso de 
entrevistas y grupos de discusión, a través de un 
registro electrónico. Toda la información obtenida, 
sin importar el medio utilizado para capturarla y 
registrarla, debe ser transcrita en un formato que sea 
perfectamente legible.
3. Codificar la información: codificar es el proceso 
mediante el cual se agrupa la información obtenida 
en categorías que concentran las ideas, conceptos o 
temas similares descubiertos por el investigador, o los 
pasos o fases dentro de un proceso.
Los códigos son etiquetas que permiten asignar 
unidades de significado a la información descriptiva o 
inferencial compilada durante una investigación. En 
otras palabras, son recursos mnemónicos utilizados 
para identificar o marcar los temas específicos en un 
texto.
4. Integrar la información: relacionar las categorías 
obtenidas en el paso anterior, entre sí y con los 
fundamentos teóricos de la investigación.
El proceso de codificación fragmenta las transcripciones en categorías 
separadas por temas, conceptos, eventos o estados. La codificación 
obliga al investigador a ver cada detalle, cada cita textual, para 
determinar el aporte que hace al análisis. Una vez que se han encontrado 
esos conceptos y temas individuales, se deben relacionar entre sí para 
poder elaborar una explicación integrada. 
12 13
Al pensar en los datos se sigue un proceso en dos fases:
•	 Primero, el material se analiza, examina y compara dentro de 
cada categoría. 
•	 Luego, el material se compara entre las diferentes categorías, 
buscando los vínculos que puedan existir entre ellas.
Una vez que la información ha sido recolectada, transcrita y ordenada, 
la primera tarea consiste en intentar darle sentido. Aquí el investigador 
deberá simplificar y encontrarle sentido a toda la complejidad contenida 
en las notas de campo y las transcripciones textuales.
El proceso de codificación es complejo y es desarrollado 
extensamente en el material bibliográfico correspondiente a 
esta unidad.
Una vez realizado el proceso de codificación, el investigador comenzara a 
delinear el análisis de los mismos. Es relevante recordar que los objetivos 
de nuestro estudio serán el hilo conductor de toda la investigación, y en 
este caso, de lo que busquemos responder con la conclusión final. 
El investigador cualitativo interpreta esos datos, busca 
interrelaciones, realiza analogías y busca patrones que le 
permitan construir teoría.
Recordemos que una de las características de la investigación bajo el 
enfoque cualitativo tiene que ver con la flexibilidad de la muestra, y 
el investigador podrá volver al campo si considera que alguno de los 
emergentes surgidos debe conocerse con mayor profundidad. Los 
emergentes son claves en el análisis de los datos cualitativos.
Los invito a ver y analizar el siguiente video: 
https://www.youtube.com/watch?v=_7tXEXwPGJY
4-Conclusiones
Como indicamos al iniciar esta unidad temática, analizar los datos denota 
que la investigación comienza a dar sus frutos y nos encontramos próximos 
a obtener el producto final en la metáfora del embudo. Es importante en el 
inicio del estudio que el investigador tenga en claro que tipo de datos busca, 
o sea cual será el propósito de la investigación.
Los datos cuantitativos responderán al planteo del problema de investigación 
https://www.youtube.com/watch?v=_7tXEXwPGJY
https://www.youtube.com/watch?v=_7tXEXwPGJY
14
y la clave estará en la correlación de esta, con lo recolectado en el campo. Si 
esta relación fue diseñada correctamente, los datos responderán al planteo. 
El investigador obtendrá los resultados a partir del uso de un programa 
estadístico lo que le permitirá refutar o aceptar su hipótesis.
Se recomienda que el enfoque cualitativo este guiado por un investigador 
experimentado debido a la complejidad del diseño, recolección de datos, 
análisis e interpretación. 
Cuando nos encontramos en esta etapa, el investigador tiene la sensación de 
que el arduo trabajo transitado está dando sus frutos y que aquella primera 
etapa confusa y abstracta fue necesaria depurarla para lograr un resultado 
satisfactorio.
5-Referencias bibliográficas
- Hernández Sampieri, R, Fernández Collado, C. y Baptista Lucio, P. 
(2010). Metodología de la investigación. (5° edición. Capítulo 10, 
14) México DF: Mc Graw-Hill Interamericana Editores. 
- Mayan, M. (2001). Una introducción a los métodos cualitativos: 
módulo de entrenamiento para estudiantes y profesionales. 
(Capítulo 6) México DF: Universidad Autónoma Metropolitana-
Iztapalapa. Recuperado de http: http://www.ualberta.ca/~iiqm//pdfs/
introduccion.pdf

Continuar navegando