Logo Studenta

Conciencia-y-requerimientos-necesarios-para-establecer-un-modelo-matematico-basado-en-tecnicas-de-neuroimagen

¡Este material tiene más páginas!

Vista previa del material en texto

“C
NECESA
MAT
QUE
L
DIR
 MÉ
 
 
 
 
 
 
UNI
AU
FA
CONSCIE
ARIOS PA
TEMÁTIC
N
E PARA 
LICENC
JUAN JO
RECTOR: D
XICO, D.
IVERSID
UTÓNOM
ACULTAD
 
 
 
 
NCIA Y R
ARA ESTA
CO BASAD
NEUROIM
 
 
 
 
 
T E 
OBTEN
CIADO E
PRESE
OSÉ GA
DR. ARMA
 
 F. 
DAD NA
MA DE M
D DE PSIC
 
 
 
REQUERI
ABLECER
DO EN TÉ
MAGEN”
S I S 
ER EL T
EN PSICO
ENTA: 
AJÓN BO
 
 
ANDO NA
 
 
ACIONA
MÉXICO
COLOGÍA
IMIENTO
R UN MO
ÉCNICAS
TÍTULO 
OLOGÍA
OLAÑOS
AVA RIVE
 200
AL 
O 
A 
OS 
ODELO 
S DE 
DE: 
A 
S 
ERA 
09 
 
Neevia docConverter 5.1
 
UNAM – Dirección General de Bibliotecas 
Tesis Digitales 
Restricciones de uso 
 
DERECHOS RESERVADOS © 
PROHIBIDA SU REPRODUCCIÓN TOTAL O PARCIAL 
 
Todo el material contenido en esta tesis esta protegido por la Ley Federal 
del Derecho de Autor (LFDA) de los Estados Unidos Mexicanos (México). 
El uso de imágenes, fragmentos de videos, y demás material que sea 
objeto de protección de los derechos de autor, será exclusivamente para 
fines educativos e informativos y deberá citar la fuente donde la obtuvo 
mencionando el autor o autores. Cualquier uso distinto como el lucro, 
reproducción, edición o modificación, será perseguido y sancionado por el 
respectivo titular de los Derechos de Autor. 
 
 
 
 A Dios 
 Por todo cuanto es, 
 tan complejo como 
 para mantener entretenida 
 a la humanidad durante 
 su breve estancia en este mundo 
 HONOR Y GLORIA 
 
 
 
 
 
 
 
 
 
A las personas 
significativas en mi vida 
Pasadas, presentes y futuras; 
por acompañarme en este 
extraño pero fascinante viaje 
llamado vida 
AMOR Y LEALTAD 
 
 
 
 
 
 
 
 
 A mi 
 Por comprender 
 finalmente que 
 todo aquel que se 
 divide contra si 
 mismo esta condenado 
 a la derrota 
 SABIDURIA Y PAZ 
 
 
 
 
 
 
 
 
 
“Dichoso aquel que siendo puesto a prueba, 
ha soportado las tentaciones, pues a el 
sera entregada la corona de la vida” 
Kumiko Noma, “Lilium” 
Opening Elfen Lied 
 
Neevia docConverter 5.1
 
INDICE 
 
 
Introducción .................................................................................................................................... 1 
 
Capitulo 1 Metodología................................................................................................................... 4 
 Consideraciones previas................................................................................................................. 4 
 Preguntas de investigación............................................................................................................. 4 
 Factores o dimensiones................................................................................................................... 5 
 Procedimiento................................................................................................................................. 5 
 Actividades de análisis de la información...................................................................................... 6 
 
Capitulo 2 Antecedentes.................................................................................................................. 8 
 Psicología de la consciencia........................................................................................................... 8 
 Técnicas de Neuroimagen.............................................................................................................. 10 
 Modelos matemáticos..................................................................................................................... 15 
 
Capitulo 3 Consciencia.................................................................................................................... 19 
 Diferenciación de términos............................................................................................................. 19 
 Filogenia de la consciencia............................................................................................................. 20 
 Ontogenia de la consciencia........................................................................................................... 22 
 Correlato neural de la consciencia.................................................................................................. 24 
 Consciencia y atención................................................................................................................... 25 
 Consciencia y cognición................................................................................................................. 26 
 Actividad oscilatoria y sincronización........................................................................................... 27 
 
Capitulo 4 Técnicas de neuroimagen............................................................................................. 30 
 Electroencefalograma..................................................................................................................... 30 
 Tomografía por emisión de positrones........................................................................................... 33 
 Tomografía por rayos X................................................................................................................. 36 
 Resonancia magnética nuclear....................................................................................................... 38 
 Magnetoencefalografía................................................................................................................... 40 
 
Capitulo 5 Modelos matemáticos................................................................................................... 45 
 Construcción de un modelo............................................................................................................ 45 
 Metodología sugerida para desarrollar un modelo matemático.................................................. 46 
 Técnicas útiles en la formulación de modelos matemáticos......................................................... 47 
 Ecuaciones de diferencia................................................................................................................ 49 
 Ecuaciones diferenciales................................................................................................................51 
 Variables por azar........................................................................................................................... 52 
 Modelo empírico............................................................................................................................ 53 
 Modelos por sistemas..................................................................................................................... 53 
 
Capitulo 6 Discusión........................................................................................................................ 57 
 
Capitulo 7 Conclusiones.................................................................................................................. 59 
 
Referencias....................................................................................................................................... 62 
 
 
 
Neevia docConverter 5.1
Introducción 
 
Plantearse la capacidad para tener conocimiento de si mismo, implica tener noción sobre la existencia como 
individuo. 
Esta capacidad, en apariencia hace diferente y superior a la especie humana de otras especies animales. 
¿Qué es lo que hace posible que el ser humano pueda cuestionarse su existencia, su papel en esta vida? 
Preguntas de este tipo, se dejaron a lo largo de la historia en manos de pensadores y religiosos, cuyas 
respuestas a estas interrogantes suelen involucrar factores ajenos a la propia especie, siendo la mas 
característica el concepto de deidad, aunque no la única. 
A falta de respuestas convincentes, la misma humanidad se ha encargado de formular otros modos para 
observar y explicar la vasta cantidad de fenómenos que ocurren a su alrededor. 
Uno de estos sistemas de pensamiento sobre la realidad es la ciencia; esta en particular se ha encargado de 
dar respuestas a interrogantes que permanecieron sin respuesta por mucho tiempo y otras respuestas cuyas 
preguntas ni siquiera éramos capaces de imaginar. Parte de su éxito deriva de la capacidad para explicar y 
realizar predicciones con un determinado grado de certidumbre sobre los fenómenos que estudia. 
Aunque este modo de observar e interpretar la realidad ha resultado muy efectivo en muchos ámbitos en los 
que se desenvuelve el ser humano, en otras áreas al parecer no aporta ayuda significativa. 
Estas áreas se caracterizan por no poseer atributos cuantitativos capaces de ser abordados por las técnicas del 
método científico, son fenómenos que no podemos manipular de modo tal que su ocurrencia sea evidente para 
todos. 
Este tipo de fenómenos son llamados subjetivos, por que no hay evidencia directa de su presencia. 
Un fenómeno aparentemente subjetivo muy conocido y experimentado por todos, es el conocimiento de 
nosotros mismos ó autoconsciencia. 
Cada uno de nosotros es capaz de vivenciar su mundo interno, lleno de ideas, valores morales, juicios lógicos, 
imaginación etc. 
Sin embargo no podemos decir lo mismo de las experiencias de otros, a diferencia de los atributos corporales 
como el peso o la presión sanguínea que cuentan con instrumentos y reglas de comparación, la consciencia no 
posee una localización física en particular que nos permita bosquejar al menos algún tipo de medida. 
Se podría pensar que la consciencia entonces esta alejada del dominio de la ciencia, como si este fenómeno 
fuera algo totalmente ajeno a nuestros procesos corporales y por tanto más allá de toda posible explicación. 
Se generaron diversas respuestas en torno a la consciencia, algunas tan extremas como la de negar su 
existencia, afortunadamente el negar un fenómeno no hace que este desaparezca y nuevamente este tipo de 
eventos han sido incluidos en las agendas de investigación. 
Un problema mas, es la confusión de términos, pues no es raro ver que en el lenguaje común la consciencia se 
equipare a valores morales o incluso la inteligencia. 
El alejamiento de la consciencia como objeto de estudio de la ciencia y su consecuente inclusión como 
fenómeno subjetivo, es similar al que en su momento tuvieron la epilepsia interpretada como posesión 
Neevia docConverter 5.1
demoníaca, los temblores a consecuencia del movimiento de elefantes montados sobre una tortuga o la tierra 
como centro del universo. 
Lo que nos muestra de un modo constante la historia es que la subjetividad o fenómenos inexplicables son 
solo la falta de modelos teóricos e instrumentación adecuada para su abordaje. 
Y el hecho de que no se disponga de ellos en el momento presente no implica que no podrá disponerse de 
ellos en el futuro. 
Su obtención se encuentra en los aciertos y errores de aquellos que se atreven a iniciar su travesía en la 
vastedad de esa área sin explorar. 
El problema radica cuando no existe quien se atreva a dar los primeros pasos, cuando se prefiere la 
comodidad de seguir los dictados de la corriente de pensamiento vigente, lo que provoca estancamiento y 
propicia la conservación de conceptos erróneos. 
El problema por resolver en torno a la consciencia, consiste en lograr medir algo “subjetivo”. Primero se debe 
tener en consideración que no toda medida es directa, decir que la consciencia no es verificable por ninguno 
de nuestros sentidos es tan acertado como decir que la gravedad tampoco lo es. 
Sin embargo, nuevamente esto no significa que por no contar con los métodos adecuados para un registro 
directo, un fenómeno deje de existir. Sabemos por otra parte, que a través de medidas indirectas de 
determinadas variables y apoyadas con la instrumentación adecuada podemos inferir la presencia de un 
suceso determinado sin necesidad de contrastarlo directamente. Para visualizar mejor esto último 
imaginemos un caso de gripa, nuestro cuerpo se fatiga, la temperatura corporal se eleva, las vías respiratorias 
de bloquean etc. A partir de todas estas variables inferimos de modo indirecto que tenemos “gripa” aunque 
esta ultima como tal esta fuera de nuestra percepción sensorial, esto es verdad a pesar de que sentimos 
claramente cada uno de sus molestos síntomas. Lo mismo podemos decir del trafico, nuestro recorrido se 
vuelve lento, vemos muchos autos avanzando a vuelta de rueda etc. Entonces inferimos que hay “trafico”, 
aunque este fenómeno vial por si mismo, no lo registremos directamente a través de nuestros sentidos. 
Respecto al uso de la instrumentación, la psicología en sus inicios tuvo dificultades no solo instrumentales 
sino también operacionales, esta fue la causa de que diversas problemáticas planteadas inicialmente dentro de 
su objeto de estudio, no se abordaran del modo adecuado y terminaran siendo evadidas como fue el caso la 
consciencia. 
Aunque el déficit tecnológico en muchas ocasiones ha sido superado por el ingenio y un uso novedoso de las 
herramientas disponibles, simplemente hay ocasiones en las que es necesaria la llegada de una innovación 
tecnológica para poder ver una problemática desde otra perspectiva. 
Las técnicas de neuroimagen particularmente, han permitido a los psicólogos encontrar las áreas del cerebro 
implicadas en fenómenos como la memoria, la percepción, las emociones etc. 
Es así como a partir de observaciones indirectas, en este caso la actividad del sistema nervioso central, pueden 
ser comprendidos estos sucesos. 
Aunque la descripción detallada de un evento por sí misma ya es muy buena, esto no nos da una explicación 
del evento realmente. La comprensión total del fenómeno solo es posible cuando somos capaces de 
reproducirlo ó de hacer pronósticos y predicciones sobre el mismo. 
Neevia docConverter 5.1
Cualquiera de estas opciones implica la elaboración de un modelo; un modelo como representación tiene el 
objetivo de hacer una conceptualización de la realidad en términos cognitivos y simbólicos que lo hagan mas 
entendible y fácil de comunicar. 
Los modelos son de muchos tipos diferentes, pero tienen una característica en común, son conceptos 
inventados y se construyencon la intención de que correspondan tan exactamente como sea posible con el 
mundo real, aunque esto no implica que un modelo sea una replica exacta de la realidad. 
Los modelos en la ciencia buscan ser lo mas simples posibles y generalmente se enfocan solo en los aspectos 
mas fundamentales del fenómeno, un modo de conseguir esto es mediante representaciones numéricas o de 
medida. 
Para llegar a estas representaciones numéricas es necesaria la elaboración de funciones que nos permitan 
conocer de que modo las variables se influyen entre ellas. Son estas funciones lo que se conoce como modelos 
matemáticos, puesto que los modelos matemáticos describen cantidades es susceptible el plantear 
experimentos que den veracidad o refuten sus afirmaciones. 
Es entonces la finalidad de esta tesis el hacer una investigación documental sobre los diferentes postulados 
generados sobre la consciencia, el fundamento teórico así como el funcionamiento de las técnicas de 
neuroimagen y los principios para la elaboración de modelos matemáticos. 
Todo esto con el objetivo de concluir si es posible o no la propuesta de un modelo matemático en torno a la 
consciencia a partir de técnicas de neuroimagen. 
De ser factible la propuesta de un modelo, la consciencia dejaría el campo de la subjetividad para ser un 
fenómeno abordable y objeto de experimentación. Para ser objeto de experimentación no solo debe sortear 
problemas metodológicos y conceptuales, es necesario a su vez apegarse a estrictas normas éticas tanto en su 
ejecución como en la aplicación de cualquier conocimiento que de ello derive. 
El primer capitulo se dedicara al aspecto metodológico utilizado para la elaboración de este trabajo. 
En el segundo capitulo se abordaran los antecedentes históricos, en el estudio de la consciencia, los orígenes 
de las técnicas de neuroimagen y la elaboración de modelos matemáticos aplicados en la ciencia. 
El tercer capitulo abordara las tendencias actuales en cuanto al estudio de la consciencia, solo se hará mención 
de aquellas propuestas sustentadas en factores fisiológicos. Aunque existen otras aproximaciones como las 
filosóficas o físicas, es difícil plantearse una corroboración empírica de las mismas. 
En el cuarto capitulo se expondrán las diversas técnicas de imagen utilizadas en las exploraciones del sistema 
nervioso, abarcando fundamentos físicos y biológicos. 
En el quinto capitulo se analizaran los modelos matemáticos en cuanto a sus fines, tipos y herramientas 
matemáticas utilizadas, dependiendo del tipo de problema. 
Finalmente en el apartado de discusión y conclusiones, en base a la información proporcionada a lo largo de 
la tesis se determinara si es factible elaborar un modelo matemático sobre la consciencia y utilizar técnicas de 
neuroimagen como instrumentos de medida cuantitativa para determinar la veracidad predictiva del modelo 
en cualquier experimento propuesto para su corroboración. 
 
Neevia docConverter 5.1
Capitulo 1 
Metodología 
 
Consideraciones previas 
 
Las referencias que hacen uso de los tres contenidos principales de este trabajo, son muy limitadas, 
generalmente las referencias halladas son trabajos que solo incluyen los términos Consciencia-Técnicas de 
Neuroimagen (TN), Consciencia-Modelos Matemáticos (MM) ó TN-MM. 
Los primeros trabajos se caracterizan por ser descriptivos en cuanto a la actividad del SNC durante procesos 
conscientes, estos trabajos son realizados desde las neurociencias. 
El segundo tipo de trabajo se caracteriza por ser abstracto y hacer uso de las teorías informáticas como base, 
esto se desarrolla desde las ciencias de la computación y las matemáticas. 
Finalmente en el tercer rubro, los modelos que se desarrollan se refieren directamente a la operación del 
instrumento y su funcionamiento, siendo su desarrollo desde el área física y de la ingeniería. 
Debido a esta limitación es preferible desarrollar cada factor de manera independiente, lo cual en un principio 
puede dar la sensación de que sus temáticas no están conectadas. 
Sin embargo la importancia de los tres factores reside en lo siguiente: 
Si la consciencia es un objeto de estudio de la ciencia, debe existir un constructo teórico que le de sustento. 
Dicho constructo teórico debe ser capaz de someterse a la prueba de realidad, esto es, ser empíricamente 
verificable. El modo de hacer esto es mediante hipótesis predictivas en términos cuantitativos. Esto implica 
forzosamente el desarrollo de un modelo matemático que explique los aspectos relevantes del sistema que 
estudiamos. Para obtener estas medidas se necesita de instrumentos precisos y aunque las TN parecen 
adecuadas no debe perderse de vista que su invención y desarrollo estuvo estrictamente ligado a fines 
médicos. 
 
Preguntas de investigación. 
 
Las preguntas que intentan responderse mediante este trabajo son: 
1. ¿Existe evidencia empírica sobre el fenómeno de la consciencia? 
2. ¿Las técnicas de neuroimagen pueden ser utilizadas para estudiar la consciencia? 
3. ¿En que se fundamentan las técnicas de neuroimagen? 
4. ¿Existen metodologías que permitan elaborar modelos matemáticos de sistemas complejos como los 
psicofisiológicos? 
Si las respuestas a 1, 2 y 4 son afirmativas: 
5. ¿Se puede elaborar un modelo matemático de la consciencia basado en técnicas de neuroimagen como 
instrumentos de medida? 
 
 
Neevia docConverter 5.1
Factores o dimensiones. 
 
a) La consciencia es un fenómeno psicológico de carácter privado que no puede ser medido de modo directo, 
cuya característica principal es la percatación [estar enterado o darse cuenta] de los contenidos cognitivos, 
emotivos y conductuales extrínsecos e intrínsecos a la propia persona. 
 
b) Las técnicas de neuroimagen son procedimientos metodológicos y técnicos que permiten inferir diversos 
fenómenos del SNC mediante el registro de cambios fisiológicos que ocurren en el mismo. 
 
c) Los modelos matemáticos son constructos que permiten elaborar una representación de un fenómeno de la 
realidad que permite definirlo, predecirlo y contrastarlo. 
 
Procedimiento. 
 
Recabamiento de información 
Se recurrió a tesis, libros y artículos de revistas especializadas, los temas a revisar fueron: 
Para la consciencia.- 
-Consciencia 
-Psicología cognitiva 
-Psicofisiología 
-Psicobiología 
Para las técnicas de neuroimagen.- 
-Instrumentación 
-Psicología experimental 
-Técnicas de registro psicofisiológico 
-Metodología de investigación en Psicología 
Para modelos matemáticos.- 
-Matemáticas aplicadas 
-Modelos matemáticos 
-Métodos numéricos 
 
Los criterios para la selección de material por factor fueron: 
 
Consciencia.- Solo se tomo aquella información que se refería a la consciencia en los términos aquí 
expuestos, evitando la consciencia como moralidad u otros usos de esta palabra, aunque muchas áreas hacen 
uso del mismo termino, no llegan a compartir el mismo significado o se usa para definir situaciones ambiguas 
alejadas de la connotación que aquí se pretende dar; se dio prioridad a la información que respaldara sus 
argumentos con investigaciones o que planteara el uso de las matemáticas como una aproximación. 
Neevia docConverter 5.1
Técnicas de neuroimagen.- Se dio prioridad a la información que estaba centrada en el funcionamiento y 
fundamento de la técnica; así como la transformación de la señal psicofisiológica en términos de medida, para 
esto se recurrió en específico a manuales técnicos o compendios que explicaran las bases físicas y biológicas a 
partir de las cuales es posible entender su funcionamiento, puesto que este conocimiento se puede encontrar 
en cualquier libro especializado y no depende de algún autor en particular se tomaron los textos que 
explicaran las técnicas del modo mas sencillo posible. 
 
Modelos matemáticos.- Se concentro en la búsqueda de información referente a las metodologías empleadas 
para la elaboraciónde modelos complejos, en específico de modelos biológicos. Existe una gran cantidad de 
herramientas matemáticas, el grado de complejidad de cada una varia así como las áreas en que pueden ser 
aplicadas, aunque la Psicología cuenta con las herramientas estadísticas, se considero que tal vez puedan ser 
utilizadas otras herramientas para el estudio de la consciencia. 
 
Actividades de análisis de la información 
 
Primero se reunió todo el material referente a la consciencia, tomando en consideración los diferentes tipos de 
explicación de la misma y su proceso. Solo quedaron incluidos en la tesis aquellos trabajos que tenían un 
perfil empírico y/ó fisiológico, esto último debido a que otros paradigmas como el filosófico o el físico no son 
susceptibles de corroboración experimental, los primeros por plantear constructos que insisten en la 
subjetividad del fenómeno y los otros por ser totalmente teóricos, incluyendo cuestiones como la mecánica 
quántica. Problemas similares se presentan cuando el abordaje de la consciencia se hace desde la 
antropología, la lingüística etc. 
Por perfil empírico y fisiológico se hace referencia a trabajos que involucran planteamientos de hipótesis y 
verificación experimental con sujetos vivos, estando en las hipótesis, implicado el SNC. Serán los resultados 
y conclusiones de estos trabajos los que se mencionen a lo largo del trabajo. 
Posteriormente se revisaron las técnicas de registro de la actividad cerebral, con sus puntos a favor y en 
contra, así como las bases biológicas y físicas que les dan sustento. En este punto es importante saber si es 
justificado usar las técnicas de neuroimagen para los estudios que se han hecho referentes a la consciencia, 
pues muchas de estas técnicas fueron creadas para facilitar diagnósticos médicos. 
Finalmente se examinaron las metodologías para elaborar modelos matemáticos de fenómenos de 
complejidad variable, en este aspecto quienes se dedican al desarrollo de modelos coinciden en que todo 
aspecto de la realidad puede ser modelado al menos parcialmente sin importar su complejidad. Es importante 
entender que un modelo de este tipo no tiene que implicar linealidad para poder realizar predicción y que 
puede involucrar más de dos variables. 
 
 
 
 
Neevia docConverter 5.1
Una vez elaborados estos puntos se consideró que se tenía la información suficiente para: 
1) Determinar cuál es la mejor técnica de registro aplicable al fenómeno de la consciencia. 
2) Si los registros obtenidos mediante esta técnica, cuantitativamente pueden utilizarse dentro del marco de 
cualquier modelo matemático que pueda ser elaborado para intentar explicar el proceso consciente. 
La metodología empleada en este trabajo documental, solo nos permitirá concluir si es factible o no la 
propuesta de esta tesis. 
En todo trabajo de investigación se puede cometer el error de llegar a falsas conclusiones o repetir las 
interpretaciones que ya otros han realizado, por eso es necesario recurrir a la historia para verificar como han 
evolucionado los conceptos que se estudian, eso permite tener una visión con mas perspectiva que permita 
evitar la mayor cantidad de errores en el tratamiento documental de los criterios que conformaron este trabajo. 
En el siguiente capitulo se mencionan los antecedentes históricos mas relevantes en los tópicos que 
conforman esta tesis. 
 
 
 
 
 
 
 
 
 
 
 
 
Neevia docConverter 5.1
Capitulo 2 
Antecedentes 
 
Para entender el estado actual del estudio de la consciencia es necesario tener claros sus orígenes así como la 
evolución de la instrumentación para el estudio del SNC. 
La instrumentación utilizada para la exploración del SNC, nos permite inferir algunos fenómenos que no son 
evidentes a simple vista, como las áreas corticales involucradas en los procesos sensoriales, el ciclo sueño 
vigilia, etc. 
La información proporcionada solo es de utilidad si es interpretada a partir de un modelo del fenómeno que 
deseamos estudiar. 
El modo de representar los fenómenos naturales a través de modelos ha variado con el tiempo en la ciencia, 
es necesario entonces ver como han ido progresando el desarrollo de los modelos, en específico los 
matemáticos. 
Estos últimos son importantes en la medida que se desee una explicación y no solo una descripción del 
fenómeno, aunque en un inicio su aplicación era exclusiva de las ciencias exactas, su utilidad se ha extendido 
a las ciencias biológicas y sociales. 
Para poder aplicar esto al proceso consciente, primero se debe entender como ha evolucionado este concepto 
históricamente, por lo tanto se abordara la historia de la psicología de la consciencia. 
 
Psicología de la consciencia. 
 
La consciencia a pesar de ser un evento continuo en la existencia humana, el modo de entenderle ha variado 
de un momento a otro. 
En las mitologías y religiones nuestro estado consciente deriva del don otorgado por alguna entidad superior, 
aunque estas ideas no se refieren directamente al termino consciencia, las palabras anima, soplo de vida, 
espíritu etc. nos conducen a conceptos similares, las diversas mitologías sobre el origen del hombre en parte 
coinciden sobre el hecho de que el hombre al inicio es una especie de animal o constructo, y solo se vuelve 
humano hasta recibir esta dadiva divina que lo aleja del mundo animal. 
Pero el hecho de adquirir consciencia del mundo y del sí mismo se llego a considerar como una ofensa contra 
estas entidades, que castigan a la humanidad por arrebatar un don que no les corresponde, la historia de la 
expulsión del paraíso por comer del fruto prohibido es muy textual en este aspecto: 
“10Este contestó: te oí andar por el jardín y tuve miedo, por que estoy desnudo; por eso me escondí. 11El 
replico: ¿Quién te ha hecho ver que estabas desnudo? ¿Has comido acaso del árbol que te prohibí 
comer?”(Gen 3) 
Otro relato conocido es el del tormento eterno de Prometeo por robar el fuego a los dioses y entregárselo a la 
humanidad, ejemplos como estos podemos encontrarlos en diversas culturas. 
Este tipo de visión desemboco en una posición dualista de una esencia etérea y un cuerpo físico que le sirve 
como vinculo con el reino material, “el fantasma en la armadura” (Grande, G. 2001). 
Neevia docConverter 5.1
Estas ideas se mantuvieron con pocos cambios a lo largo de la historia, hasta que es incorporado el concepto 
de mente que a pesar de seguir siendo un atributo de origen divino, ya tiene un asiento material en la cabeza. 
Sin embargo se sigue sosteniendo un enfoque dualista, en el que mente es una entidad separada del cerebro, 
este es solo un conducto o herramienta material por la cual se manifiesta la primera. (Nava, R. 2001) 
Aunque los pensadores trataron de responder sobre el tema, es con la llegada de la psicología cuando todas 
estas ideas empiezan a adquirir nombres y definiciones. 
Siguiendo las máximas positivistas, la psicología tuvo que iniciar el desmembramiento de un todo integrado 
en partes delimitadas y acotadas para su estudio, es así como ven la luz constructos y conceptos como 
percepción, lenguaje, pensamiento, memoria, emoción, conducta etc. 
La psicología como disciplina científica tuvo sus orígenes en el último cuarto del siglo XIX, derivada de la 
fisiología y la filosofía de la mente llamada psicología a mediados del siglo (Hardy, 1998). 
Muchos están de acuerdo en que Wilhelm Wundt (1832-1920) (Hardy, 1998) fue el medico-filosofo que 
estableció la psicología como una disciplina académica e hizo todo lo posible por que se reconociera a la 
Psicología como una ciencia. 
Wundt en 1873 definió por primera vez a la psicología científica, cuya tarea como nueva ciencia, era 
investigar los procesos que están a mitad de la experiencia externa e interna, de acuerdo a su definición: 
“Comienza en los procesos fisiológicos y como estos procesos influyen en el dominio de la observación 
interna... Si se desea enfatizarsus características metodologicas, podría denominarse a nuestra ciencia como 
Psicología experimental, para distinguirla de la ciencia corriente de la mente que se basa exclusivamente en 
la introspección.” (Wundt, 1873 citado en Hardy, 1998) 
Con esta definición manifestaba que la psicología debe estar apegada a los procesos fisiológicos para el 
estudio de los fenómenos cognitivos y basarse en métodos empíricos. 
La Psicología científica de Wunt sostenía que el sistema nervioso era la base de todos los fenómenos 
mentales. 
Definiendo a la Psicología como la investigación de las condiciones fisiológicas de los sucesos conscientes 
permitía la posibilidad del reduccionismo, que consistía en explicar los sucesos mentales y conductuales en 
función de causas fisiológicas. 
En Heildenberg, Wundt consideraba a la psicología como una ciencia natural, consideraba que el método 
experimental seria el responsable de llevar a la mente al ámbito de la ciencia natural, aunque en un inicio no 
identifico la mente con la consciencia, si lo haría posteriormente. (Hardy, 1998). 
Reconoció que solo podría construirse una ciencia de la consciencia a partir de resultados objetivos, obtenidos 
utilizando condiciones estandarizadas que fueran susceptibles de variación sistemática y duplicación. 
Wundt al final terminaría excluyendo el estudio de los procesos mentales superiores de la psicología 
fisiológica y su método de introspección experimental para el estudio de los procesos superiores terminaría 
siendo reemplazado por el método histórico. (Hardy, 1998). 
Para Wundt los sentimientos de actividad, control y unidad eran los que definían al “sí mismo”, lo que no 
explica es como son generados estos “sentimientos”, lo que sigue sin dar una respuesta convincente. 
Neevia docConverter 5.1
La generación posterior a Wundt creía que los procesos mentales superiores tendrían que observarse 
directamente si la psicología iba a ser una ciencia erigida a partir de hechos positivos. 
El método de introspección de Wundt, fue sustituido por la “introspección sistemática”. Se analizaban 
detalladamente los eventos mentales después de su ocurrencia, mediante la respuesta a preguntas que otras 
personas planteaban. (Hardy, 1998) 
La exactitud de los informes sufría limitaciones de la memoria y de la tendencia humana a inventar 
recuerdos. 
Franz Brentano (1878-1917) (Citado en Hardy, 1998) propuso una psicología orientada al descubrimiento y 
descripción de los contenidos de la consciencia; de acuerdo a esto, los actos mentales se dirigen a contenidos, 
pero el acto es mucho más importante que el contenido, a partir de aquí surge el concepto de intencionalidad 
como criterio. Lo que sugería es que los estados mentales poseen intencionalidad es decir, están dirigidos 
siempre hacia algo o representan algo. 
Debido a cuestiones históricas y metodologicas la psicología de la consciencia fue abandonada, permitiendo 
el auge del conductismo y su dominio posterior en Psicología, enfocándose en la conducta, la cual podía ser 
descrita y ser sujeta a experimentación. 
La consciencia debió esperar décadas hasta la llegada de las teorías cognitivas e informáticas para ver la luz 
una vez más. 
A partir de la década de los 80’s una gran cantidad de estudios sobre procesos conscientes han aparecido en la 
literatura psicológica y de neurociencias bajo diversos encabezados, apoyándose para su realización en las 
técnicas de neuroimagen. Estas técnicas son parte de una metodología mucho más rigurosa de la que podía 
obtenerse al inicio de la Psicología, aunque el desarrollo es paralelo su unión se dio mucho después, es 
importante tener noción de los sucesos que desembocaron en su desarrollo y que son descritos a continuación. 
 
Técnicas de neuroimagen. 
 
Uno de los primeros descubrimientos de medios no invasivos para el estudio de las funciones corporales fue 
el hallazgo de la radioactividad por Becquerel en 1896 dos meses después de que Röntgen descubriera los 
rayos X (Juhn J. y Crumny A., 1987). 
Estudios subsecuentes identificaron tres tipos de emisiones: 
Partículas positivas (alfa) 
Partículas negativas (beta) 
Radiación altamente penetrante (gama) 
Los efectos biológicos de la radiación fueron reconocidos casi inmediatamente, cuando una mancha roja 
apareció en el abdomen de Becquerel (Dena E., Rodriguez N. y Perez D., 1995) después de que cargara una 
muestra de radio en su bolsillo durante un viaje a Londres para presentar una conferencia sobre su trabajo. 
En 1934 Irene y Fréderic Joliot Curie (Putman Ch. y Rann C., 1988) descubrieron la radiactividad artificial 
que dio impulso a las aplicaciones médicas. 
Neevia docConverter 5.1
Se fabricaron isótopos radiactivos [son aquellos que tienen un núcleo atómico inestable (por el balance entre 
neutrones y protones) y emiten energía cuando cambia de esta forma a una más estable] de la mayor parte de 
los elementos naturales, gracias a la radiación [propagación de energía en forma de ondas electromagnéticas o 
partículas subatómicas a través del vacío o de un medio material] que emitían, se podía seguir en el interior 
del organismo humano su destino o el de las moléculas en los que se habían introducido. 
Georg Von Heves por su parte inició el empleo de los trazadores en 1913, con radioisótopos naturales. En 
1922, Antoine Lacassagne descubre el principio de la autoradiografía. Con estos precursores se dieron las 
bases de la medicina nuclear que experimentó un rápido desarrollo entre 1935 y 1939, sobre todo a partir de 
1945 en adelante (Juhn J. y Crumny A., 1987). 
En 1947 Kallman creo un detector de escintilacion [dispositivo que se utiliza en los exámenes de medicina 
nuclear para detectar la radiactividad a partir de centelleos y producir imágenes que ayudan a diagnosticar 
enfermedades] utilizando cristales orgánicos de naftalina adjuntados a la cara de un fototubo multiplicador 
[serie de placas metálicas dispuestas de forma que la emisión fotoeléctrica se amplifica mediante una emisión 
eléctrica secundaria, es capaz de detectar radiaciones extremadamente débiles]. Aunque tosco, era más 
sensitivo que un tubo de Geiger-Meuller. Hofstadter modifico el diseño básico para producir un detector más 
sensible, adicionando pequeñas cantidades de talio y yoduro de sodio. (Putman Ch. y Rann C., 1988) 
El desarrollo de estos dispositivos, sin embargo debió esperar el refinamiento del tubo fotomultiplicador y 
circuitos de conteo, los cuales realmente no estuvieron disponibles hasta después de la segunda guerra 
mundial. 
En 1949 Cassen construyo el primer escáner rectilíneo, el detector era de calcio y tungsteno; el colimador 
[sistema que a partir de un haz divergente obtiene un haz paralelo, sirve para homogeneizar las trayectorias o 
rayos que, emitidos por una fuente, salen en todas direcciones y obtiene un conjunto de rayos con las mismas 
propiedades] era una pieza densa de plomo con un orificio de ¼’. (Putman Ch. y Rann C., 1988). 
Un radiólogo en Stanford invento el colimador focal de multiorificio, que aumento la sensibilidad al proveer 
del equivalente mecánico de unos lentes de rayos gama. En adición el colimador focal también producía 
imágenes tomográficas. El contraste fue mejorado por la introducción de la fotomodulación por Kuhl en 1956 
(Putman Ch. y Rann C., 1988), la luz de una lámpara brillante era enfocada en una película de rayos X para 
producir la imagen final. 
El desarrollo de la radiofarmacéutica permitió posteriormente en estudios dinámicos observar una persistencia 
osciloscopica, y la copia a mano era obtenida introduciendo películas polaroid en sucesión rápida. 
La introducción de formatos electrónicos incrementó la proporción a la cual, las imágenes podían ser 
adquirida, aumentando la calidad de la imagen. Aparte de las características tomográficas del colimador de 
enfoque en escáneres rectilíneos, el primer instrumento capaz dedar múltiples imágenes a diferentes 
profundidades a partir de un escaneo, fue el escáner tomográfico longitudinal multiplano, construido por Hal 
Anger. (Dena E., Rodriguez N. y Perez D., 1995) 
Un par de cámaras de escaneo daban un total de 12 imágenes tomográficas longitudinales. La tomografía 
longitudinal era realizada con una cámara de Anger, usando un colimador tomográfico rotatorio y con siete 
colimadores de orificio de alfiler. Todos estos instrumentos son ejemplos de tomografías borrosas, algunas 
Neevia docConverter 5.1
veces llamada tomografía de ángulo limitado, no proporcionaban una única solución al problema de la 
distribución espacial de la actividad. 
Esto dio origen a la tomografía de emisión de fotón simple (SPECT por sus siglas en ingles), que deriva de un 
trabajo de Kuhl y Edwars reportado en 1963. (Dena E., Rodriguez N. y Perez D., 1995) 
Un par de detectores colimados opuestos eran movidos en incrementos angulares de 15 grados alrededor del 
sujeto, generando una secuencia de escaneos tangenciales. Cada proyección de retorno era exhibida en tiempo 
real en un osciloscopio, proyecciones múltiples eran integradas en películas fotográficas. 
Unos años después, los datos fueron adquiridos rotando al paciente frente una cámara estacionaria de 
escintilacion, usando computadoras para la reconstrucción de la imagen. 
Desde 1970, la escintigrafía y las cámaras de centelleo permitieron una mejor exploración de numerosos 
tejidos y órganos. Luego surgirían la cámara de positrones, la tomoescintigrafía y el diagnóstico funcional por 
imagen. (Juhn J. y Crumny A., 1987) 
Respecto a la SPECT, el positrón fue concebido originalmente por Dirac (Putman Ch. y Rann C., 1988). 
 en la segunda década del siglo XX, en su teoría combinaba mecánica quántica y la relatividad especial. Fue 
descubierto experimentalmente en 1932, el mismo año que el neutron. El positrón es la antimateria del 
electrón y por lo tanto tiene la misma masa que el electrón pero de carga opuesta. El prototipo original de 
SPECT fue construido por Jaszczac en 1977. (Dena E., Rodriguez N. y Perez D., 1995) 
En los años que siguieron al descubrimiento de Röntgen, la expresión diagnóstico por imagen solo significaba 
radiografía, es decir, el empleo de los rayos X para obtener una placa radiográfica. 
La tomografía por emisión de positrones (PET) cambio este concepto y fue desarrollada antes de la SPECT. 
La primera publicación que describe el concepto de coincidencia y colimación electrónica aparece en 1951. 
Gordon Brownell introduce la idea de la localización de positrones emitidos con detectores duales. En 1953 
Robertson y Nelly por primera vez usan una “tomografía borrosa” con una selección circular de detectores 
Nal(Ti) en 1962. (Juhn J. y Crumny A., 1987) 
 Un desarrollo significativo fue el uso de la cámara multidetectora de cabeza dual por Burham y Brownell en 
1972 que proporcionaba una tomografía focal plana. Estos diseños eran obstaculizados por muestras de datos 
limitadas y la falta de corrección de la atenuación. 
Estos dispositivos no usaban los principios de la tomografía computada, produciendo imágenes de pobre 
calidad. La primera cámara de tomografía por emisión de positrones computada fue desarrollada en 1974 por 
Ter-Pogossian, Phelps, Holffman y Mullani. (Dena E., Rodriguez N. y Perez D., 1995) 
Otro método para la obtención de imágenes es la tomografía axial computada (TAC) o (TC) que fue ideada 
en Londres por el ingeniero físico Gofrey N. Hounsfield en 1972, quien junto con el físico estadounidense de 
origen sudafricano Allan McLeod Cormack, trabajo en la creación y perfeccionamiento de este método de 
imagen. (Juhn J. y Crumny A., 1987) 
 El EEG parte de otros fundamentos distintos de los de la medicina nuclear para la exploración del SNC y fue 
inventado por Hans Berger en 1924, aunque su historia inicia mucho antes. (Martínez V. y Rojas G., 1998) 
En 1770 el italiano Luigi Galvani demostró la existencia de “electricidad animal intrínseca “, pero sus 
observaciones no tuvieron mayor impacto. 
Neevia docConverter 5.1
Las primeras descripciones sobre la existencia de una actividad eléctrica del cerebro, fueron efectuadas por el 
fisiólogo inglés Richard Caton, profesor de fisiología en la Escuela Real de Medicina de Liverpool; Caton 
había recibido influencia de Eduard Hitzig y Gustav Theodor Fritsch quienes habían mostrado evidencia de 
respuestas motoras luego de la estimulación eléctrica en varias áreas de cerebros de perros (Palacios L., 
2002). 
 Caton fue el primero en observar la actividad eléctrica cerebral, continua y espontánea, se refería a esta 
actividad como “corrientes eléctricas en la sustancia gris”. 
El fisiólogo ruso Danileski trabajando de forma independiente y contemporánea a Caton, realizó también 
estudios galvanométricos [los galvanómetros son aparatos que se emplean para indicar el paso de corriente 
eléctrica por un circuito y para la medida precisa de su intensidad, suelen estar basados en los efectos 
magnéticos o térmicos causados por el paso de la corriente] en cerebros de perro (Palacios L., 2002). 
Aproximadamente 15 años después de los descubrimientos de Caton, Adolf Beck, en su tesis doctoral se 
planteaba si existían corrientes eléctricas en el cerebro y en la médula espinal, y en caso de que así fuera, sí 
dichas corrientes tendrían modificaciones durante la actividad (Palacios L., 2002). 
La tesis de Beck describe también la observación de potenciales evocados [exploración neurofisiológica que 
evalúa la función del sistema sensorial y sus vías por medio de respuestas provocadas frente a un estímulo 
conocido y normalizado] visuales y la supresión de la actividad continua de fondo al aplicar diferentes 
estímulos sensoriales. 
El vienés Fleich Von Marxow confirmó la actividad eléctrica rítmica recogida en la superficie de cerebros de 
perros, mediante electrodos impolarizables y describió su desaparición en la anestesia clorofórmica profunda 
(Martínez V. y Rojas G., 1998) 
.El ruso Sechenov publicó sus observaciones sobre los fenómenos galvánicos en el bulbo de la rana, 
describiendo descargas espontáneas modificables por tetanización del nervio ciático. 
A comienzos del siglo XX, los rusos Pavel Kaufman (1912) y Pradvich Neminski (1913) (Citados en Palacios 
L., 2002) fueron los primeros en establecer que los potenciales eléctricos cerebrales se pueden recoger a 
través del cráneo intacto. Previamente realizaron experimentos con perros a los que se les realizaban 
craneotomías, y con electrodos colocados sobre la corteza cerebral, registraron actividad 
electroencefalográfica epileptiforme [actividad eléctrica desorganizada de un conjunto de células cerebrales] 
que además fue registrada por primera vez fotográficamente 
Kaufman describió la existencia de dos períodos bioeléctricos durante la anestesia: el primero de aumento de 
potenciales (fase de excitación) y el segundo con disminución de los mismos (fase de depresión). Neminski, 
utilizando un galvanómetro de cuerda describió por primera vez los distintos ritmos cerebrales captados en 
cerebros de perro de acuerdo con su frecuencia (10 a 15, 20 a 32 ciclos por segundo) bautizando dichas 
oscilaciones con el término “electrocerebrograma” 
Hans Berger, Jefe de la Unidad de Psiquiatría de la Universidad de Jena (Alemania), después de una 
prolongada serie de estudios desde 1902, efectuó el 6 de julio de 1924 el primer registro de las oscilaciones 
rítmicas del cerebro de un joven de 17 años, a través del orificio de una trepanación [escisión mediante cirugía 
Neevia docConverter 5.1
de un fragmento de hueso del cráneo en forma de disco, para llegar al interior de la cavidad craneal] 
utilizando un galvanómetro de cuerda. (Martínez V. y Rojas G., 1998) 
Estaba convencido de que la relación mente-cuerpo no era tan distante, y que existían procesos que unían de 
manera muy cercana al unocon el otro. 
El resultado más importante de los estudios que llevó a cabo fue el descubrimiento de electroencefalograma. 
Para realizar registro electroencefalográfico en humanos, utilizaba electrodos de aguja y un galvanómetro de 
cuerda con un espejo en el que se reflejaba luz que a su vez permitía la exposición de papel fotográfico de 
bromuro de plata que se movía a 3 cm por segundo, en 1929 publicó su descubrimiento de actividad eléctrica 
cerebral espontánea en humanos. 
 Designó con letras del alfabeto griego los dos tipos de ondas que había observado en los trazados realizados a 
seres humanos (Martínez V. y Rojas G., 1998) 
Las de mayor voltaje y menor frecuencia fueron denominadas ondas alfa, las de menor voltaje y mayor 
frecuencia, ondas beta. 
El primer registro de actividad eléctrica cerebral poniendo los electrodos en contacto directo con la corteza 
cerebral (electrocorticografía) fue llevado a cabo por Forester y Altenburger en 1935. (Palacios L., 2002) 
El fisiólogo y electroencefalografista Alexander Forbes trabajó intensamente en las etapas iniciales de la 
amplificación con tubos de vacío [dispositivos electrónicos que consisten en una cápsula de vacío de acero o 
de vidrio, con dos o más electrodos entre los cuales pueden moverse libremente los electrones]. Los 
amplificadores empezaron a utilizarse muy rápidamente en los electroencefalógrafos a escala global. 
(Martínez V. y Rojas G., 1998) 
Jasper y Hunter lograron posteriormente realizar con una sola cámara registro simultáneo del EEG y de la 
actividad del paciente mediante un sistema de espejos colocado sobre el paciente y sobre el trazado 
electroencefalográfico; en los años 50 la televisión hizo que el proceso fuese menos complicado (Martínez V. 
y Rojas G., 1998). 
En 1960 los transistores que habían sido inventados en 1947, reemplazaron los amplificadores con tubos de 
vacío en los electroencefalógrafos logrando un mejor registro gráfico. Los mismos transistores hicieron 
posible el manejo computarizado de todos los aspectos de la electroencefalografía. (Martínez V. y Rojas G., 
1998) 
Finalmente en los últimos años se han desarrollado diversos métodos para lograr mapeos cerebrales a partir 
del EEG, incluyendo la posibilidad de obtener imágenes en tres dimensiones. 
La característica más notable de las técnicas de neuroimagen es que se sustentan en principios físicos, todos 
ellos expresados mediante funciones derivadas de modelos matemáticos que simplifican a un modo manejable 
estos conceptos que de otro modo serian muy complejos, al igual que en los apartados anteriores a 
continuación veremos como ha sido la evolución de los modelos matemáticos a través de la historia. 
 
 
 
Modelos matemáticos 
Neevia docConverter 5.1
 
Aunque las matemáticas siempre estuvieron relacionadas a problemas de la vida cotidiana, fue en el último 
milenio donde se hizo un esfuerzo más notorio para llevarlas a la solución de problemas cada vez más 
complejos. 
En el pasado el estudio de la trayectoria de un proyectil, entre otros fue un elemento importante a considerar y 
el matemático italiano Tartaglia (1500-1557) escribió un tratado de artillería, llegando a ser Galileo Galilei 
(1564-1642) quien demostró que la trayectoria que seguían los proyectiles al ser lanzados con cierta velocidad 
inicial es parabólica. (Dym C. y Wallenius K., 2003) Galileo dio origen al método científico-analítico, el 
cual, aunado al método de la razón de descartes (1596-1642) termino con el tipo de ciencia que se había 
desarrollado en la edad media. 
Con el nacimiento del calculo infinitesimal por obra de Isaac Newton (1642-1727) y Gottfried Leibniz (1646-
1716), se incorporo a la matemática el estudio del cambio, la matemática paso a ser el estudio del numero, la 
forma, el movimiento, el cambio y el espacio. (Edwars C. y Penney D., 1996) 
Un éxito de la matemática de los siglos XVII y XVIII fue aportar a las leyes de la mecánica y del movimiento 
de los planetas, modelos matemáticos que concordaban con las observaciones. 
Gran parte del prestigio de los matemáticos yacía en las aplicaciones que podían obtener, muchos de los 
principales matemáticos hasta el siglo XIX se ocuparon del desarrollo interno de su ciencia y de sus 
vinculaciones con el mundo real. 
Una aproximación a las teorías tuvo su origen a finales del siglo XIX, el positivismo de Comte y Mach se 
unió a los avances de la lógica y las matemáticas para producir un movimiento llamado positivismo lógico. 
Los positivistas lógicos dividieron el lenguaje de la ciencia en tres conjuntos de términos: observación, 
teóricos y matemáticos. (Hardy, 1998) 
Los términos de observación se refieren a propiedades de la naturaleza observables directamente y son 
considerados verdaderos sin lugar a dudas. 
Los términos teóricos suscitaban por otra parte, el problema del realismo, se negaba que los términos teóricos 
tuvieran referente alguno. Termino por afirmarse que los términos teóricos obtenían su sentido y su 
significación epistemológica por la vía de las definiciones operacionales. 
Las definiciones operacionales o términos lógico-matemáticos eran el tercer tipo de sentencias que los 
positivistas lógicos aceptaban, son sentencias que contenían un término teórico y otro de observación con el 
que el primero se conectaba. 
El desarrollo de las matemáticas aplicadas en la actualidad de acuerdo a Clements (Clements, 1989) fue del 
siguiente modo: 
El movimiento para incorporar las aplicaciones de la matemática a la enseñanza tuvo auge con Felix Klein 
(1849-1925), quien contribuyo a la creación del Instituto de Investigación Aerodinámica e Hidrodinámica 
donde se hacia matemática aplicada. Klein sostenía que debían desarrollarse los medios además de los 
contenidos y la necesidad de vincular la matemática abstracta con las aplicaciones. 
Neevia docConverter 5.1
El advenimiento de la segunda guerra mundial dio un impulso a la matemática aplicada, el objetivo de vencer, 
condujo a una parte importante de los matemáticos mas eminentes de ambos bandos a centrar todos sus 
esfuerzos intelectuales hacia el objetivo común de ganar la guerra. 
Entre ellos destaca John Von Neumann quien dio una definición de modelo en los siguientes términos: 
“Por un modelo significamos un constructo matemático el cual, con la adición de ciertas interpretaciones 
verbales, describe fenómenos observados. La justificación de un constructo matemático tal es solo y 
precisamente para trabajar, esto es, para describir fenómenos desde un área ampliamente razonable. Mas aun 
debe satisfacer cierto criterio estético, que esta en relación con lo que describe y debe ser bastante simple.” 
(Newman, 1941 citado en Clements, 1989) 
En las últimas décadas se ha concretado en diversos países una opinión favorable a la introducción de los 
modelos matemáticos como una estrategia de enseñanza-aprendizaje a partir de las cuales se han propuesto 
diversas metodologías para realizar modelos matemáticos. 
Klamkin en 1971 (Clements, 1989), propuso un modelo de cinco pasos en el proceso de resolución de 
problemas, los pasos son: 
1) Reconocimiento 
2) Formulación 
3) Solución 
4) Calculo 
5) Explicación 
Lin (1976) (Citado en Clements, 1989) introduce el concepto de la evaluación de los resultados del proceso de 
modelado en el ultimo paso, adiciona otro importante concepto a los modelos matemáticos, la idea de que a 
menudo no existe un único modelo que sea mejor o mas apropiado a un problema determinado, pero alguno 
de entre un rango de posibles modelos puede ser útil para algunos propósitos, y otro modelo serlo para un 
propósito distinto dentro del mismo problema. 
Woods en (1969) (Citado en Clements, 1989), proporciona una descripción del proceso de aplicación de 
modelos matemáticos a problemas, el cual es muy similar a lo propuesto por Lin. 
Hay tres fases distintas en la aplicación de las matemáticas a los fenómenosnaturales: 
1) La formulación de un modelo idealizado en lenguaje matemático. 
2) La solución del problema matemático y la deducción de resultados capaces de verificación experimental 
3) La comparación de observación y teoría, con la evaluación de la validez del modelo. 
El último paso puede llevar a mejoras en el modelo y los pasos deben ser repetidos. 
Hasta este momento los procesos de modelos eran lineales. 
Los primeros modelos iteradores [Iteración se refiere a la acción de repetir una serie de pasos un cierto 
número de veces] ven su desarrollo a partir de autores como Hall que en 1972 describe un proceso de 
modelado matemático que contiene un camino de retorno del paso final de validación al del reconocimiento 
inicial del problema y la formulación del paso de modelado. (Clements , 1989) 
En este sentido Hall refiere que: 
Neevia docConverter 5.1
“Las bases del modelado es el método científico, excepto que el énfasis es en encontrar una forma matemática 
para la teoría científica. El proceso comienza desde alguna situación empírica dada, la cual nos reta a explicar 
sus regularidades obvias o descubrir sus leyes ocultas” (Hall, 1972 citado en Clements, 1989) 
Bajpai junto a su grupo de trabajo en 1975 (Clements, 1989) conciben la metodología del modelado 
matemático como un diagrama de flujo [representación gráfica de los pasos de un proceso, que se realiza para 
entenderlo mejor]: 
a) Observar 
b) Formulación del problema 
c) Experimentar con diferentes factores para aislar los más importantes 
d) Determinar el modelo físico y la naturaleza de la solución requerida 
e) Simplificar y producir el modelo matemático 
f) ¿Puede este modelo ser resuelto analítica/numéricamente? 
Si No f1) Dibujar grafica y/o producir formula empírica e) 
g) Obtener solución 
h) Interpretar la solución físicamente 
i) ¿Permite la solución confirmar la observación? 
Si No c) 
j) Predicción de la conducta 
D’Inverno y McLone (1977) (Citados en Clements, 1989), proponen una metodología con un proceso de seis 
pasos: 
1) Seleccionar lo esencial del problema, aunque nada se considere innecesario. 
2) Construir un modelo idealizado 
3) Aplicar el análisis matemático al modelo 
4) Interpretación de los resultados en términos del problema inicial 
5) Si es posible comparar los resultados con la observación 
6) Si es necesario modificar el modelo. 
Penrose (1978) (Citado en Clements, 1989) presenta un proceso de dividido en seis pasos dentro de una 
progresión circular: 
1) Especificar el problema real 
2) Proponer un modelo 
3) Formular el problema matemático 
4) Resolver el problema matemático 
5) Interpretar la solución 
6) Comparar con la realidad 
Si el resultado no es satisfactorio volver al paso 1) las veces que sea necesario 
Penrose (1978) (Citado en Clements, 1989) refuerza el punto dado por D’Inverno y McLone (1977) (Citados 
en Clements, 1989) acerca de empezar con un modelo simple y progresivamente desarrollar versiones mas 
Neevia docConverter 5.1
complejas del mismo durante iteraciones sucesivas en el proceso. Dicho procedimiento obviamente solo es 
posible mediante metodologías iterativas. 
Bukhardt (1977) (Citado en Clements, 1989) usa un diagrama de flujo similar al de Penrose, sin embargo el 
elabora su modelo con mas bucles de retroalimentación internos como el proceso de Bajpai. 
 
 
El tema de la división del modelaje matemático en aquellas actividades que están basadas en el mundo real y 
aquellas que son actividades matemáticas abstractas aparecen en los trabajos de Burkhardt, Burghes y 
Clements (Clements, 1989). Este último afirma que los más recientes usuarios de los modelos matemáticos 
son mayormente extraídos de las áreas biológicas, medicas, administrativas etc. 
Checkland (1981) (Citado en Clements, 1989) desarrolla una metodología basada en sistemas, que pretende 
ser más avanzada en el desarrollo de los modelos matemático. Reconoce que en una amplia variedad de 
contextos científicos, de ingeniería y biológicos, hay entidades que exhiben propiedades que solo se vuelven 
aparentes a un cierto nivel de complejidad. 
Para estas propiedades el análisis por las técnicas reduccionistas empleadas en el método científico, carece de 
sentido. La existencia de estas propiedades lleva a un marco de trabajo conceptual dentro del cual las 
características de la complejidad organizada, puede ser analizada, clasificada y discutida. 
En este capitulo se han expuesto los orígenes históricos de los tres factores considerados en este trabajo, como 
se vio la mayor parte de su desarrollo ha sido paralelo; para poder comprender su relación respecto a esta tesis 
debemos analizar detenidamente cada uno de ellos, en el siguiente capitulo se va a describir el proceso 
consciente desde diversas perspectivas, pues un evento complejo es mas fácil intentar comprenderlo si se le 
acota desde distintos frentes. 
 
 
 
 
 
 
Neevia docConverter 5.1
Capitulo 3 
Consciencia 
El estudio moderno de la consciencia lo inician la psicología y la neurología alrededor de 1800. 
La consciencia como una actividad psíquica superior debido a su complejidad, resulta más adecuado 
plantearla mediante una aproximación e integración de los procesos conscientes más evidentes. La base de la 
consciencia parece estar en la organización de los niveles más bajos del sistema nervioso, pero el proceso 
consciente como tal, corresponde a la plenitud compuesta aferencias, elaboraciones y respuestas en la cual se 
ven envueltas estructuras corticales y subcorticales (Guirao-Piñeiro M. y Morales H, 1997). 
No es valido buscar un centro anatómico exclusivo de la consciencia, debido a que es poco probable la 
existencia de una región del SNC que abarque un fenómeno tan amplio y que sea distinta de otras estructuras 
que sirven como base para los demás procesos psíquicos superiores considerados separadamente. 
Tampoco debe cometerse el error de considerar a la consciencia como una actividad exclusiva de la corteza 
cerebral, aunque esta sea el último desarrollo evolutivamente hablando, su funcionamiento depende de las 
demás estructuras (Nava R, 2001) 
En su desarrollo filogenético [la filogenia es la determinación de la historia evolutiva de los organismos] y 
ontogénico [la ontogenia (también llamada morfogénesis u ontogénesis) describe el desarrollo de un 
organismo, desde el óvulo fertilizado hasta su forma adulta], el ser humano va adquiriendo niveles de 
organización neural que para otros animales son definitivos, pero que al hombre le permiten adquirir 
progresivamente en su camino capacidades existenciales mas complejas. (Gómez T. y Carreras G., 2003) 
En cuanto a sus bases más que hablar de neuronas individuales conviene hablar de sistemas neuronales que se 
forman a partir de la plasticidad cerebral; esto por que si bien es cierto que la neurona es la unidad 
organizacional mas pequeña con que cuenta el SNC la perdida de una o algunas de ellas no limita de modo 
alguno los procesos de los cuales formaban parte y a su vez una sola neurona puede ser parte de procesos 
distintos colaborando con diferentes grupos de neuronas (Brownds M., 1999). 
 
Diferenciación de términos 
Como se menciono anteriormente, existen muchos usos de la palabra consciencia, esto sucede incluso dentro 
de la misma investigación los tres usos más frecuentes para el uso del término son: 
1.- Consciencia como estado de vigilia. (Kryger M, Roth T. y Dement W., 2000) 
Todos los seres vivos contamos con un patrón temporal de periodos en los cuales estamos activos y otros 
inactivos, en los seres mas evolucionados el periodo de inactividad corresponde al sueño. 
El estado en el que nos encontramos despiertos se caracteriza por actividad eléctrica desincronizada de bajo 
voltaje y alta frecuencia, por el contrario la fase en que se pierde toda percepción del entorno se caracteriza 
por actividad sincronizada de alto voltaje y bajafrecuencia. A estos estados deben agregarse casos especiales 
como el sueño MOR (Movimientos Oculares Rápidos) y el estado de coma. 
Bajo esta conceptualización el estado de consciencia equivaldría a estar despierto. 
Neevia docConverter 5.1
Aquí es la formación reticular la que juega un papel relevante pues alerta a las estructuras corticales, 
involucrándose en el proceso sueño-vigilia donde se producen periodos cíclicos de consciencia e 
inconsciencia. (Kryger M, Roth T. y Dement W., 2000) 
2.- Consciencia como estado de alerta. (Nava R., 2001) 
El termino soñar despierto, se aplica usualmente en aquellos casos en los que una persona por momentos deja 
de estar atenta a lo que sucede en el ambiente circundante, esto ocurre regularmente cuando se realizan 
actividades monótonas o repetitivas, solo cuando ocurre un evento que modifica ese sistema se recupera ese 
estado de atencion o percatación. 
Lo que diferenciaría el estado de percatación de un estado de alerta es la intencionalidad, que como ya se 
menciono es lo que se dirige hacia algo o representa algo (Nava R. 2001). 
La percatacion (awareness en ingles) introduce un agente que esta en vuelto cuando la atención es dirigida 
voluntariamente a algún evento (La Berge David en Baars, 2003) 
“Aplicando estos conceptos al terreno de la consciencia podemos indicar que “consciente” se puede usar en 
sentido intencional o en sentido no intencional, y el uso intencional se subsume al de “percatarse”” (Nava, 
2001) 
El estado no intencional correspondería al estado de alerta o estar pendiente. 
3.- Consciencia como estado de autoconocimiento. 
Se refiera al estado en el cual un ser vivo es capaz de percibirse a si mismo, implica la construcción de un 
“yo”, capaz de diferenciarse del entorno y tener una correspondencia interna autoreferencial. (Hasper, 1998) 
Este proceso es lo que en apariencia nos hace superiores a las demás especies animales. 
En un principio estos usos del término parecen distintos unos de otros, pero si se observa mas a fondo es 
posible darse cuenta que cada uno de los estados mencionados es una gradación de un solo proceso. 
Para que ocurra la autoreferencia es necesario dirigir la atencion hacia los procesos que usamos de modo 
intencional para interactuar con el ambiente, lo que en otras palabras seria la percatación de nuestra propia 
percatación. 
Del mismo modo para que la percatación y la alerta ocurran se requiere estar en vigilia, sin importar en cual 
aspecto queramos enfocarnos, todos se originan en el SNC. 
Existen postulados que hablan de distintas formas de consciencia, como la asociada al pensar, las emociones 
etc. Bajo este rubro la autoconsciencia se considera un caso especial de la consciencia. (Crick F. y Koch Ch., 
1998) 
Para intentar discernir como ocurre todo este proceso es necesario tener en cuenta dos aspectos totalmente 
biológicos: el filogenético y el ontogénico. 
 
 
 
 
 
 
Neevia docConverter 5.1
Filogenia de la conciencia 
El surgimiento del sistema nervioso ocurrió aproximadamente hace 500 millones de años y hace 10 millones 
de años aparecieron los homínidos. La marcha bípeda apareció en los últimos 5 millones de años, y 
finalmente el hombre, cuenta con una historia de 2 millones de años, la aparición del homo Sapiens Sapiens, 
ocurrió en los últimos 100.000 años, a partir del cual se consolidó el lenguaje y la consciencia de sí. 
(Macphail, E., 1998) 
Para que esto ocurriera, tuvieron lugar eventos críticos claves que pueden ser resumidos en: 
Potencial de acción y mielinización 
La mielinización mejoró la velocidad de comunicación y permitió una comunicación más eficiente sin 
necesidad de aumentar el tamaño del cerebro. (Carruthers P. y Chamberlain A., 2000) 
Estabilidad y variabilidad en las estructuras cerebrales 
La neocorteza, en contraste con el sistema serotoninérgico presente en todos los vertebrados, sólo está 
presente en los mamíferos. La neocorteza es una capa plegada de tejido neural, de un par de milímetros de 
grosor y su surgimiento es paralelo al de funciones cada vez más elaboradas y complejas (Lopera F., 2004) 
. Índice de encefalización 
El cerebro de los primates tiende a ser unas 2 a 3 veces mayor que el de los no-primates del mismo peso 
corporal, y el de los seres humanos pesa aproximadamente lo mismo que el de los chimpancés, pero es tres 
veces mayor que el de los simios, y su neocorteza es 3.2 veces la del chimpancé. (Lopera F., 2004) 
El córtex antiguo así como sus funciones sensoriales y motrices permanece sin modificaciones y conserva su 
funcionamiento simétrico. La asimetría cerebral o pliegues del neocortex por otra parte han permitido un gran 
crecimiento del neo-neocórtex, sin demasiado crecimiento del cerebro. 
 Cinco particularidades del neo-neocórtex: 1a. Desde el punto de vista filogenético es el último en 
aparecer, ya que es específico del desarrollo de los homínidos. 2a. Ontogenéticamente es el último en 
madurar, como lo demuestra la mielinización retardada y el retardo del desarrollo de las dendritas y las 
sinapsis. 3a. Presenta una asimetría funcional, como lo demuestran las habilidades del lenguaje, 
espaciovisuales y musicales. El hemisferio izquierdo se especializó como un analizador de lenguaje, y el 
derecho como un sintetizador de formas. 4a. En los jóvenes se caracteriza por una gran plasticidad, como lo 
indica la posibilidad de compensaciones de lesiones. 5a. La entrada en acción del neoneocórtex se asocia 
con una gran variedad de funciones como: la consciencia y la consciencia de sí, la reflexión, la memoria, los 
sentimientos, la imaginación y la creatividad. (Lopera F., 2004) 
Visión panorámica y frontal 
La visión frontal mejoro la calidad de la imagen y la percepción de profundidad, pero genero una desventaja 
que fue la pérdida de visión panorámica, disminuyendo la capacidad para detectar depredadores. La respuesta 
a esa limitación pudo haber sido la evolución de sistemas neurales para la cooperación social y la producción 
de vocalizaciones que avisaran la presencia de depredadores, dando origen al desarrollo de sistemas de 
comunicación entre los animales. (Macphail, E., 1998) 
Neevia docConverter 5.1
Darwin sugirió que la evolución de la inteligencia está vinculada al hecho de vivir en grupos sociales. 
Cuanto mayor es el tamaño de la neocorteza con respecto al resto del cuerpo, mayor es el tamaño del grupo 
social en los primates. (Lopera F., 2004) 
 Los mamíferos requieren una estrecha y prolongada relación parental, lo que a su vez estimula el desarrollo 
de conductas de socialización. 
El lenguaje en la evolución de los homínidos 
La línea de los hominoides se dividió hace unos 9-10 millones de años en la línea de los homínidos y la línea 
de los póngidos. Las regiones del lenguaje eran completamente rudimentarias en los póngidos, el aparato 
neural para la conducta pseudos-lingüística quizá existió ya en los antepasados comunes de simios y seres 
humanos. (Carruthers P. y Chamberlain A., 2000) 
El desarrollo de un sistema simbólico permitió a los seres humanos tempranos comunicarse acerca de objetos 
que no estaban presentes, este sistema simbólico facilitó la transmisión de conocimiento de una generación a 
otra. (Cohen J. y Schooler J., 1997) 
El manejo de símbolos se ve favorecido en gran medida por el lenguaje y una vez que este lenguaje logra 
interiorizarse alrededor de los tres años, es posible que el niño reflexione sobre si, esto conduciría a una 
consciencia reflexiva. (Gómez T. J. y Carreras G. A., 2003) 
Nada en los primates superiores corresponde al área de Broca. Las áreas parietales inferiores (giro angular, 
supramarginal), son más grandes en los humanos, con respecto a los simios. La aparición de las áreas 39 y 40 
se han incrementado en una proporción superior a 3,2; son las últimas en mielinizar en el desarrollo 
ontogenético, y las únicas estructuras que han aparecido en el curso de laevolución del cerebro humano. Se 
considera que el homo Hábilis es el origen del lenguaje verbal. (Macphail, E., 1998) 
Estos precedentes evolutivamente propician la aparición de la consciencia. 
Puesto que en los animales no existe la consciencia esta “representa una novedad porque las especies de 
donde procede no tenían sino un rudimento de «conciencia de sí»... La «conciencia de sí» se puede 
identificar en la evolución, con los ritos de enterramiento, que se iniciaron hace 80.000 años, entre los 
hombres de Neandertal. Se puede pensar que la «conciencia de sí» en el curso de la evolución precede a la 
conciencia traumática de la muerte, que se expresa en los ritos funerarios”. (Lopera, 2004) 
Existen algunas posturas que consideran plausible que algunas especies animales, poseen algunas 
características esenciales de consciencia pero no todas, por lo tanto un sistema de lenguaje como el de los 
humanos, no es esencial para la consciencia. (Crick F. y Koch Ch., 1998) 
Pero la capacidad para manejar símbolos si parece necesaria al menos para los contenidos auto-referenciales, 
aunque este manejo de símbolos no requiere la comprensión de un lenguaje hablado como se puede observar 
en personas con ausencia de uno o varios de sus sentidos. (Nava R., 2001) 
Una vez analizados los contenidos evolutivos, debemos mirar hacia el desarrollo del ser humano, pues la 
consciencia no aparece sino hasta determinado estado de madurez como podrá observarse en el siguiente 
apartado. 
 
 
Neevia docConverter 5.1
Ontogenia de la consciencia 
Hay un momento en nuestra vida en el cual adquirimos la capacidad para darnos cuenta sobre nuestros 
aspectos cognitivos, emotivos y conductuales, generando introspección. 
Lo hallado sobre el desarrollo humano, muestra que una persona al nacer ya cuenta con la mayoría de las 
estructuras del SNC desarrolladas, pero existen otras que aun deben madurar. (Nava R., 2001) 
Esta justificado preguntarse entonces si el proceso de la consciencia emerge en algún punto en particular del 
desarrollo y que estructuras son necesarias para su aparición. 
Al nacer ya contamos con un sistema limbico maduro, esta involucrado en las primeras respuestas que son de 
tipo motor, como los reflejos y reacciones simples; que destacan por ser limitadas y previsibles. (Carretie A. e 
Iglesias D., 2000) 
El sistema limbico junto al circuito de Papez controla las funciones de los instintos, memoria y un analizador 
rítmico temporal que permitirán la diferenciación entre el propio cuerpo y el mundo exterior (Gómez T. y 
Carreras G., 2003) 
Alrededor de los tres meses la integración de estímulos que se produce en el tálamo, adquiere importancia al 
incrementar la recepción sensorial; esta información debe ser seleccionada y filtrada lo que permite una 
mayor diferenciación del entorno. 
En esta selección, Gómez y Carrera sugieren que se daría una primera forma de consciencia, estaría más 
ligada a la atencion sobre las características de un elemento y seria consciencia a nivel talamico. 
Alrededor de los 7 meses se da un paso más con la interacción del sistema tálamo-cortical, esta interacción 
permite ejecutar acciones automatizadas que permite dirigir la atencion hacia otra tarea. 
En este sentido “el desplazamiento de la atencion a diversos objetos sin necesidad de abandonar actividades 
básicas que se realizan simultáneamente, crea progresivamente la vivencia de la experiencia de agente y 
posibilita la percepción de otros agentes como distintos de el” (Gómez T. y Carreras G., 2003) 
Posteriormente la maduración de los sistemas corticales permitirá la independencia del estimulo físico, de la 
permanencia mental del objeto; esto es posible por la capacidad para representar dichos estímulos y sus 
propiedades sin necesidad de su presencia. 
El desarrollo del SNC continúa hasta la mielinización de la conexión interhemisférica entre los 8 y los 9 
años. 
Gómez y Carrera (2003) apuestan por un modelo que denominan integrador y modular para explicar la 
consciencia; los supuestos de este modelo son: A) Existencia de mecanismos innatos para desarrollar 
procesos de análisis y memorización que determinan una experiencia biográfico.-emocional. B) La 
maduración de las conexiones tálamo-corticales marca la diferenciación entre acciones conscientes 
intencionales y acciones automatizadas no-conscientes. C) La atencion por estructuras talamicas otorga el 
aspecto subjetivo y biográfico en la experiencia. D) La corteza parietal elabora la cosnciencia del cuerpo 
como unidad y del espacio circundante. E) La corteza frontal por introyección del lenguaje, permite un 
análisis reflexivo sobre el agente actuante viéndolo como un objeto de observación, distinto biográfica y 
emocionalmente de los otros objetos. F) La conexión interhemisférica multiplica las posibilidades para que el 
“yo” biográfico emocional, reflexione sobre si mismo. 
Neevia docConverter 5.1
De acuerdo a su propuesta entonces el “yo” se genera a partir de la experiencia que se va organizando a través 
del tiempo y se integra jerárquicamente a partir del desarrollo de las diferentes estructuras del SNC. 
Al estar involucradas diferentes estructuras del SNC en el proceso consciente, el cuestionamiento importante 
es como se genera la consciencia a partir de estas estructuras y como es la participación de las mismas. Esto 
nos conduce a un problema conocido como correlato neural de la consciencia, que se vera a continuación. 
 
Correlato neural de la consciencia 
Los primeros estudios enfocados en observar las áreas involucradas en experiencias conscientes, estaban 
inspirados en aquellos realizados en los mapeos cerebrales para localizar áreas de otras funciones como el 
lenguaje, la audición etc. (Hasper H., 1998) 
Los resultados obtenidos demostraron que la idea sobre un centro de la consciencia era errónea, pues no había 
registros que permanecieran constantes ni siquiera a la hora de repetir las mismas actividades incluso para un 
mismo individuo. (Hasper H., 1998) 
Se presento entonces un problema metodológico a resolver, si se deseaba entender al menos parcialmente el 
proceso de la consciencia había que estudiar aspectos mas elementales de la misma. 
Una propuesta para la solución de este problema fue el de estudiar, la consciencia de los estímulos a través de 
los sentidos. 
De todos los sentidos, la visión es considerada la mejor opción, esta elección se basa en el hecho de que los 
seres humanos son animales muy visuales, a su vez las percepciones visuales son vividas y ricas en 
información. Adicionalmente la entrada de señales visuales es altamente estructurada y fácil de controlar. 
(Crick F. y Koch Ch., 1998) 
Por otra parte el sistema visual se adapta como un mecanismo muy eficiente para la integración flexible de 
información característica, en estados posteriores de procesamiento, áreas corticales son organizadas 
retinotopicamente, esto es que las neuronas tienen propiedades simples del campo receptivo y las células con 
propiedades similares funcionales son agrupadas juntas en conjuntos funcionales. (Singer W. y Gray C., 
1995) 
Estos autores al problema del correlato neural adicionan el problema del significado que se refiere a ¿cómo 
es que el cerebro sabe lo que el disparo de las neuronas significa? y ¿cómo es que el significado de esto, es 
generado en el cerebro? 
Crick propone que el significado deriva de los disparos correlacionados y de sus vínculos con 
representaciones similares. 
Un método desarrollado para el estudio de la consciencia usando la visión es el de Rivalidad Binocular 
(Tononi G., Srinivasan R., Russell D. y Edelman G., 1998) 
Este método consiste en que si dos estímulos visuales incongruentes entre si son presentados simultáneamente 
uno en cada ojo, solo uno de los estímulos es percibido conscientemente y las dos percepciones se van 
alternando cada pocos segundos. 
Las bases de este método

Continuar navegando