Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
“C NECESA MAT QUE L DIR MÉ UNI AU FA CONSCIE ARIOS PA TEMÁTIC N E PARA LICENC JUAN JO RECTOR: D XICO, D. IVERSID UTÓNOM ACULTAD NCIA Y R ARA ESTA CO BASAD NEUROIM T E OBTEN CIADO E PRESE OSÉ GA DR. ARMA F. DAD NA MA DE M D DE PSIC REQUERI ABLECER DO EN TÉ MAGEN” S I S ER EL T EN PSICO ENTA: AJÓN BO ANDO NA ACIONA MÉXICO COLOGÍA IMIENTO R UN MO ÉCNICAS TÍTULO OLOGÍA OLAÑOS AVA RIVE 200 AL O A OS ODELO S DE DE: A S ERA 09 Neevia docConverter 5.1 UNAM – Dirección General de Bibliotecas Tesis Digitales Restricciones de uso DERECHOS RESERVADOS © PROHIBIDA SU REPRODUCCIÓN TOTAL O PARCIAL Todo el material contenido en esta tesis esta protegido por la Ley Federal del Derecho de Autor (LFDA) de los Estados Unidos Mexicanos (México). El uso de imágenes, fragmentos de videos, y demás material que sea objeto de protección de los derechos de autor, será exclusivamente para fines educativos e informativos y deberá citar la fuente donde la obtuvo mencionando el autor o autores. Cualquier uso distinto como el lucro, reproducción, edición o modificación, será perseguido y sancionado por el respectivo titular de los Derechos de Autor. A Dios Por todo cuanto es, tan complejo como para mantener entretenida a la humanidad durante su breve estancia en este mundo HONOR Y GLORIA A las personas significativas en mi vida Pasadas, presentes y futuras; por acompañarme en este extraño pero fascinante viaje llamado vida AMOR Y LEALTAD A mi Por comprender finalmente que todo aquel que se divide contra si mismo esta condenado a la derrota SABIDURIA Y PAZ “Dichoso aquel que siendo puesto a prueba, ha soportado las tentaciones, pues a el sera entregada la corona de la vida” Kumiko Noma, “Lilium” Opening Elfen Lied Neevia docConverter 5.1 INDICE Introducción .................................................................................................................................... 1 Capitulo 1 Metodología................................................................................................................... 4 Consideraciones previas................................................................................................................. 4 Preguntas de investigación............................................................................................................. 4 Factores o dimensiones................................................................................................................... 5 Procedimiento................................................................................................................................. 5 Actividades de análisis de la información...................................................................................... 6 Capitulo 2 Antecedentes.................................................................................................................. 8 Psicología de la consciencia........................................................................................................... 8 Técnicas de Neuroimagen.............................................................................................................. 10 Modelos matemáticos..................................................................................................................... 15 Capitulo 3 Consciencia.................................................................................................................... 19 Diferenciación de términos............................................................................................................. 19 Filogenia de la consciencia............................................................................................................. 20 Ontogenia de la consciencia........................................................................................................... 22 Correlato neural de la consciencia.................................................................................................. 24 Consciencia y atención................................................................................................................... 25 Consciencia y cognición................................................................................................................. 26 Actividad oscilatoria y sincronización........................................................................................... 27 Capitulo 4 Técnicas de neuroimagen............................................................................................. 30 Electroencefalograma..................................................................................................................... 30 Tomografía por emisión de positrones........................................................................................... 33 Tomografía por rayos X................................................................................................................. 36 Resonancia magnética nuclear....................................................................................................... 38 Magnetoencefalografía................................................................................................................... 40 Capitulo 5 Modelos matemáticos................................................................................................... 45 Construcción de un modelo............................................................................................................ 45 Metodología sugerida para desarrollar un modelo matemático.................................................. 46 Técnicas útiles en la formulación de modelos matemáticos......................................................... 47 Ecuaciones de diferencia................................................................................................................ 49 Ecuaciones diferenciales................................................................................................................51 Variables por azar........................................................................................................................... 52 Modelo empírico............................................................................................................................ 53 Modelos por sistemas..................................................................................................................... 53 Capitulo 6 Discusión........................................................................................................................ 57 Capitulo 7 Conclusiones.................................................................................................................. 59 Referencias....................................................................................................................................... 62 Neevia docConverter 5.1 Introducción Plantearse la capacidad para tener conocimiento de si mismo, implica tener noción sobre la existencia como individuo. Esta capacidad, en apariencia hace diferente y superior a la especie humana de otras especies animales. ¿Qué es lo que hace posible que el ser humano pueda cuestionarse su existencia, su papel en esta vida? Preguntas de este tipo, se dejaron a lo largo de la historia en manos de pensadores y religiosos, cuyas respuestas a estas interrogantes suelen involucrar factores ajenos a la propia especie, siendo la mas característica el concepto de deidad, aunque no la única. A falta de respuestas convincentes, la misma humanidad se ha encargado de formular otros modos para observar y explicar la vasta cantidad de fenómenos que ocurren a su alrededor. Uno de estos sistemas de pensamiento sobre la realidad es la ciencia; esta en particular se ha encargado de dar respuestas a interrogantes que permanecieron sin respuesta por mucho tiempo y otras respuestas cuyas preguntas ni siquiera éramos capaces de imaginar. Parte de su éxito deriva de la capacidad para explicar y realizar predicciones con un determinado grado de certidumbre sobre los fenómenos que estudia. Aunque este modo de observar e interpretar la realidad ha resultado muy efectivo en muchos ámbitos en los que se desenvuelve el ser humano, en otras áreas al parecer no aporta ayuda significativa. Estas áreas se caracterizan por no poseer atributos cuantitativos capaces de ser abordados por las técnicas del método científico, son fenómenos que no podemos manipular de modo tal que su ocurrencia sea evidente para todos. Este tipo de fenómenos son llamados subjetivos, por que no hay evidencia directa de su presencia. Un fenómeno aparentemente subjetivo muy conocido y experimentado por todos, es el conocimiento de nosotros mismos ó autoconsciencia. Cada uno de nosotros es capaz de vivenciar su mundo interno, lleno de ideas, valores morales, juicios lógicos, imaginación etc. Sin embargo no podemos decir lo mismo de las experiencias de otros, a diferencia de los atributos corporales como el peso o la presión sanguínea que cuentan con instrumentos y reglas de comparación, la consciencia no posee una localización física en particular que nos permita bosquejar al menos algún tipo de medida. Se podría pensar que la consciencia entonces esta alejada del dominio de la ciencia, como si este fenómeno fuera algo totalmente ajeno a nuestros procesos corporales y por tanto más allá de toda posible explicación. Se generaron diversas respuestas en torno a la consciencia, algunas tan extremas como la de negar su existencia, afortunadamente el negar un fenómeno no hace que este desaparezca y nuevamente este tipo de eventos han sido incluidos en las agendas de investigación. Un problema mas, es la confusión de términos, pues no es raro ver que en el lenguaje común la consciencia se equipare a valores morales o incluso la inteligencia. El alejamiento de la consciencia como objeto de estudio de la ciencia y su consecuente inclusión como fenómeno subjetivo, es similar al que en su momento tuvieron la epilepsia interpretada como posesión Neevia docConverter 5.1 demoníaca, los temblores a consecuencia del movimiento de elefantes montados sobre una tortuga o la tierra como centro del universo. Lo que nos muestra de un modo constante la historia es que la subjetividad o fenómenos inexplicables son solo la falta de modelos teóricos e instrumentación adecuada para su abordaje. Y el hecho de que no se disponga de ellos en el momento presente no implica que no podrá disponerse de ellos en el futuro. Su obtención se encuentra en los aciertos y errores de aquellos que se atreven a iniciar su travesía en la vastedad de esa área sin explorar. El problema radica cuando no existe quien se atreva a dar los primeros pasos, cuando se prefiere la comodidad de seguir los dictados de la corriente de pensamiento vigente, lo que provoca estancamiento y propicia la conservación de conceptos erróneos. El problema por resolver en torno a la consciencia, consiste en lograr medir algo “subjetivo”. Primero se debe tener en consideración que no toda medida es directa, decir que la consciencia no es verificable por ninguno de nuestros sentidos es tan acertado como decir que la gravedad tampoco lo es. Sin embargo, nuevamente esto no significa que por no contar con los métodos adecuados para un registro directo, un fenómeno deje de existir. Sabemos por otra parte, que a través de medidas indirectas de determinadas variables y apoyadas con la instrumentación adecuada podemos inferir la presencia de un suceso determinado sin necesidad de contrastarlo directamente. Para visualizar mejor esto último imaginemos un caso de gripa, nuestro cuerpo se fatiga, la temperatura corporal se eleva, las vías respiratorias de bloquean etc. A partir de todas estas variables inferimos de modo indirecto que tenemos “gripa” aunque esta ultima como tal esta fuera de nuestra percepción sensorial, esto es verdad a pesar de que sentimos claramente cada uno de sus molestos síntomas. Lo mismo podemos decir del trafico, nuestro recorrido se vuelve lento, vemos muchos autos avanzando a vuelta de rueda etc. Entonces inferimos que hay “trafico”, aunque este fenómeno vial por si mismo, no lo registremos directamente a través de nuestros sentidos. Respecto al uso de la instrumentación, la psicología en sus inicios tuvo dificultades no solo instrumentales sino también operacionales, esta fue la causa de que diversas problemáticas planteadas inicialmente dentro de su objeto de estudio, no se abordaran del modo adecuado y terminaran siendo evadidas como fue el caso la consciencia. Aunque el déficit tecnológico en muchas ocasiones ha sido superado por el ingenio y un uso novedoso de las herramientas disponibles, simplemente hay ocasiones en las que es necesaria la llegada de una innovación tecnológica para poder ver una problemática desde otra perspectiva. Las técnicas de neuroimagen particularmente, han permitido a los psicólogos encontrar las áreas del cerebro implicadas en fenómenos como la memoria, la percepción, las emociones etc. Es así como a partir de observaciones indirectas, en este caso la actividad del sistema nervioso central, pueden ser comprendidos estos sucesos. Aunque la descripción detallada de un evento por sí misma ya es muy buena, esto no nos da una explicación del evento realmente. La comprensión total del fenómeno solo es posible cuando somos capaces de reproducirlo ó de hacer pronósticos y predicciones sobre el mismo. Neevia docConverter 5.1 Cualquiera de estas opciones implica la elaboración de un modelo; un modelo como representación tiene el objetivo de hacer una conceptualización de la realidad en términos cognitivos y simbólicos que lo hagan mas entendible y fácil de comunicar. Los modelos son de muchos tipos diferentes, pero tienen una característica en común, son conceptos inventados y se construyencon la intención de que correspondan tan exactamente como sea posible con el mundo real, aunque esto no implica que un modelo sea una replica exacta de la realidad. Los modelos en la ciencia buscan ser lo mas simples posibles y generalmente se enfocan solo en los aspectos mas fundamentales del fenómeno, un modo de conseguir esto es mediante representaciones numéricas o de medida. Para llegar a estas representaciones numéricas es necesaria la elaboración de funciones que nos permitan conocer de que modo las variables se influyen entre ellas. Son estas funciones lo que se conoce como modelos matemáticos, puesto que los modelos matemáticos describen cantidades es susceptible el plantear experimentos que den veracidad o refuten sus afirmaciones. Es entonces la finalidad de esta tesis el hacer una investigación documental sobre los diferentes postulados generados sobre la consciencia, el fundamento teórico así como el funcionamiento de las técnicas de neuroimagen y los principios para la elaboración de modelos matemáticos. Todo esto con el objetivo de concluir si es posible o no la propuesta de un modelo matemático en torno a la consciencia a partir de técnicas de neuroimagen. De ser factible la propuesta de un modelo, la consciencia dejaría el campo de la subjetividad para ser un fenómeno abordable y objeto de experimentación. Para ser objeto de experimentación no solo debe sortear problemas metodológicos y conceptuales, es necesario a su vez apegarse a estrictas normas éticas tanto en su ejecución como en la aplicación de cualquier conocimiento que de ello derive. El primer capitulo se dedicara al aspecto metodológico utilizado para la elaboración de este trabajo. En el segundo capitulo se abordaran los antecedentes históricos, en el estudio de la consciencia, los orígenes de las técnicas de neuroimagen y la elaboración de modelos matemáticos aplicados en la ciencia. El tercer capitulo abordara las tendencias actuales en cuanto al estudio de la consciencia, solo se hará mención de aquellas propuestas sustentadas en factores fisiológicos. Aunque existen otras aproximaciones como las filosóficas o físicas, es difícil plantearse una corroboración empírica de las mismas. En el cuarto capitulo se expondrán las diversas técnicas de imagen utilizadas en las exploraciones del sistema nervioso, abarcando fundamentos físicos y biológicos. En el quinto capitulo se analizaran los modelos matemáticos en cuanto a sus fines, tipos y herramientas matemáticas utilizadas, dependiendo del tipo de problema. Finalmente en el apartado de discusión y conclusiones, en base a la información proporcionada a lo largo de la tesis se determinara si es factible elaborar un modelo matemático sobre la consciencia y utilizar técnicas de neuroimagen como instrumentos de medida cuantitativa para determinar la veracidad predictiva del modelo en cualquier experimento propuesto para su corroboración. Neevia docConverter 5.1 Capitulo 1 Metodología Consideraciones previas Las referencias que hacen uso de los tres contenidos principales de este trabajo, son muy limitadas, generalmente las referencias halladas son trabajos que solo incluyen los términos Consciencia-Técnicas de Neuroimagen (TN), Consciencia-Modelos Matemáticos (MM) ó TN-MM. Los primeros trabajos se caracterizan por ser descriptivos en cuanto a la actividad del SNC durante procesos conscientes, estos trabajos son realizados desde las neurociencias. El segundo tipo de trabajo se caracteriza por ser abstracto y hacer uso de las teorías informáticas como base, esto se desarrolla desde las ciencias de la computación y las matemáticas. Finalmente en el tercer rubro, los modelos que se desarrollan se refieren directamente a la operación del instrumento y su funcionamiento, siendo su desarrollo desde el área física y de la ingeniería. Debido a esta limitación es preferible desarrollar cada factor de manera independiente, lo cual en un principio puede dar la sensación de que sus temáticas no están conectadas. Sin embargo la importancia de los tres factores reside en lo siguiente: Si la consciencia es un objeto de estudio de la ciencia, debe existir un constructo teórico que le de sustento. Dicho constructo teórico debe ser capaz de someterse a la prueba de realidad, esto es, ser empíricamente verificable. El modo de hacer esto es mediante hipótesis predictivas en términos cuantitativos. Esto implica forzosamente el desarrollo de un modelo matemático que explique los aspectos relevantes del sistema que estudiamos. Para obtener estas medidas se necesita de instrumentos precisos y aunque las TN parecen adecuadas no debe perderse de vista que su invención y desarrollo estuvo estrictamente ligado a fines médicos. Preguntas de investigación. Las preguntas que intentan responderse mediante este trabajo son: 1. ¿Existe evidencia empírica sobre el fenómeno de la consciencia? 2. ¿Las técnicas de neuroimagen pueden ser utilizadas para estudiar la consciencia? 3. ¿En que se fundamentan las técnicas de neuroimagen? 4. ¿Existen metodologías que permitan elaborar modelos matemáticos de sistemas complejos como los psicofisiológicos? Si las respuestas a 1, 2 y 4 son afirmativas: 5. ¿Se puede elaborar un modelo matemático de la consciencia basado en técnicas de neuroimagen como instrumentos de medida? Neevia docConverter 5.1 Factores o dimensiones. a) La consciencia es un fenómeno psicológico de carácter privado que no puede ser medido de modo directo, cuya característica principal es la percatación [estar enterado o darse cuenta] de los contenidos cognitivos, emotivos y conductuales extrínsecos e intrínsecos a la propia persona. b) Las técnicas de neuroimagen son procedimientos metodológicos y técnicos que permiten inferir diversos fenómenos del SNC mediante el registro de cambios fisiológicos que ocurren en el mismo. c) Los modelos matemáticos son constructos que permiten elaborar una representación de un fenómeno de la realidad que permite definirlo, predecirlo y contrastarlo. Procedimiento. Recabamiento de información Se recurrió a tesis, libros y artículos de revistas especializadas, los temas a revisar fueron: Para la consciencia.- -Consciencia -Psicología cognitiva -Psicofisiología -Psicobiología Para las técnicas de neuroimagen.- -Instrumentación -Psicología experimental -Técnicas de registro psicofisiológico -Metodología de investigación en Psicología Para modelos matemáticos.- -Matemáticas aplicadas -Modelos matemáticos -Métodos numéricos Los criterios para la selección de material por factor fueron: Consciencia.- Solo se tomo aquella información que se refería a la consciencia en los términos aquí expuestos, evitando la consciencia como moralidad u otros usos de esta palabra, aunque muchas áreas hacen uso del mismo termino, no llegan a compartir el mismo significado o se usa para definir situaciones ambiguas alejadas de la connotación que aquí se pretende dar; se dio prioridad a la información que respaldara sus argumentos con investigaciones o que planteara el uso de las matemáticas como una aproximación. Neevia docConverter 5.1 Técnicas de neuroimagen.- Se dio prioridad a la información que estaba centrada en el funcionamiento y fundamento de la técnica; así como la transformación de la señal psicofisiológica en términos de medida, para esto se recurrió en específico a manuales técnicos o compendios que explicaran las bases físicas y biológicas a partir de las cuales es posible entender su funcionamiento, puesto que este conocimiento se puede encontrar en cualquier libro especializado y no depende de algún autor en particular se tomaron los textos que explicaran las técnicas del modo mas sencillo posible. Modelos matemáticos.- Se concentro en la búsqueda de información referente a las metodologías empleadas para la elaboraciónde modelos complejos, en específico de modelos biológicos. Existe una gran cantidad de herramientas matemáticas, el grado de complejidad de cada una varia así como las áreas en que pueden ser aplicadas, aunque la Psicología cuenta con las herramientas estadísticas, se considero que tal vez puedan ser utilizadas otras herramientas para el estudio de la consciencia. Actividades de análisis de la información Primero se reunió todo el material referente a la consciencia, tomando en consideración los diferentes tipos de explicación de la misma y su proceso. Solo quedaron incluidos en la tesis aquellos trabajos que tenían un perfil empírico y/ó fisiológico, esto último debido a que otros paradigmas como el filosófico o el físico no son susceptibles de corroboración experimental, los primeros por plantear constructos que insisten en la subjetividad del fenómeno y los otros por ser totalmente teóricos, incluyendo cuestiones como la mecánica quántica. Problemas similares se presentan cuando el abordaje de la consciencia se hace desde la antropología, la lingüística etc. Por perfil empírico y fisiológico se hace referencia a trabajos que involucran planteamientos de hipótesis y verificación experimental con sujetos vivos, estando en las hipótesis, implicado el SNC. Serán los resultados y conclusiones de estos trabajos los que se mencionen a lo largo del trabajo. Posteriormente se revisaron las técnicas de registro de la actividad cerebral, con sus puntos a favor y en contra, así como las bases biológicas y físicas que les dan sustento. En este punto es importante saber si es justificado usar las técnicas de neuroimagen para los estudios que se han hecho referentes a la consciencia, pues muchas de estas técnicas fueron creadas para facilitar diagnósticos médicos. Finalmente se examinaron las metodologías para elaborar modelos matemáticos de fenómenos de complejidad variable, en este aspecto quienes se dedican al desarrollo de modelos coinciden en que todo aspecto de la realidad puede ser modelado al menos parcialmente sin importar su complejidad. Es importante entender que un modelo de este tipo no tiene que implicar linealidad para poder realizar predicción y que puede involucrar más de dos variables. Neevia docConverter 5.1 Una vez elaborados estos puntos se consideró que se tenía la información suficiente para: 1) Determinar cuál es la mejor técnica de registro aplicable al fenómeno de la consciencia. 2) Si los registros obtenidos mediante esta técnica, cuantitativamente pueden utilizarse dentro del marco de cualquier modelo matemático que pueda ser elaborado para intentar explicar el proceso consciente. La metodología empleada en este trabajo documental, solo nos permitirá concluir si es factible o no la propuesta de esta tesis. En todo trabajo de investigación se puede cometer el error de llegar a falsas conclusiones o repetir las interpretaciones que ya otros han realizado, por eso es necesario recurrir a la historia para verificar como han evolucionado los conceptos que se estudian, eso permite tener una visión con mas perspectiva que permita evitar la mayor cantidad de errores en el tratamiento documental de los criterios que conformaron este trabajo. En el siguiente capitulo se mencionan los antecedentes históricos mas relevantes en los tópicos que conforman esta tesis. Neevia docConverter 5.1 Capitulo 2 Antecedentes Para entender el estado actual del estudio de la consciencia es necesario tener claros sus orígenes así como la evolución de la instrumentación para el estudio del SNC. La instrumentación utilizada para la exploración del SNC, nos permite inferir algunos fenómenos que no son evidentes a simple vista, como las áreas corticales involucradas en los procesos sensoriales, el ciclo sueño vigilia, etc. La información proporcionada solo es de utilidad si es interpretada a partir de un modelo del fenómeno que deseamos estudiar. El modo de representar los fenómenos naturales a través de modelos ha variado con el tiempo en la ciencia, es necesario entonces ver como han ido progresando el desarrollo de los modelos, en específico los matemáticos. Estos últimos son importantes en la medida que se desee una explicación y no solo una descripción del fenómeno, aunque en un inicio su aplicación era exclusiva de las ciencias exactas, su utilidad se ha extendido a las ciencias biológicas y sociales. Para poder aplicar esto al proceso consciente, primero se debe entender como ha evolucionado este concepto históricamente, por lo tanto se abordara la historia de la psicología de la consciencia. Psicología de la consciencia. La consciencia a pesar de ser un evento continuo en la existencia humana, el modo de entenderle ha variado de un momento a otro. En las mitologías y religiones nuestro estado consciente deriva del don otorgado por alguna entidad superior, aunque estas ideas no se refieren directamente al termino consciencia, las palabras anima, soplo de vida, espíritu etc. nos conducen a conceptos similares, las diversas mitologías sobre el origen del hombre en parte coinciden sobre el hecho de que el hombre al inicio es una especie de animal o constructo, y solo se vuelve humano hasta recibir esta dadiva divina que lo aleja del mundo animal. Pero el hecho de adquirir consciencia del mundo y del sí mismo se llego a considerar como una ofensa contra estas entidades, que castigan a la humanidad por arrebatar un don que no les corresponde, la historia de la expulsión del paraíso por comer del fruto prohibido es muy textual en este aspecto: “10Este contestó: te oí andar por el jardín y tuve miedo, por que estoy desnudo; por eso me escondí. 11El replico: ¿Quién te ha hecho ver que estabas desnudo? ¿Has comido acaso del árbol que te prohibí comer?”(Gen 3) Otro relato conocido es el del tormento eterno de Prometeo por robar el fuego a los dioses y entregárselo a la humanidad, ejemplos como estos podemos encontrarlos en diversas culturas. Este tipo de visión desemboco en una posición dualista de una esencia etérea y un cuerpo físico que le sirve como vinculo con el reino material, “el fantasma en la armadura” (Grande, G. 2001). Neevia docConverter 5.1 Estas ideas se mantuvieron con pocos cambios a lo largo de la historia, hasta que es incorporado el concepto de mente que a pesar de seguir siendo un atributo de origen divino, ya tiene un asiento material en la cabeza. Sin embargo se sigue sosteniendo un enfoque dualista, en el que mente es una entidad separada del cerebro, este es solo un conducto o herramienta material por la cual se manifiesta la primera. (Nava, R. 2001) Aunque los pensadores trataron de responder sobre el tema, es con la llegada de la psicología cuando todas estas ideas empiezan a adquirir nombres y definiciones. Siguiendo las máximas positivistas, la psicología tuvo que iniciar el desmembramiento de un todo integrado en partes delimitadas y acotadas para su estudio, es así como ven la luz constructos y conceptos como percepción, lenguaje, pensamiento, memoria, emoción, conducta etc. La psicología como disciplina científica tuvo sus orígenes en el último cuarto del siglo XIX, derivada de la fisiología y la filosofía de la mente llamada psicología a mediados del siglo (Hardy, 1998). Muchos están de acuerdo en que Wilhelm Wundt (1832-1920) (Hardy, 1998) fue el medico-filosofo que estableció la psicología como una disciplina académica e hizo todo lo posible por que se reconociera a la Psicología como una ciencia. Wundt en 1873 definió por primera vez a la psicología científica, cuya tarea como nueva ciencia, era investigar los procesos que están a mitad de la experiencia externa e interna, de acuerdo a su definición: “Comienza en los procesos fisiológicos y como estos procesos influyen en el dominio de la observación interna... Si se desea enfatizarsus características metodologicas, podría denominarse a nuestra ciencia como Psicología experimental, para distinguirla de la ciencia corriente de la mente que se basa exclusivamente en la introspección.” (Wundt, 1873 citado en Hardy, 1998) Con esta definición manifestaba que la psicología debe estar apegada a los procesos fisiológicos para el estudio de los fenómenos cognitivos y basarse en métodos empíricos. La Psicología científica de Wunt sostenía que el sistema nervioso era la base de todos los fenómenos mentales. Definiendo a la Psicología como la investigación de las condiciones fisiológicas de los sucesos conscientes permitía la posibilidad del reduccionismo, que consistía en explicar los sucesos mentales y conductuales en función de causas fisiológicas. En Heildenberg, Wundt consideraba a la psicología como una ciencia natural, consideraba que el método experimental seria el responsable de llevar a la mente al ámbito de la ciencia natural, aunque en un inicio no identifico la mente con la consciencia, si lo haría posteriormente. (Hardy, 1998). Reconoció que solo podría construirse una ciencia de la consciencia a partir de resultados objetivos, obtenidos utilizando condiciones estandarizadas que fueran susceptibles de variación sistemática y duplicación. Wundt al final terminaría excluyendo el estudio de los procesos mentales superiores de la psicología fisiológica y su método de introspección experimental para el estudio de los procesos superiores terminaría siendo reemplazado por el método histórico. (Hardy, 1998). Para Wundt los sentimientos de actividad, control y unidad eran los que definían al “sí mismo”, lo que no explica es como son generados estos “sentimientos”, lo que sigue sin dar una respuesta convincente. Neevia docConverter 5.1 La generación posterior a Wundt creía que los procesos mentales superiores tendrían que observarse directamente si la psicología iba a ser una ciencia erigida a partir de hechos positivos. El método de introspección de Wundt, fue sustituido por la “introspección sistemática”. Se analizaban detalladamente los eventos mentales después de su ocurrencia, mediante la respuesta a preguntas que otras personas planteaban. (Hardy, 1998) La exactitud de los informes sufría limitaciones de la memoria y de la tendencia humana a inventar recuerdos. Franz Brentano (1878-1917) (Citado en Hardy, 1998) propuso una psicología orientada al descubrimiento y descripción de los contenidos de la consciencia; de acuerdo a esto, los actos mentales se dirigen a contenidos, pero el acto es mucho más importante que el contenido, a partir de aquí surge el concepto de intencionalidad como criterio. Lo que sugería es que los estados mentales poseen intencionalidad es decir, están dirigidos siempre hacia algo o representan algo. Debido a cuestiones históricas y metodologicas la psicología de la consciencia fue abandonada, permitiendo el auge del conductismo y su dominio posterior en Psicología, enfocándose en la conducta, la cual podía ser descrita y ser sujeta a experimentación. La consciencia debió esperar décadas hasta la llegada de las teorías cognitivas e informáticas para ver la luz una vez más. A partir de la década de los 80’s una gran cantidad de estudios sobre procesos conscientes han aparecido en la literatura psicológica y de neurociencias bajo diversos encabezados, apoyándose para su realización en las técnicas de neuroimagen. Estas técnicas son parte de una metodología mucho más rigurosa de la que podía obtenerse al inicio de la Psicología, aunque el desarrollo es paralelo su unión se dio mucho después, es importante tener noción de los sucesos que desembocaron en su desarrollo y que son descritos a continuación. Técnicas de neuroimagen. Uno de los primeros descubrimientos de medios no invasivos para el estudio de las funciones corporales fue el hallazgo de la radioactividad por Becquerel en 1896 dos meses después de que Röntgen descubriera los rayos X (Juhn J. y Crumny A., 1987). Estudios subsecuentes identificaron tres tipos de emisiones: Partículas positivas (alfa) Partículas negativas (beta) Radiación altamente penetrante (gama) Los efectos biológicos de la radiación fueron reconocidos casi inmediatamente, cuando una mancha roja apareció en el abdomen de Becquerel (Dena E., Rodriguez N. y Perez D., 1995) después de que cargara una muestra de radio en su bolsillo durante un viaje a Londres para presentar una conferencia sobre su trabajo. En 1934 Irene y Fréderic Joliot Curie (Putman Ch. y Rann C., 1988) descubrieron la radiactividad artificial que dio impulso a las aplicaciones médicas. Neevia docConverter 5.1 Se fabricaron isótopos radiactivos [son aquellos que tienen un núcleo atómico inestable (por el balance entre neutrones y protones) y emiten energía cuando cambia de esta forma a una más estable] de la mayor parte de los elementos naturales, gracias a la radiación [propagación de energía en forma de ondas electromagnéticas o partículas subatómicas a través del vacío o de un medio material] que emitían, se podía seguir en el interior del organismo humano su destino o el de las moléculas en los que se habían introducido. Georg Von Heves por su parte inició el empleo de los trazadores en 1913, con radioisótopos naturales. En 1922, Antoine Lacassagne descubre el principio de la autoradiografía. Con estos precursores se dieron las bases de la medicina nuclear que experimentó un rápido desarrollo entre 1935 y 1939, sobre todo a partir de 1945 en adelante (Juhn J. y Crumny A., 1987). En 1947 Kallman creo un detector de escintilacion [dispositivo que se utiliza en los exámenes de medicina nuclear para detectar la radiactividad a partir de centelleos y producir imágenes que ayudan a diagnosticar enfermedades] utilizando cristales orgánicos de naftalina adjuntados a la cara de un fototubo multiplicador [serie de placas metálicas dispuestas de forma que la emisión fotoeléctrica se amplifica mediante una emisión eléctrica secundaria, es capaz de detectar radiaciones extremadamente débiles]. Aunque tosco, era más sensitivo que un tubo de Geiger-Meuller. Hofstadter modifico el diseño básico para producir un detector más sensible, adicionando pequeñas cantidades de talio y yoduro de sodio. (Putman Ch. y Rann C., 1988) El desarrollo de estos dispositivos, sin embargo debió esperar el refinamiento del tubo fotomultiplicador y circuitos de conteo, los cuales realmente no estuvieron disponibles hasta después de la segunda guerra mundial. En 1949 Cassen construyo el primer escáner rectilíneo, el detector era de calcio y tungsteno; el colimador [sistema que a partir de un haz divergente obtiene un haz paralelo, sirve para homogeneizar las trayectorias o rayos que, emitidos por una fuente, salen en todas direcciones y obtiene un conjunto de rayos con las mismas propiedades] era una pieza densa de plomo con un orificio de ¼’. (Putman Ch. y Rann C., 1988). Un radiólogo en Stanford invento el colimador focal de multiorificio, que aumento la sensibilidad al proveer del equivalente mecánico de unos lentes de rayos gama. En adición el colimador focal también producía imágenes tomográficas. El contraste fue mejorado por la introducción de la fotomodulación por Kuhl en 1956 (Putman Ch. y Rann C., 1988), la luz de una lámpara brillante era enfocada en una película de rayos X para producir la imagen final. El desarrollo de la radiofarmacéutica permitió posteriormente en estudios dinámicos observar una persistencia osciloscopica, y la copia a mano era obtenida introduciendo películas polaroid en sucesión rápida. La introducción de formatos electrónicos incrementó la proporción a la cual, las imágenes podían ser adquirida, aumentando la calidad de la imagen. Aparte de las características tomográficas del colimador de enfoque en escáneres rectilíneos, el primer instrumento capaz dedar múltiples imágenes a diferentes profundidades a partir de un escaneo, fue el escáner tomográfico longitudinal multiplano, construido por Hal Anger. (Dena E., Rodriguez N. y Perez D., 1995) Un par de cámaras de escaneo daban un total de 12 imágenes tomográficas longitudinales. La tomografía longitudinal era realizada con una cámara de Anger, usando un colimador tomográfico rotatorio y con siete colimadores de orificio de alfiler. Todos estos instrumentos son ejemplos de tomografías borrosas, algunas Neevia docConverter 5.1 veces llamada tomografía de ángulo limitado, no proporcionaban una única solución al problema de la distribución espacial de la actividad. Esto dio origen a la tomografía de emisión de fotón simple (SPECT por sus siglas en ingles), que deriva de un trabajo de Kuhl y Edwars reportado en 1963. (Dena E., Rodriguez N. y Perez D., 1995) Un par de detectores colimados opuestos eran movidos en incrementos angulares de 15 grados alrededor del sujeto, generando una secuencia de escaneos tangenciales. Cada proyección de retorno era exhibida en tiempo real en un osciloscopio, proyecciones múltiples eran integradas en películas fotográficas. Unos años después, los datos fueron adquiridos rotando al paciente frente una cámara estacionaria de escintilacion, usando computadoras para la reconstrucción de la imagen. Desde 1970, la escintigrafía y las cámaras de centelleo permitieron una mejor exploración de numerosos tejidos y órganos. Luego surgirían la cámara de positrones, la tomoescintigrafía y el diagnóstico funcional por imagen. (Juhn J. y Crumny A., 1987) Respecto a la SPECT, el positrón fue concebido originalmente por Dirac (Putman Ch. y Rann C., 1988). en la segunda década del siglo XX, en su teoría combinaba mecánica quántica y la relatividad especial. Fue descubierto experimentalmente en 1932, el mismo año que el neutron. El positrón es la antimateria del electrón y por lo tanto tiene la misma masa que el electrón pero de carga opuesta. El prototipo original de SPECT fue construido por Jaszczac en 1977. (Dena E., Rodriguez N. y Perez D., 1995) En los años que siguieron al descubrimiento de Röntgen, la expresión diagnóstico por imagen solo significaba radiografía, es decir, el empleo de los rayos X para obtener una placa radiográfica. La tomografía por emisión de positrones (PET) cambio este concepto y fue desarrollada antes de la SPECT. La primera publicación que describe el concepto de coincidencia y colimación electrónica aparece en 1951. Gordon Brownell introduce la idea de la localización de positrones emitidos con detectores duales. En 1953 Robertson y Nelly por primera vez usan una “tomografía borrosa” con una selección circular de detectores Nal(Ti) en 1962. (Juhn J. y Crumny A., 1987) Un desarrollo significativo fue el uso de la cámara multidetectora de cabeza dual por Burham y Brownell en 1972 que proporcionaba una tomografía focal plana. Estos diseños eran obstaculizados por muestras de datos limitadas y la falta de corrección de la atenuación. Estos dispositivos no usaban los principios de la tomografía computada, produciendo imágenes de pobre calidad. La primera cámara de tomografía por emisión de positrones computada fue desarrollada en 1974 por Ter-Pogossian, Phelps, Holffman y Mullani. (Dena E., Rodriguez N. y Perez D., 1995) Otro método para la obtención de imágenes es la tomografía axial computada (TAC) o (TC) que fue ideada en Londres por el ingeniero físico Gofrey N. Hounsfield en 1972, quien junto con el físico estadounidense de origen sudafricano Allan McLeod Cormack, trabajo en la creación y perfeccionamiento de este método de imagen. (Juhn J. y Crumny A., 1987) El EEG parte de otros fundamentos distintos de los de la medicina nuclear para la exploración del SNC y fue inventado por Hans Berger en 1924, aunque su historia inicia mucho antes. (Martínez V. y Rojas G., 1998) En 1770 el italiano Luigi Galvani demostró la existencia de “electricidad animal intrínseca “, pero sus observaciones no tuvieron mayor impacto. Neevia docConverter 5.1 Las primeras descripciones sobre la existencia de una actividad eléctrica del cerebro, fueron efectuadas por el fisiólogo inglés Richard Caton, profesor de fisiología en la Escuela Real de Medicina de Liverpool; Caton había recibido influencia de Eduard Hitzig y Gustav Theodor Fritsch quienes habían mostrado evidencia de respuestas motoras luego de la estimulación eléctrica en varias áreas de cerebros de perros (Palacios L., 2002). Caton fue el primero en observar la actividad eléctrica cerebral, continua y espontánea, se refería a esta actividad como “corrientes eléctricas en la sustancia gris”. El fisiólogo ruso Danileski trabajando de forma independiente y contemporánea a Caton, realizó también estudios galvanométricos [los galvanómetros son aparatos que se emplean para indicar el paso de corriente eléctrica por un circuito y para la medida precisa de su intensidad, suelen estar basados en los efectos magnéticos o térmicos causados por el paso de la corriente] en cerebros de perro (Palacios L., 2002). Aproximadamente 15 años después de los descubrimientos de Caton, Adolf Beck, en su tesis doctoral se planteaba si existían corrientes eléctricas en el cerebro y en la médula espinal, y en caso de que así fuera, sí dichas corrientes tendrían modificaciones durante la actividad (Palacios L., 2002). La tesis de Beck describe también la observación de potenciales evocados [exploración neurofisiológica que evalúa la función del sistema sensorial y sus vías por medio de respuestas provocadas frente a un estímulo conocido y normalizado] visuales y la supresión de la actividad continua de fondo al aplicar diferentes estímulos sensoriales. El vienés Fleich Von Marxow confirmó la actividad eléctrica rítmica recogida en la superficie de cerebros de perros, mediante electrodos impolarizables y describió su desaparición en la anestesia clorofórmica profunda (Martínez V. y Rojas G., 1998) .El ruso Sechenov publicó sus observaciones sobre los fenómenos galvánicos en el bulbo de la rana, describiendo descargas espontáneas modificables por tetanización del nervio ciático. A comienzos del siglo XX, los rusos Pavel Kaufman (1912) y Pradvich Neminski (1913) (Citados en Palacios L., 2002) fueron los primeros en establecer que los potenciales eléctricos cerebrales se pueden recoger a través del cráneo intacto. Previamente realizaron experimentos con perros a los que se les realizaban craneotomías, y con electrodos colocados sobre la corteza cerebral, registraron actividad electroencefalográfica epileptiforme [actividad eléctrica desorganizada de un conjunto de células cerebrales] que además fue registrada por primera vez fotográficamente Kaufman describió la existencia de dos períodos bioeléctricos durante la anestesia: el primero de aumento de potenciales (fase de excitación) y el segundo con disminución de los mismos (fase de depresión). Neminski, utilizando un galvanómetro de cuerda describió por primera vez los distintos ritmos cerebrales captados en cerebros de perro de acuerdo con su frecuencia (10 a 15, 20 a 32 ciclos por segundo) bautizando dichas oscilaciones con el término “electrocerebrograma” Hans Berger, Jefe de la Unidad de Psiquiatría de la Universidad de Jena (Alemania), después de una prolongada serie de estudios desde 1902, efectuó el 6 de julio de 1924 el primer registro de las oscilaciones rítmicas del cerebro de un joven de 17 años, a través del orificio de una trepanación [escisión mediante cirugía Neevia docConverter 5.1 de un fragmento de hueso del cráneo en forma de disco, para llegar al interior de la cavidad craneal] utilizando un galvanómetro de cuerda. (Martínez V. y Rojas G., 1998) Estaba convencido de que la relación mente-cuerpo no era tan distante, y que existían procesos que unían de manera muy cercana al unocon el otro. El resultado más importante de los estudios que llevó a cabo fue el descubrimiento de electroencefalograma. Para realizar registro electroencefalográfico en humanos, utilizaba electrodos de aguja y un galvanómetro de cuerda con un espejo en el que se reflejaba luz que a su vez permitía la exposición de papel fotográfico de bromuro de plata que se movía a 3 cm por segundo, en 1929 publicó su descubrimiento de actividad eléctrica cerebral espontánea en humanos. Designó con letras del alfabeto griego los dos tipos de ondas que había observado en los trazados realizados a seres humanos (Martínez V. y Rojas G., 1998) Las de mayor voltaje y menor frecuencia fueron denominadas ondas alfa, las de menor voltaje y mayor frecuencia, ondas beta. El primer registro de actividad eléctrica cerebral poniendo los electrodos en contacto directo con la corteza cerebral (electrocorticografía) fue llevado a cabo por Forester y Altenburger en 1935. (Palacios L., 2002) El fisiólogo y electroencefalografista Alexander Forbes trabajó intensamente en las etapas iniciales de la amplificación con tubos de vacío [dispositivos electrónicos que consisten en una cápsula de vacío de acero o de vidrio, con dos o más electrodos entre los cuales pueden moverse libremente los electrones]. Los amplificadores empezaron a utilizarse muy rápidamente en los electroencefalógrafos a escala global. (Martínez V. y Rojas G., 1998) Jasper y Hunter lograron posteriormente realizar con una sola cámara registro simultáneo del EEG y de la actividad del paciente mediante un sistema de espejos colocado sobre el paciente y sobre el trazado electroencefalográfico; en los años 50 la televisión hizo que el proceso fuese menos complicado (Martínez V. y Rojas G., 1998). En 1960 los transistores que habían sido inventados en 1947, reemplazaron los amplificadores con tubos de vacío en los electroencefalógrafos logrando un mejor registro gráfico. Los mismos transistores hicieron posible el manejo computarizado de todos los aspectos de la electroencefalografía. (Martínez V. y Rojas G., 1998) Finalmente en los últimos años se han desarrollado diversos métodos para lograr mapeos cerebrales a partir del EEG, incluyendo la posibilidad de obtener imágenes en tres dimensiones. La característica más notable de las técnicas de neuroimagen es que se sustentan en principios físicos, todos ellos expresados mediante funciones derivadas de modelos matemáticos que simplifican a un modo manejable estos conceptos que de otro modo serian muy complejos, al igual que en los apartados anteriores a continuación veremos como ha sido la evolución de los modelos matemáticos a través de la historia. Modelos matemáticos Neevia docConverter 5.1 Aunque las matemáticas siempre estuvieron relacionadas a problemas de la vida cotidiana, fue en el último milenio donde se hizo un esfuerzo más notorio para llevarlas a la solución de problemas cada vez más complejos. En el pasado el estudio de la trayectoria de un proyectil, entre otros fue un elemento importante a considerar y el matemático italiano Tartaglia (1500-1557) escribió un tratado de artillería, llegando a ser Galileo Galilei (1564-1642) quien demostró que la trayectoria que seguían los proyectiles al ser lanzados con cierta velocidad inicial es parabólica. (Dym C. y Wallenius K., 2003) Galileo dio origen al método científico-analítico, el cual, aunado al método de la razón de descartes (1596-1642) termino con el tipo de ciencia que se había desarrollado en la edad media. Con el nacimiento del calculo infinitesimal por obra de Isaac Newton (1642-1727) y Gottfried Leibniz (1646- 1716), se incorporo a la matemática el estudio del cambio, la matemática paso a ser el estudio del numero, la forma, el movimiento, el cambio y el espacio. (Edwars C. y Penney D., 1996) Un éxito de la matemática de los siglos XVII y XVIII fue aportar a las leyes de la mecánica y del movimiento de los planetas, modelos matemáticos que concordaban con las observaciones. Gran parte del prestigio de los matemáticos yacía en las aplicaciones que podían obtener, muchos de los principales matemáticos hasta el siglo XIX se ocuparon del desarrollo interno de su ciencia y de sus vinculaciones con el mundo real. Una aproximación a las teorías tuvo su origen a finales del siglo XIX, el positivismo de Comte y Mach se unió a los avances de la lógica y las matemáticas para producir un movimiento llamado positivismo lógico. Los positivistas lógicos dividieron el lenguaje de la ciencia en tres conjuntos de términos: observación, teóricos y matemáticos. (Hardy, 1998) Los términos de observación se refieren a propiedades de la naturaleza observables directamente y son considerados verdaderos sin lugar a dudas. Los términos teóricos suscitaban por otra parte, el problema del realismo, se negaba que los términos teóricos tuvieran referente alguno. Termino por afirmarse que los términos teóricos obtenían su sentido y su significación epistemológica por la vía de las definiciones operacionales. Las definiciones operacionales o términos lógico-matemáticos eran el tercer tipo de sentencias que los positivistas lógicos aceptaban, son sentencias que contenían un término teórico y otro de observación con el que el primero se conectaba. El desarrollo de las matemáticas aplicadas en la actualidad de acuerdo a Clements (Clements, 1989) fue del siguiente modo: El movimiento para incorporar las aplicaciones de la matemática a la enseñanza tuvo auge con Felix Klein (1849-1925), quien contribuyo a la creación del Instituto de Investigación Aerodinámica e Hidrodinámica donde se hacia matemática aplicada. Klein sostenía que debían desarrollarse los medios además de los contenidos y la necesidad de vincular la matemática abstracta con las aplicaciones. Neevia docConverter 5.1 El advenimiento de la segunda guerra mundial dio un impulso a la matemática aplicada, el objetivo de vencer, condujo a una parte importante de los matemáticos mas eminentes de ambos bandos a centrar todos sus esfuerzos intelectuales hacia el objetivo común de ganar la guerra. Entre ellos destaca John Von Neumann quien dio una definición de modelo en los siguientes términos: “Por un modelo significamos un constructo matemático el cual, con la adición de ciertas interpretaciones verbales, describe fenómenos observados. La justificación de un constructo matemático tal es solo y precisamente para trabajar, esto es, para describir fenómenos desde un área ampliamente razonable. Mas aun debe satisfacer cierto criterio estético, que esta en relación con lo que describe y debe ser bastante simple.” (Newman, 1941 citado en Clements, 1989) En las últimas décadas se ha concretado en diversos países una opinión favorable a la introducción de los modelos matemáticos como una estrategia de enseñanza-aprendizaje a partir de las cuales se han propuesto diversas metodologías para realizar modelos matemáticos. Klamkin en 1971 (Clements, 1989), propuso un modelo de cinco pasos en el proceso de resolución de problemas, los pasos son: 1) Reconocimiento 2) Formulación 3) Solución 4) Calculo 5) Explicación Lin (1976) (Citado en Clements, 1989) introduce el concepto de la evaluación de los resultados del proceso de modelado en el ultimo paso, adiciona otro importante concepto a los modelos matemáticos, la idea de que a menudo no existe un único modelo que sea mejor o mas apropiado a un problema determinado, pero alguno de entre un rango de posibles modelos puede ser útil para algunos propósitos, y otro modelo serlo para un propósito distinto dentro del mismo problema. Woods en (1969) (Citado en Clements, 1989), proporciona una descripción del proceso de aplicación de modelos matemáticos a problemas, el cual es muy similar a lo propuesto por Lin. Hay tres fases distintas en la aplicación de las matemáticas a los fenómenosnaturales: 1) La formulación de un modelo idealizado en lenguaje matemático. 2) La solución del problema matemático y la deducción de resultados capaces de verificación experimental 3) La comparación de observación y teoría, con la evaluación de la validez del modelo. El último paso puede llevar a mejoras en el modelo y los pasos deben ser repetidos. Hasta este momento los procesos de modelos eran lineales. Los primeros modelos iteradores [Iteración se refiere a la acción de repetir una serie de pasos un cierto número de veces] ven su desarrollo a partir de autores como Hall que en 1972 describe un proceso de modelado matemático que contiene un camino de retorno del paso final de validación al del reconocimiento inicial del problema y la formulación del paso de modelado. (Clements , 1989) En este sentido Hall refiere que: Neevia docConverter 5.1 “Las bases del modelado es el método científico, excepto que el énfasis es en encontrar una forma matemática para la teoría científica. El proceso comienza desde alguna situación empírica dada, la cual nos reta a explicar sus regularidades obvias o descubrir sus leyes ocultas” (Hall, 1972 citado en Clements, 1989) Bajpai junto a su grupo de trabajo en 1975 (Clements, 1989) conciben la metodología del modelado matemático como un diagrama de flujo [representación gráfica de los pasos de un proceso, que se realiza para entenderlo mejor]: a) Observar b) Formulación del problema c) Experimentar con diferentes factores para aislar los más importantes d) Determinar el modelo físico y la naturaleza de la solución requerida e) Simplificar y producir el modelo matemático f) ¿Puede este modelo ser resuelto analítica/numéricamente? Si No f1) Dibujar grafica y/o producir formula empírica e) g) Obtener solución h) Interpretar la solución físicamente i) ¿Permite la solución confirmar la observación? Si No c) j) Predicción de la conducta D’Inverno y McLone (1977) (Citados en Clements, 1989), proponen una metodología con un proceso de seis pasos: 1) Seleccionar lo esencial del problema, aunque nada se considere innecesario. 2) Construir un modelo idealizado 3) Aplicar el análisis matemático al modelo 4) Interpretación de los resultados en términos del problema inicial 5) Si es posible comparar los resultados con la observación 6) Si es necesario modificar el modelo. Penrose (1978) (Citado en Clements, 1989) presenta un proceso de dividido en seis pasos dentro de una progresión circular: 1) Especificar el problema real 2) Proponer un modelo 3) Formular el problema matemático 4) Resolver el problema matemático 5) Interpretar la solución 6) Comparar con la realidad Si el resultado no es satisfactorio volver al paso 1) las veces que sea necesario Penrose (1978) (Citado en Clements, 1989) refuerza el punto dado por D’Inverno y McLone (1977) (Citados en Clements, 1989) acerca de empezar con un modelo simple y progresivamente desarrollar versiones mas Neevia docConverter 5.1 complejas del mismo durante iteraciones sucesivas en el proceso. Dicho procedimiento obviamente solo es posible mediante metodologías iterativas. Bukhardt (1977) (Citado en Clements, 1989) usa un diagrama de flujo similar al de Penrose, sin embargo el elabora su modelo con mas bucles de retroalimentación internos como el proceso de Bajpai. El tema de la división del modelaje matemático en aquellas actividades que están basadas en el mundo real y aquellas que son actividades matemáticas abstractas aparecen en los trabajos de Burkhardt, Burghes y Clements (Clements, 1989). Este último afirma que los más recientes usuarios de los modelos matemáticos son mayormente extraídos de las áreas biológicas, medicas, administrativas etc. Checkland (1981) (Citado en Clements, 1989) desarrolla una metodología basada en sistemas, que pretende ser más avanzada en el desarrollo de los modelos matemático. Reconoce que en una amplia variedad de contextos científicos, de ingeniería y biológicos, hay entidades que exhiben propiedades que solo se vuelven aparentes a un cierto nivel de complejidad. Para estas propiedades el análisis por las técnicas reduccionistas empleadas en el método científico, carece de sentido. La existencia de estas propiedades lleva a un marco de trabajo conceptual dentro del cual las características de la complejidad organizada, puede ser analizada, clasificada y discutida. En este capitulo se han expuesto los orígenes históricos de los tres factores considerados en este trabajo, como se vio la mayor parte de su desarrollo ha sido paralelo; para poder comprender su relación respecto a esta tesis debemos analizar detenidamente cada uno de ellos, en el siguiente capitulo se va a describir el proceso consciente desde diversas perspectivas, pues un evento complejo es mas fácil intentar comprenderlo si se le acota desde distintos frentes. Neevia docConverter 5.1 Capitulo 3 Consciencia El estudio moderno de la consciencia lo inician la psicología y la neurología alrededor de 1800. La consciencia como una actividad psíquica superior debido a su complejidad, resulta más adecuado plantearla mediante una aproximación e integración de los procesos conscientes más evidentes. La base de la consciencia parece estar en la organización de los niveles más bajos del sistema nervioso, pero el proceso consciente como tal, corresponde a la plenitud compuesta aferencias, elaboraciones y respuestas en la cual se ven envueltas estructuras corticales y subcorticales (Guirao-Piñeiro M. y Morales H, 1997). No es valido buscar un centro anatómico exclusivo de la consciencia, debido a que es poco probable la existencia de una región del SNC que abarque un fenómeno tan amplio y que sea distinta de otras estructuras que sirven como base para los demás procesos psíquicos superiores considerados separadamente. Tampoco debe cometerse el error de considerar a la consciencia como una actividad exclusiva de la corteza cerebral, aunque esta sea el último desarrollo evolutivamente hablando, su funcionamiento depende de las demás estructuras (Nava R, 2001) En su desarrollo filogenético [la filogenia es la determinación de la historia evolutiva de los organismos] y ontogénico [la ontogenia (también llamada morfogénesis u ontogénesis) describe el desarrollo de un organismo, desde el óvulo fertilizado hasta su forma adulta], el ser humano va adquiriendo niveles de organización neural que para otros animales son definitivos, pero que al hombre le permiten adquirir progresivamente en su camino capacidades existenciales mas complejas. (Gómez T. y Carreras G., 2003) En cuanto a sus bases más que hablar de neuronas individuales conviene hablar de sistemas neuronales que se forman a partir de la plasticidad cerebral; esto por que si bien es cierto que la neurona es la unidad organizacional mas pequeña con que cuenta el SNC la perdida de una o algunas de ellas no limita de modo alguno los procesos de los cuales formaban parte y a su vez una sola neurona puede ser parte de procesos distintos colaborando con diferentes grupos de neuronas (Brownds M., 1999). Diferenciación de términos Como se menciono anteriormente, existen muchos usos de la palabra consciencia, esto sucede incluso dentro de la misma investigación los tres usos más frecuentes para el uso del término son: 1.- Consciencia como estado de vigilia. (Kryger M, Roth T. y Dement W., 2000) Todos los seres vivos contamos con un patrón temporal de periodos en los cuales estamos activos y otros inactivos, en los seres mas evolucionados el periodo de inactividad corresponde al sueño. El estado en el que nos encontramos despiertos se caracteriza por actividad eléctrica desincronizada de bajo voltaje y alta frecuencia, por el contrario la fase en que se pierde toda percepción del entorno se caracteriza por actividad sincronizada de alto voltaje y bajafrecuencia. A estos estados deben agregarse casos especiales como el sueño MOR (Movimientos Oculares Rápidos) y el estado de coma. Bajo esta conceptualización el estado de consciencia equivaldría a estar despierto. Neevia docConverter 5.1 Aquí es la formación reticular la que juega un papel relevante pues alerta a las estructuras corticales, involucrándose en el proceso sueño-vigilia donde se producen periodos cíclicos de consciencia e inconsciencia. (Kryger M, Roth T. y Dement W., 2000) 2.- Consciencia como estado de alerta. (Nava R., 2001) El termino soñar despierto, se aplica usualmente en aquellos casos en los que una persona por momentos deja de estar atenta a lo que sucede en el ambiente circundante, esto ocurre regularmente cuando se realizan actividades monótonas o repetitivas, solo cuando ocurre un evento que modifica ese sistema se recupera ese estado de atencion o percatación. Lo que diferenciaría el estado de percatación de un estado de alerta es la intencionalidad, que como ya se menciono es lo que se dirige hacia algo o representa algo (Nava R. 2001). La percatacion (awareness en ingles) introduce un agente que esta en vuelto cuando la atención es dirigida voluntariamente a algún evento (La Berge David en Baars, 2003) “Aplicando estos conceptos al terreno de la consciencia podemos indicar que “consciente” se puede usar en sentido intencional o en sentido no intencional, y el uso intencional se subsume al de “percatarse”” (Nava, 2001) El estado no intencional correspondería al estado de alerta o estar pendiente. 3.- Consciencia como estado de autoconocimiento. Se refiera al estado en el cual un ser vivo es capaz de percibirse a si mismo, implica la construcción de un “yo”, capaz de diferenciarse del entorno y tener una correspondencia interna autoreferencial. (Hasper, 1998) Este proceso es lo que en apariencia nos hace superiores a las demás especies animales. En un principio estos usos del término parecen distintos unos de otros, pero si se observa mas a fondo es posible darse cuenta que cada uno de los estados mencionados es una gradación de un solo proceso. Para que ocurra la autoreferencia es necesario dirigir la atencion hacia los procesos que usamos de modo intencional para interactuar con el ambiente, lo que en otras palabras seria la percatación de nuestra propia percatación. Del mismo modo para que la percatación y la alerta ocurran se requiere estar en vigilia, sin importar en cual aspecto queramos enfocarnos, todos se originan en el SNC. Existen postulados que hablan de distintas formas de consciencia, como la asociada al pensar, las emociones etc. Bajo este rubro la autoconsciencia se considera un caso especial de la consciencia. (Crick F. y Koch Ch., 1998) Para intentar discernir como ocurre todo este proceso es necesario tener en cuenta dos aspectos totalmente biológicos: el filogenético y el ontogénico. Neevia docConverter 5.1 Filogenia de la conciencia El surgimiento del sistema nervioso ocurrió aproximadamente hace 500 millones de años y hace 10 millones de años aparecieron los homínidos. La marcha bípeda apareció en los últimos 5 millones de años, y finalmente el hombre, cuenta con una historia de 2 millones de años, la aparición del homo Sapiens Sapiens, ocurrió en los últimos 100.000 años, a partir del cual se consolidó el lenguaje y la consciencia de sí. (Macphail, E., 1998) Para que esto ocurriera, tuvieron lugar eventos críticos claves que pueden ser resumidos en: Potencial de acción y mielinización La mielinización mejoró la velocidad de comunicación y permitió una comunicación más eficiente sin necesidad de aumentar el tamaño del cerebro. (Carruthers P. y Chamberlain A., 2000) Estabilidad y variabilidad en las estructuras cerebrales La neocorteza, en contraste con el sistema serotoninérgico presente en todos los vertebrados, sólo está presente en los mamíferos. La neocorteza es una capa plegada de tejido neural, de un par de milímetros de grosor y su surgimiento es paralelo al de funciones cada vez más elaboradas y complejas (Lopera F., 2004) . Índice de encefalización El cerebro de los primates tiende a ser unas 2 a 3 veces mayor que el de los no-primates del mismo peso corporal, y el de los seres humanos pesa aproximadamente lo mismo que el de los chimpancés, pero es tres veces mayor que el de los simios, y su neocorteza es 3.2 veces la del chimpancé. (Lopera F., 2004) El córtex antiguo así como sus funciones sensoriales y motrices permanece sin modificaciones y conserva su funcionamiento simétrico. La asimetría cerebral o pliegues del neocortex por otra parte han permitido un gran crecimiento del neo-neocórtex, sin demasiado crecimiento del cerebro. Cinco particularidades del neo-neocórtex: 1a. Desde el punto de vista filogenético es el último en aparecer, ya que es específico del desarrollo de los homínidos. 2a. Ontogenéticamente es el último en madurar, como lo demuestra la mielinización retardada y el retardo del desarrollo de las dendritas y las sinapsis. 3a. Presenta una asimetría funcional, como lo demuestran las habilidades del lenguaje, espaciovisuales y musicales. El hemisferio izquierdo se especializó como un analizador de lenguaje, y el derecho como un sintetizador de formas. 4a. En los jóvenes se caracteriza por una gran plasticidad, como lo indica la posibilidad de compensaciones de lesiones. 5a. La entrada en acción del neoneocórtex se asocia con una gran variedad de funciones como: la consciencia y la consciencia de sí, la reflexión, la memoria, los sentimientos, la imaginación y la creatividad. (Lopera F., 2004) Visión panorámica y frontal La visión frontal mejoro la calidad de la imagen y la percepción de profundidad, pero genero una desventaja que fue la pérdida de visión panorámica, disminuyendo la capacidad para detectar depredadores. La respuesta a esa limitación pudo haber sido la evolución de sistemas neurales para la cooperación social y la producción de vocalizaciones que avisaran la presencia de depredadores, dando origen al desarrollo de sistemas de comunicación entre los animales. (Macphail, E., 1998) Neevia docConverter 5.1 Darwin sugirió que la evolución de la inteligencia está vinculada al hecho de vivir en grupos sociales. Cuanto mayor es el tamaño de la neocorteza con respecto al resto del cuerpo, mayor es el tamaño del grupo social en los primates. (Lopera F., 2004) Los mamíferos requieren una estrecha y prolongada relación parental, lo que a su vez estimula el desarrollo de conductas de socialización. El lenguaje en la evolución de los homínidos La línea de los hominoides se dividió hace unos 9-10 millones de años en la línea de los homínidos y la línea de los póngidos. Las regiones del lenguaje eran completamente rudimentarias en los póngidos, el aparato neural para la conducta pseudos-lingüística quizá existió ya en los antepasados comunes de simios y seres humanos. (Carruthers P. y Chamberlain A., 2000) El desarrollo de un sistema simbólico permitió a los seres humanos tempranos comunicarse acerca de objetos que no estaban presentes, este sistema simbólico facilitó la transmisión de conocimiento de una generación a otra. (Cohen J. y Schooler J., 1997) El manejo de símbolos se ve favorecido en gran medida por el lenguaje y una vez que este lenguaje logra interiorizarse alrededor de los tres años, es posible que el niño reflexione sobre si, esto conduciría a una consciencia reflexiva. (Gómez T. J. y Carreras G. A., 2003) Nada en los primates superiores corresponde al área de Broca. Las áreas parietales inferiores (giro angular, supramarginal), son más grandes en los humanos, con respecto a los simios. La aparición de las áreas 39 y 40 se han incrementado en una proporción superior a 3,2; son las últimas en mielinizar en el desarrollo ontogenético, y las únicas estructuras que han aparecido en el curso de laevolución del cerebro humano. Se considera que el homo Hábilis es el origen del lenguaje verbal. (Macphail, E., 1998) Estos precedentes evolutivamente propician la aparición de la consciencia. Puesto que en los animales no existe la consciencia esta “representa una novedad porque las especies de donde procede no tenían sino un rudimento de «conciencia de sí»... La «conciencia de sí» se puede identificar en la evolución, con los ritos de enterramiento, que se iniciaron hace 80.000 años, entre los hombres de Neandertal. Se puede pensar que la «conciencia de sí» en el curso de la evolución precede a la conciencia traumática de la muerte, que se expresa en los ritos funerarios”. (Lopera, 2004) Existen algunas posturas que consideran plausible que algunas especies animales, poseen algunas características esenciales de consciencia pero no todas, por lo tanto un sistema de lenguaje como el de los humanos, no es esencial para la consciencia. (Crick F. y Koch Ch., 1998) Pero la capacidad para manejar símbolos si parece necesaria al menos para los contenidos auto-referenciales, aunque este manejo de símbolos no requiere la comprensión de un lenguaje hablado como se puede observar en personas con ausencia de uno o varios de sus sentidos. (Nava R., 2001) Una vez analizados los contenidos evolutivos, debemos mirar hacia el desarrollo del ser humano, pues la consciencia no aparece sino hasta determinado estado de madurez como podrá observarse en el siguiente apartado. Neevia docConverter 5.1 Ontogenia de la consciencia Hay un momento en nuestra vida en el cual adquirimos la capacidad para darnos cuenta sobre nuestros aspectos cognitivos, emotivos y conductuales, generando introspección. Lo hallado sobre el desarrollo humano, muestra que una persona al nacer ya cuenta con la mayoría de las estructuras del SNC desarrolladas, pero existen otras que aun deben madurar. (Nava R., 2001) Esta justificado preguntarse entonces si el proceso de la consciencia emerge en algún punto en particular del desarrollo y que estructuras son necesarias para su aparición. Al nacer ya contamos con un sistema limbico maduro, esta involucrado en las primeras respuestas que son de tipo motor, como los reflejos y reacciones simples; que destacan por ser limitadas y previsibles. (Carretie A. e Iglesias D., 2000) El sistema limbico junto al circuito de Papez controla las funciones de los instintos, memoria y un analizador rítmico temporal que permitirán la diferenciación entre el propio cuerpo y el mundo exterior (Gómez T. y Carreras G., 2003) Alrededor de los tres meses la integración de estímulos que se produce en el tálamo, adquiere importancia al incrementar la recepción sensorial; esta información debe ser seleccionada y filtrada lo que permite una mayor diferenciación del entorno. En esta selección, Gómez y Carrera sugieren que se daría una primera forma de consciencia, estaría más ligada a la atencion sobre las características de un elemento y seria consciencia a nivel talamico. Alrededor de los 7 meses se da un paso más con la interacción del sistema tálamo-cortical, esta interacción permite ejecutar acciones automatizadas que permite dirigir la atencion hacia otra tarea. En este sentido “el desplazamiento de la atencion a diversos objetos sin necesidad de abandonar actividades básicas que se realizan simultáneamente, crea progresivamente la vivencia de la experiencia de agente y posibilita la percepción de otros agentes como distintos de el” (Gómez T. y Carreras G., 2003) Posteriormente la maduración de los sistemas corticales permitirá la independencia del estimulo físico, de la permanencia mental del objeto; esto es posible por la capacidad para representar dichos estímulos y sus propiedades sin necesidad de su presencia. El desarrollo del SNC continúa hasta la mielinización de la conexión interhemisférica entre los 8 y los 9 años. Gómez y Carrera (2003) apuestan por un modelo que denominan integrador y modular para explicar la consciencia; los supuestos de este modelo son: A) Existencia de mecanismos innatos para desarrollar procesos de análisis y memorización que determinan una experiencia biográfico.-emocional. B) La maduración de las conexiones tálamo-corticales marca la diferenciación entre acciones conscientes intencionales y acciones automatizadas no-conscientes. C) La atencion por estructuras talamicas otorga el aspecto subjetivo y biográfico en la experiencia. D) La corteza parietal elabora la cosnciencia del cuerpo como unidad y del espacio circundante. E) La corteza frontal por introyección del lenguaje, permite un análisis reflexivo sobre el agente actuante viéndolo como un objeto de observación, distinto biográfica y emocionalmente de los otros objetos. F) La conexión interhemisférica multiplica las posibilidades para que el “yo” biográfico emocional, reflexione sobre si mismo. Neevia docConverter 5.1 De acuerdo a su propuesta entonces el “yo” se genera a partir de la experiencia que se va organizando a través del tiempo y se integra jerárquicamente a partir del desarrollo de las diferentes estructuras del SNC. Al estar involucradas diferentes estructuras del SNC en el proceso consciente, el cuestionamiento importante es como se genera la consciencia a partir de estas estructuras y como es la participación de las mismas. Esto nos conduce a un problema conocido como correlato neural de la consciencia, que se vera a continuación. Correlato neural de la consciencia Los primeros estudios enfocados en observar las áreas involucradas en experiencias conscientes, estaban inspirados en aquellos realizados en los mapeos cerebrales para localizar áreas de otras funciones como el lenguaje, la audición etc. (Hasper H., 1998) Los resultados obtenidos demostraron que la idea sobre un centro de la consciencia era errónea, pues no había registros que permanecieran constantes ni siquiera a la hora de repetir las mismas actividades incluso para un mismo individuo. (Hasper H., 1998) Se presento entonces un problema metodológico a resolver, si se deseaba entender al menos parcialmente el proceso de la consciencia había que estudiar aspectos mas elementales de la misma. Una propuesta para la solución de este problema fue el de estudiar, la consciencia de los estímulos a través de los sentidos. De todos los sentidos, la visión es considerada la mejor opción, esta elección se basa en el hecho de que los seres humanos son animales muy visuales, a su vez las percepciones visuales son vividas y ricas en información. Adicionalmente la entrada de señales visuales es altamente estructurada y fácil de controlar. (Crick F. y Koch Ch., 1998) Por otra parte el sistema visual se adapta como un mecanismo muy eficiente para la integración flexible de información característica, en estados posteriores de procesamiento, áreas corticales son organizadas retinotopicamente, esto es que las neuronas tienen propiedades simples del campo receptivo y las células con propiedades similares funcionales son agrupadas juntas en conjuntos funcionales. (Singer W. y Gray C., 1995) Estos autores al problema del correlato neural adicionan el problema del significado que se refiere a ¿cómo es que el cerebro sabe lo que el disparo de las neuronas significa? y ¿cómo es que el significado de esto, es generado en el cerebro? Crick propone que el significado deriva de los disparos correlacionados y de sus vínculos con representaciones similares. Un método desarrollado para el estudio de la consciencia usando la visión es el de Rivalidad Binocular (Tononi G., Srinivasan R., Russell D. y Edelman G., 1998) Este método consiste en que si dos estímulos visuales incongruentes entre si son presentados simultáneamente uno en cada ojo, solo uno de los estímulos es percibido conscientemente y las dos percepciones se van alternando cada pocos segundos. Las bases de este método
Compartir