Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Cognitivismo La ciencia cognitiva surgió a mediados del siglo XX en Estados Unidos. Esta corriente tenía que ver fundamentalmente con el desarrollo de la potencia de las computadoras y la identificación de la cognición humana con su funcionamiento, considerando la manipulación de la información o mensajes no como un hecho físico sin contenido semántico constitutivo de la estructura de un sistema autorregulado, como en la fase cibernética, sino como manipulación de “símbolos” a los cuales se les atribuye contenido o significado semántico. Los símbolos y sus estructuras serían la “representación” del sistema del mundo exterior. A esta hipótesis se la denomina “hipótesis del sistema de símbolos físicos”, y a la corriente en Ciencia Cognitiva que se basa en esta hipótesis, “cognitivismo”. Fue en esta época cuando se creó la Ciencia Cognitiva como disciplina con nombre propio, a través de la creación de una revista y una sociedad. Aunque el cognitivismo es aún importante en la actualidad, dada la ausencia de alternativas satisfactorias en algunos aspectos de la cognición, los pobres resultados en la simulación y posterior explicación de la cognición humana hicieron que a finales de los setenta ya empieza a pensarse que había que volver la mirada hacia el funcionamiento del cerebro, y a la posibilidad de realizar no sólo su simulación, sino su efectiva replicación, en algún tipo de máquina. Año Autor Aportación 1949 Donald Hebb Postuló que las conexiones cerebrales cambian a medida que aprendemos distintas tareas, y que estructuras neurales específicas y nuevas dan cuenta del conocimiento. Mediante la activación repetida de una neurona por otra a través de una sinapsis particular se incrementa su conductividad, haciendo que las posteriores activaciones de esta neurona sean más probables ante el mismo estímulo, lo que equivalía a decir que la tarea quedaba “aprendida”. 1954 Marvin Minsky Determinó que una red neural lo suficientemente grande para poder razonar requeriría miles de millones de neuronas. 1955 John McCarthy Se dio cuenta de que la inteligencia y el comportamiento de una máquina de Turing en cierto modo no se parecían al comportamiento humano, ya que pequeños cambios producían comportamientos muy distintos en la máquina y pequeños cambios de comportamiento requerían grandes cambios en la estructura de la máquina. Sin embargo, se convenció de que se podían construir máquinas inteligentes. John McCarthy, Claude Shannon, Marvin Minsky y Nathaniel Rochester Convocaron unos encuentros durante el verano de 1956 en Dartmouth College con el objetivo de impulsar la investigación en lo que denominaron “Inteligencia Artificial”. Manifestaron que "Este estudio debe proceder sobre la conjetura de que cualquier aspecto del aprendizaje o cualquier otro rasgo de la inteligencia puede en principio describirse de forma tan precisa que se puede construir una máquina que lo simule. Se intentará averiguar cómo realizar máquinas que utilicen el lenguaje, construyan abstracciones y conceptos, solucionen algunos tipos de problemas reservados de momento a los hombres, y se mejoren a sí mismas." (Máquinas inteligentes, principalmente máquinas de Turing). La forma dominante de abordar el problema era mediante la especificación del programa o instrucciones a dar a la máquina. Determinaron los principales aspectos del problema en inteligencia artificial: ● Computadoras automáticas: escribir programas que obtengan el mayor rendimiento de lo que tenemos. ● Uso del lenguaje: se puede especular que gran parte del pensamiento humano consiste en manipular palabras de acuerdo a reglas de razonamiento y reglas de conjetura. Debemos determinar cómo programar una computadora con esta característica. ● Redes Neuronales: ¿Cómo se puede organizar un conjunto de (hipotéticas) neuronas para que formen conceptos? ● Teoría de la Dimensión del Cálculo: para obtener una medida de la eficacia de un cálculo (tener un criterio de eficacia para determinar si las respuestas a un problema específico son viables) es necesario tener disponible un método de medida de la complejidad de los elementos de cálculo, lo cual a su vez puede realizarse si se tiene una teoría de la complejidad de funciones. ● Autoperfeccionamient o ● Abstracciones: clasificación y descripción de métodos ejecutables por máquinas para realizar abstracciones a partir de datos sensoriales y de otro tipo. ● Aleatoriedad y Creatividad: la intuición educada (pensamiento competente no imaginativo o pensamiento creativo) incluye la aleatoriedad controlada en lo que de otra forma sería un pensar ordenado. Así, se empieza a introducir la idea del pensamiento humano como formación de estructuras de símbolos y su manejo de acuerdo a reglas, y a las computadoras como dispositivos capaces de realizar estas mismas funciones. Dartmouth Oliver Selfridge Pandemonium: una máquina con distintos “agentes” especializados en una tarea, que colaboran en el funcionamiento global. Solomono� Indicó la conveniencia de centrar la investigación en lo que aparentemente eran las tareas más “sencillas” del pensamiento. Trenchand More Presentó sus trabajos de prueba de teoremas por deducción natural. Herbert Simon, Allen Newell y Cli�ord Shaw En el sistema Logic Theorist Si todos los teoremas se siguen de los axiomas y las reglas de deducción, entonces aplicando todas las combinaciones posibles se podrían deducir todos los teoremas. “Logic Theorist” elegía las combinaciones según criterios heurísticos (emplea indicaciones basadas en las características del sistema a probar para limitar el rango de búsqueda) de semejanza entre el teorema a demostrar y los axiomas del sistema, y comenzaba un procedimiento de prueba y error y vuelta a empezar durante un número limitado de intentos hasta llegar o no al objetivo. Se hacía funcionar a este sistema en una computadora mediante un programa en el lenguaje adecuado. Hacía realidad la hipótesis de que cualquier aspecto de la inteligencia, en este caso la inteligencia entendida como búsqueda entre distintas opciones, podía implementarse en una máquina. 1957 Allen Newell y Herbert Simon Se dieron cuenta de que las personas no razonaban como en el “Logic Theorist”. General Problem Solver: programa basado en detectar las diferencias entre lo deseado y lo obtenido y aplicar correcciones al resultado (que serían la causa del siguiente ciclo) pero para un espectro amplio de tipos de variaciones, como al que reaccionan los humanos, al contrario que las máquinas, que lo hacen en un dominio mucho más restringido. Si además las máquinas almacenan lo que han probado, funcione esto o no, van adquiriendo más conocimiento del que tenían cuando se los programara. 1958 Frank Rosenblatt Perceptron: sistema basado en una capa de un solo nivel de neuronas de McCulloch-Pitts situada entre sensores y unidades de activación. Los sensores recibían los impulsos del entorno exterior y enviaban una señal proporcional a su excitación a las neuronas. Éstas recogían esos impulsos, les asignaban cierto “peso” o relevancia, y los sumaban, para pasado un umbral, excitar las unidades de activación. Método para ajustar los valores en los pesos para hacer que el “Perceptron” aprendiera a reconocer ciertos estímulos. 1969 Minsky y Papert Demostraron que había patrones que el Perceptrón no podía reconocer, como distinguir entre “1” y “0”, aunque Rosenblatt había afirmado que era posible que aprendiese a reconocer cualquier patrón. Estas operaciones sí eran realizables por las computadoras 1969 Simon Estudios cognitivos: tanto la computadora como la mente humana deberían considerarse “sistemas simbólicos”. 1977 Se fundó la revista Cognitive Science 1979 Se fundó la sociedad Cognitive Science Desde el mismo comienzo resultó difícil crear un campo de estudio homogéneo, ya que junto con la denominación de la nueva disciplina y su intento de definición surgieron las tensiones acerca de lo que era este campo de estudio, quién lo comprendía correctamente y qué rumbo debíaseguir, persistiendo esas tensiones hoy en día. El paradigma dominante en esta etapa que comenzó en Dartmouth en 1956, consistente en considerar la cognición como manipulación de símbolos conforme a unas reglas, se denominó posteriormente “cognitivismo”. En los setenta las primeras carencias de la Inteligencia Artificial se vieron en el campo de la traducción automática y en la realización de tareas que no estuviesen restringidas a campos muy bien delimitados. El problema subyacente en casi todos los casos, y que persiste hoy en día, era que formalizar el conocimiento cotidiano de cualquier situación, por sencilla que parezca, resultaba prácticamente imposible, dado que las posibles alternativas a manejar en la vida real parecen ser infinitas.
Compartir