Logo Studenta

Cognitivismo

¡Estudia con miles de materiales!

Vista previa del material en texto

Cognitivismo
La ciencia cognitiva surgió a mediados del siglo XX en Estados Unidos. Esta
corriente tenía que ver fundamentalmente con el desarrollo de la potencia de
las computadoras y la identificación de la cognición humana con su
funcionamiento, considerando la manipulación de la información o mensajes
no como un hecho físico sin contenido semántico constitutivo de la estructura
de un sistema autorregulado, como en la fase cibernética, sino como
manipulación de “símbolos” a los cuales se les atribuye contenido o significado
semántico. Los símbolos y sus estructuras serían la “representación” del
sistema del mundo exterior. A esta hipótesis se la denomina “hipótesis del
sistema de símbolos físicos”, y a la corriente en Ciencia Cognitiva que se basa
en esta hipótesis, “cognitivismo”. Fue en esta época cuando se creó la Ciencia
Cognitiva como disciplina con nombre propio, a través de la creación de una
revista y una sociedad. Aunque el cognitivismo es aún importante en la
actualidad, dada la ausencia de alternativas satisfactorias en algunos
aspectos de la cognición, los pobres resultados en la simulación y posterior
explicación de la cognición humana hicieron que a finales de los setenta ya
empieza a pensarse que había que volver la mirada hacia el funcionamiento
del cerebro, y a la posibilidad de realizar no sólo su simulación, sino su
efectiva replicación, en algún tipo de máquina.
Año Autor Aportación
1949 Donald Hebb Postuló que las conexiones
cerebrales cambian a
medida que aprendemos
distintas tareas, y que
estructuras neurales
específicas y nuevas dan
cuenta del conocimiento.
Mediante la activación
repetida de una neurona por
otra a través de una sinapsis
particular se incrementa su
conductividad, haciendo
que las posteriores
activaciones de esta
neurona sean más
probables ante el mismo
estímulo, lo que equivalía a
decir que la tarea quedaba
“aprendida”.
1954 Marvin Minsky Determinó que una red
neural lo suficientemente
grande para poder razonar
requeriría miles de millones
de neuronas.
1955 John McCarthy Se dio cuenta de que la
inteligencia y el
comportamiento de una
máquina de Turing en cierto
modo no se parecían al
comportamiento humano, ya
que pequeños cambios
producían comportamientos
muy distintos en la máquina
y pequeños cambios de
comportamiento requerían
grandes cambios en la
estructura de la máquina.
Sin embargo, se convenció
de que se podían construir
máquinas inteligentes.
John McCarthy, Claude Shannon,
Marvin Minsky y Nathaniel
Rochester
Convocaron unos
encuentros durante el
verano de 1956 en
Dartmouth College con el
objetivo de impulsar la
investigación en lo que
denominaron “Inteligencia
Artificial”. Manifestaron que
"Este estudio debe proceder
sobre la conjetura de que
cualquier aspecto del
aprendizaje o cualquier otro
rasgo de la inteligencia
puede en principio
describirse de forma tan
precisa que se puede
construir una máquina que
lo simule. Se intentará
averiguar cómo realizar
máquinas que utilicen el
lenguaje, construyan
abstracciones y conceptos,
solucionen algunos tipos de
problemas reservados de
momento a los hombres, y se
mejoren a sí mismas."
(Máquinas inteligentes,
principalmente máquinas de
Turing). La forma dominante
de abordar el problema era
mediante la especificación
del programa o
instrucciones a dar a la
máquina.
Determinaron los principales
aspectos del problema en
inteligencia artificial:
● Computadoras
automáticas: escribir
programas que
obtengan el mayor
rendimiento de lo que
tenemos.
● Uso del lenguaje: se
puede especular que
gran parte del
pensamiento humano
consiste en manipular
palabras de acuerdo a
reglas de
razonamiento y reglas
de conjetura.
Debemos determinar
cómo programar una
computadora con esta
característica.
● Redes Neuronales:
¿Cómo se puede
organizar un conjunto
de (hipotéticas)
neuronas para que
formen conceptos?
● Teoría de la Dimensión
del Cálculo: para
obtener una medida
de la eficacia de un
cálculo (tener un
criterio de eficacia
para determinar si las
respuestas a un
problema específico
son viables) es
necesario tener
disponible un método
de medida de la
complejidad de los
elementos de cálculo,
lo cual a su vez puede
realizarse si se tiene
una teoría de la
complejidad de
funciones.
● Autoperfeccionamient
o
● Abstracciones:
clasificación y
descripción de
métodos ejecutables
por máquinas para
realizar abstracciones
a partir de datos
sensoriales y de otro
tipo.
● Aleatoriedad y
Creatividad: la
intuición educada
(pensamiento
competente no
imaginativo o
pensamiento creativo)
incluye la aleatoriedad
controlada en lo que
de otra forma sería un
pensar ordenado.
Así, se empieza a introducir
la idea del pensamiento
humano como formación de
estructuras de símbolos y su
manejo de acuerdo a reglas,
y a las computadoras como
dispositivos capaces de
realizar estas mismas
funciones.
Dartmouth Oliver Selfridge Pandemonium: una máquina
con distintos “agentes”
especializados en una tarea,
que colaboran en el
funcionamiento global.
Solomono� Indicó la conveniencia de
centrar la investigación en lo
que aparentemente eran las
tareas más “sencillas” del
pensamiento.
Trenchand
More
Presentó sus trabajos de
prueba de teoremas por
deducción natural.
Herbert Simon,
Allen Newell y
Cli�ord Shaw
En el sistema
Logic Theorist
Si todos los teoremas se
siguen de los axiomas y las
reglas de deducción,
entonces aplicando todas
las combinaciones posibles
se podrían deducir todos los
teoremas. “Logic Theorist”
elegía las combinaciones
según criterios heurísticos
(emplea indicaciones
basadas en las
características del sistema a
probar para limitar el rango
de búsqueda) de semejanza
entre el teorema a
demostrar y los axiomas del
sistema, y comenzaba un
procedimiento de prueba y
error y vuelta a empezar
durante un número limitado
de intentos hasta llegar o no
al
objetivo. Se hacía funcionar
a este sistema en una
computadora mediante un
programa en el lenguaje
adecuado. Hacía realidad la
hipótesis de que cualquier
aspecto de la inteligencia, en
este caso la inteligencia
entendida como búsqueda
entre distintas opciones,
podía implementarse en una
máquina.
1957 Allen Newell y Herbert Simon Se dieron cuenta de que las
personas no razonaban
como en el “Logic Theorist”.
General Problem Solver:
programa basado en
detectar las diferencias
entre lo deseado y lo
obtenido y aplicar
correcciones al resultado
(que serían la causa del
siguiente ciclo) pero para un
espectro amplio de tipos de
variaciones, como al que
reaccionan los humanos, al
contrario que las máquinas,
que lo hacen en un dominio
mucho más restringido. Si
además las máquinas
almacenan lo que han
probado, funcione esto o no,
van adquiriendo más
conocimiento del que tenían
cuando se los programara.
1958 Frank Rosenblatt Perceptron: sistema basado
en una capa de un solo nivel
de neuronas de
McCulloch-Pitts situada
entre sensores y unidades
de activación. Los sensores
recibían los impulsos del
entorno exterior y enviaban
una señal proporcional a su
excitación a las neuronas.
Éstas recogían esos
impulsos, les asignaban
cierto “peso” o relevancia, y
los sumaban, para pasado
un umbral, excitar las
unidades de activación.
Método para ajustar los
valores en los pesos para
hacer que el “Perceptron”
aprendiera a reconocer
ciertos estímulos.
1969 Minsky y Papert Demostraron que había
patrones que el Perceptrón
no podía reconocer, como
distinguir entre “1” y “0”,
aunque Rosenblatt había
afirmado que era posible
que aprendiese a reconocer
cualquier patrón. Estas
operaciones sí eran
realizables por las
computadoras
1969 Simon Estudios cognitivos: tanto la
computadora como la mente
humana deberían
considerarse “sistemas
simbólicos”.
1977 Se fundó la revista Cognitive
Science
1979 Se fundó la sociedad
Cognitive Science
Desde el mismo comienzo resultó difícil crear un campo de estudio
homogéneo, ya que junto con la denominación de la nueva disciplina y su
intento de definición surgieron las tensiones acerca de lo que era este campo
de estudio, quién lo comprendía correctamente y qué rumbo debíaseguir,
persistiendo esas tensiones hoy en día. El paradigma dominante en esta
etapa que comenzó en Dartmouth en 1956, consistente en considerar la
cognición como manipulación de símbolos conforme a unas reglas, se
denominó posteriormente “cognitivismo”.
En los setenta las primeras carencias de la Inteligencia Artificial se vieron en el
campo de la traducción automática y en la realización de tareas que no
estuviesen restringidas a campos muy bien delimitados. El problema
subyacente en casi todos los casos, y que persiste hoy en día, era que
formalizar el conocimiento cotidiano de cualquier situación, por sencilla que
parezca, resultaba prácticamente imposible, dado que las posibles
alternativas a manejar en la vida real parecen ser infinitas.

Otros materiales