Logo Studenta

Inteligencia_Artificial

¡Este material tiene más páginas!

Vista previa del material en texto

2015
 
La Inteligencia 
Artificial
 
LA POLEMICA CONTRA E
L PROGRESO
 
 
 
 
 
 
 
 
 
	Índice 
 
 
	Jaque al Rey 	 	 	 	 	 	 
1. Introducción 	 	 	 	 	 
2. Un poco de historia 	 	 	 	 	 
	 	2.2 La Máquina de Turing 	 	 	 	 
3. Inteligencia Artificial 	 	 	 	 	 	 4. Intentos Fallidos 	 	 	 	 	 	 
5. ¿Qué tipo de inteligencia y conciencia posee una máquina? 
6. Objeciones contra las IA 	 	 	 	 	 
6.1 La Teoría del Valle inquietante 	 	 	 
7. Conclusiones 	 	 	 	 	 	 	 
7.1 Conclusiones desde el punto de vista ética 	 
8. Bibliografía 	 	 	 	 	 	 	 
 
 
 
 
 
 	 
 
	 
 
 
 
 
 
 
 
 
 
 
 
	 
 
 
 
 
 
 
 
 
 
 
 
	2 
3 
5 
5 
7 
9 
15 
18 
19 
21 
23 
25 
1 
Jaque al rey Por Emilio Gómez Milán 
Se habla de ordenadores y robots de tercera y cuarta generación. Se habla de algoritmos genéticos. Esta evolución se manifiesta si comparamos las primeras 
máquinas de jugar al ajedrez con las que se enfrentó Napoleón Bonaparte, con un enano jugador dentro, frente a Deep Blue y Deep Junior con las que se enfrenta Kasparov en el siglo XXI. 
Piense que la diferencia entre el jugador humano y la máquina sigue estando en el modo de pensar. Además de la capacidad de manejo de datos y combinaciones del 
ordenador (la fuerza bruta de cálculo), éste cada vez se «humaniza» más, se hace más intuitivo, y aunque aún es incapaz de hacer trampas sí que puede «hacer sacrificios» de piezas importantes a cambio de peones en las jugadas iniciales, que tendrán un efecto a largo plazo. 
Sin embargo, el gran maestro piensa de un modo distinto (Piense como un gran maestro de A. Kotov), las diferencias están en el efecto horizonte (el gran maestro 
diseña estrategias con metas a largo plazo, donde un peón marginado en el tablero 
puede llegar a coronarse en N jugadas) y al mismo tiempo debe prestar atención a la situación actual del tablero (los efectos inmediatos de su movimiento actual). 
Además de analizar el juego con un árbol de metas, el gran maestro hace apreciaciones subjetivas globales de la situación del tablero (me gusta o no me gusta cómo va), que le llevan a estrategias desesperadas pero eficaces. 
Si debe hacer un contraataque rápido, debe aumentar los riesgos pero buscar el centro y no atacar por los lados. Esta estrategia es igual de útil en un duelo a 
espada, en una conversación, para jugar al tenis o al ajedrez. Estas diferencias son 
las que caracterizan a un experto- ganador en cualquier campo: Usar la visualización y darse auto-instrucciones positivas antes del juego (los rezos supersticiosos), 
focalizar la atención en el momento presente para aumentar la concentración y entrar en flujo durante el juego para disfrutar del mismo y olvidar el resultado, dejándose guiar por las sensaciones subjetivas. 
No gana el más experto sino el más juguetón: el más motivado de los expertos, el más ambicioso, el más seguro de sí mismo, el más loco... Por eso mientras los 
ordenadores sigan siendo sólo sistemas expertos, el ser humano, al menos el mejor de ellos, podrá ganarles. Pero si algún día estos llegan a «humanizarse», 
incorporando la psicología, hasta el punto de soñar o disfrutar con el juego, entonces si serán de verdad conscientes y nos ganarán la partida. 
 	 
2 
 
1. Introducción 
Desde que fuera inventado por John McCarthy en el famoso congreso de Darthmouth, el término “Inteligencia Artificial” no ha cesado de provocar reacciones dispares y muy intensas, tanto en el mundo científico como en el “profano”. Cuando pronunciamos ambas palabras, evocamos de pronto imágenes pertenecientes al mundo de la ciencia-ficción, recreamos seres metálicos que emulan la conducta humana o llegamos incluso a considerar la hipótesis de que nuestra lavadora “piense”. No hay, posiblemente, un área de conocimiento tan variada en sus propósitos como tan diferente en la seriedad de las personas que en ella pretenden crear “episteme”. 
Donald Michie “Es un error dedicar demasiado tiempo a preguntarse, ¿pueden las máquinas pensar?, ¿pueden ser realmente creativas?” 
“Para todos los propósitos prácticos sí pueden. La mejor dirección para nosotros es dejar a los filósofos en su habitación oscura y ponerse a intentar diseñar máquinas creativas e inteligentes 
Estamos lamentablemente acostumbrados a que la “gran ciencia” del siglo XX arrope sus argumentos con una espectacularidad inoportuna que, en muchos casos, revela ser una pantalla para el fraude y la charlatanería. Y a pesar de ello, la I.A. sigue despertando entusiasmo en las mejores mentes de los institutos politécnicos mundiales. 
En un principio, la I.A. pretende simular la inteligencia humana, descubrir los mecanismos de resolución de problemas que nos permiten tener éxito en situaciones complejas, y un moderado etcétera. Pero como en toda joven disciplina que se precie, la I.A. no se libra de la crítica. Por un lado tenemos aquellos especialistas de las ciencias de la información, de las matemáticas, de la psicología y de todas las ciencias cognitivas en general que, con seriedad y esmero, apoyan una visión llamada “I.A. débil”. Por otro lado tenemos una lista más o menos abundante de científicos (algunos de ellos prestigiosos y otros necesitados de fondos), que apoyan por el contrario la así llamada “I.A. fuerte”. 
La I.A. débil, como su adjetivo denuncia, no pretende la construcción o la elaboración de una mente artificial. Su propósito, modesto y sin embargo fértil, consiste en simular rasgos del pensamiento humano para poder traducirlos a una forma digital/algorítmica. Con ello se pretende conseguir resolver problemas como la búsqueda de información o el procesamiento de datos de una forma más efectiva. 
Muchos escalones más arriba tenemos la I.A. “fuerte”, cuyo objetivo, en el papel, se puede describir más o menos de la siguiente manera: “la reproducción total de los mecanismos mentales humanos en un soporte diferente del tradicional”. 
En pocas palabras, la ambición máxima de esta rama de las ciencias cognitivas es “suplantar” la naturaleza para poder crear una mente en soportes tan variados como el silicio, campos electromagnéticos, o cualquier otro ware físico que permita recrear los procesos de una “máquina de Turing”. Alan Newell, uno de los primeros y más conocidos teóricos en I.A., afirma que para la computación, el soporte es irrelevante (1973). Esto supone que un sistema de procesamiento de la información (o, por comodidad, una mente), puede basarse en un soporte cualquiera, como por ejemplo rollos de papel higiénico: esto no es tan descabellado si se piensa que la máquina universal de Turing funcionaba con una ideal “cinta” de papel perforado. 
Este punto de vista la -I.A. fuerte-, que ha tenido mucha influencia en el nuevo dualismo psicológico del cognitivismo, ha producido toda una serie de afirmaciones que pocos dudarían en calificarlas de “polémicas”: es el “inflado” típico de la Great Science. Algunas de ellas son verdaderos obsequios a la exageración y al sensacionalismo más genuino: un ejemplo es Marvin Minsky, que afirma que dentro de unas décadas deberíamos “estar contentos si estuviéramos dispuestos a mantenernos en torno a la casa como animalitos domésticos [de los ordenadores]”. O John McCarthy, cuando declaró que “máquinas tan simples como los termostatos tienen creencias”. Estas frases dan fe de las características esenciales de la “Gran Ciencia” que se desarrolla a través de la I.A. fuerte. 
 	 
2. Un poco de historia 
En los años cuarenta se pusieron a funcionar las primeras computadoras (esos roperos de metal, llenos de bulbos) se les llamó “cerebros electrónicos”, ya que podían hacer sumas. Esto hizo imaginar a muchos: “Mañana las máquinas conversarán con nosotros”. Y entonces el cine, los dibujos animados y la televisión se poblaron de robots “inteligentísimos” -aunque de movimientos algo torpes- que acompañaban a los humanos en toda clase de mundos. Mientras los alumnos de cibernética seguían perforando tarje- tas, en el cine la computadora HAL se ponía paranoica y tomaba la decisión deasesinar a los astronautas de la película 2001, Odisea del Espacio. 
En el año 1900 el prestigioso matemático alemán David Hilbert propuso una serie de problemas, cuya resolución se consideraba clave para el avance de las matemáticas y la ciencia en general, entre ellos estaba el conocido con el -Entscheidungsproblem, que se pregunta si existe un procedimiento mecánico que resuelva todos los problemas matemáticos pertenecientes a un tipo dado bien definido. Este problema fue el que motivó a Turing a proponer la famosa máquina que lleva su nombre. 
2.2 La máquina de Turing 
Alan Turing fue un matemático británico especializado en criptografía que jugó un papel importante dentro del grupo que descifró los códigos secretos alemanes durante la Segunda Guerra Mundial. Turing concibe su máquina como una descripción idealizada de la actividad que llevaban a cabo los contables realizando tediosos y rutinarios cálculos con lápiz y papel ayudados a veces de tablas trigonométricas o de logaritmos. Hasta el advenimiento de los ordenadores este cálculo numérico contable empleaba a miles de personas en bancos, administración pública y en muchas otras empresas, era una actividad muy común en aquellos días; el mismo Turing lo indica en una de sus publicaciones “si a una persona se le facilita papel, lápiz y goma de borrar y se le somete a una disciplina estricta, dicha persona se convierte en lo que se denomina una máquina universal”. Wittgenstein fue más radical, si cabe, a la hora de referirse a las máquinas de Turing: “Estas máquinas son humanos que calculan.” 
Una máquina de Turing es un modelo formal de ordenador, un concepto teórico de computación que formaliza el concepto de algoritmo. Más adelante se dará una definición más formal de algoritmo, de momento puede servir, la siguiente definición: un algoritmo es todo procedimiento que realiza una tarea determinada en un número finito de pasos. Una máquina de Turing consiste en una cinta de longitud infinita, dividida en celdillas, donde cada una contiene una letra de un alfabeto o está en blanco. El alfabeto consiste en un conjunto finito de símbolos, incluido el espacio en blanco. La máquina tiene un cabezal para leer los símbolos en las celdillas y escribir nuevos símbolos que sustituyan a los existentes cuando corresponda; cuando el cabezal ha terminado de leer o escribir en una celdilla se mueve a la derecha o a la izquierda de esa celdilla, una sola posición cada vez, salvo que se llegue al estado de parada. 
La máquina tiene un número finito de estados, y se dice que siempre se encuentra en cierto estado. Un programa consiste en una lista de instrucciones, cada instrucción le indicará a la máquina una computación a realizar; es decir, una serie de acciones, dados un estado actual y un símbolo determinado bajo el cabezal, la instrucción le indicará qué símbolo debe ser escrito en la cinta, y si el cabezal debe moverse un paso a la izquierda o uno a la derecha. Una instrucción viene definida por una quíntupla como la siguiente: (estado inicial, valor inicial, nuevo estado, nuevo valor, movimiento) 
La cinta se utiliza para almacenar datos, pero también se puede utilizar para guardar una serie de instrucciones (pequeños programas o subprogramas). En este último caso se dice que la máquina de Turing emula a otra, la que se encuentra en la cinta, este tipo de máquina se conoce con el nombre de máquina universal. Una observación crucial es que se demuestra que solo hay un número contable de máquinas de Turing. Entendiendo por conjunto contable aquel que es finito o se puede poner en correspondencia uno a uno con el conjunto de los números naturales. 
 	 
3. Inteligencia Artificial 
La IA es la rama de la ciencia que se encarga del estudio de la inteligencia en elementos artificiales y, desde el punto de vista de la ingeniería, propone la creación de elementos que posean un comportamiento inteligente. Dicho de otra forma, la IA pretende construir sistemas y máquinas que presenten un comportamiento que si fuera llevado a cabo por una persona, se diría que es inteligente. El aprendizaje, la capacidad de adaptación a entornos cambiantes, la creatividad, etc., son facetas que usualmente se relacionan con el comportamiento inteligente. 
Todas las definiciones de Inteligencia Artificial están relacionadas con la siguiente idea: Desarrollo de métodos y algoritmos que permitan comportarse a las computadoras de modo inteligente. 
Se pueden definir dos puntos de vista o enfoques de la IA, el punto de vista tecnológico o ingenieril y el punto de vista científico; 
Por un lado, la rama ingenieril busca la creación de sistemas informáticos que realicen tareas para las que se precisa inteligencia. Se persigue desde este planteamiento la resolución de problemas concretos, sin limitar las técnicas a utilizar a aquellas que utilizan los seres inteligentes. 
Por otro lado, la rama científica de la IA se puede definir como “el estudio del comportamiento inteligente, siendo su fin conseguir una teoría de la inteligencia que explique la conducta que se produce en seres de natural inteligentes, y que guíe la creación de entes artificiales capaces de alcanzar dicho proceder inteligente” 
Posturas de la IA ante la posibilidad de simular la conciencia por un ordenador, todavía hoy se encuentran defensores de cada una de ellas; 
1. IA Fuerte: Como antes se ha dicho, los partidarios de esta postura piensan que toda actividad mental es de tipo computacional, incluidos los sentimientos y la conciencia, y por tanto se pueden obtener por simple computación. 
2. IA Débil: Cree que la conciencia es una característica propia del cerebro. Y mientras toda propiedad física se puede simular computacionalmente, no se puede llegar por este procedimiento al fenómeno de la conciencia en su sentido más genuino. Los que pertenecen a este grupo dicen que la simulación por ordenador de un huracán no es en sí mismo un huracán. O que la simulación de la digestión por el estómago no digiere nada. Se trata de un proceso no causal. 
3. Nueva Física Esta postura defiende que es necesaria una nueva Física para explicar la mente humana y que quizás en el futuro se pueda simular, pero ciertamente no por métodos computacionales; para ello es necesario que en el futuro se descubran nuevos métodos científicos que todavía se desconocen. 
4. Mística Esta postura defiende que la conciencia no se puede explicar ni física, ni computacionalmente, ni por otro medio científico. Es algo totalmente fuera de la esfera científica, pertenece al mundo espiritual y no puede ser estudiada utilizando la razón científica, escapa al método de conocimiento racional heredado de la cultura griega. 
Los que se sitúan en las dos primeras posturas están convencidos de que la conciencia es un proceso físico que emerge del cerebro, explicable con la ciencia actual, lo que sucede es que todavía no se ha llegado a desentrañar el misterio. Veremos en los apartados siguientes la diferencia entre las posturas de la IA fuerte y la IA débil. 
La postura tres es defendida especialmente por Penrose que declara que el cerebro posee propiedades que no son computacionales. Penrose se basa en el teorema de Gödel y la tesis de Church-Turing para afirmar que siempre habrá hechos verdaderos no alcanzables por un sistema computacional. 
La postura cuatro puede parecer la más cercana a la postura teísta, por su consistencia con la mente universal en el budismo o por su coherencia con el dualismo (materia y espíritu) del cristianismo; sin embargo, los que piensen que solo la postura cuatro es compatible con la postura teísta se equivocan, cualquiera de las cuatro posturas sería compatible con la religión. La ciencia podrá o no responder a la pregunta de cómo funciona la mente, pero nunca responderá a la pregunta de por qué la mente existe o cuál es su fin último. Son ámbitos distintos de trabajo aunque puedan existir algunas interrelaciones. 
 	 
4. Intentos fallidos 
Naturalmente la realidad parece ser bastante más compleja y “difusa”que la dicotomía entre lo “posible” y lo “no posible”. Quizá las concepciones de “inteligencia” que se manejen no sean con todo ni siquiera parecidas: es como si un grupo de ingenieros informáticos se hubiera apoderado de la palabra inteligencia e, ignorando todas sus posibles acepciones, la hubiera redefinido desde el punto de vista de potencia y capacidad de proceso. 
No sería por lo tanto de extrañar que éstos calificaran algo tan estúpido como un ordenador de “inteligente”, porque sería una inteligencia en tanto que velocidad para resolver problemas. Lo cual es muy discutible, por no decir inexacto. La concepción del ser inteligente como el ser “manipulador-de- símbolos” es una idea en la que prima el procesado de la información pero no el significado de ésta, su semántica. Es la crítica que mueve Searle (1985) con su argumento de la “habitación china”: un procesador con instrucciones para recibir símbolos sin significado y devolver otros símbolos para él sin sentido, podría parecer desde fuera un ser inteligente. Sin embargo, lo único que habría hecho sería manipular símbolos de forma mecánica, aunque, eso sí, enormemente compleja. Un computador digital, en este sentido, es un “elaborador”, un “convertidor” de símbolos, un ábaco prodigioso. Y aun aceptando las críticas de Copeland (1993), que subrayan como el “sistema’ ideado por Searle, en conjunto, sí entiende el chino, esta comprensión en realidad no implica nunca el significado: no maneja un sistema de valores asociado a un ambiente, no emite juicios basados en el provecho ni en estimaciones propioceptivas. 
¿Por qué este sistema no podría calificarse de “inteligente’? Porque sería un sistema que no podría moverse en un ambiente de forma adaptativa, que no podría procesar de forma útil los datos como lo hace la inteligencia humana o animal: sería un sistema carente de “intencionalidad”. En ello es muy posible, por no decir totalmente seguro, que influye la naturaleza orgánica, el wetware del cual estamos constituidos; Penrose (1991) llega más allá y afirma que la naturaleza no algorítmica de la inteligencia humana depende de características subatómicas. Sin ir tan lejos, algunas pruebas recientes acerca de las interacciones razón/sentimientos (traducibles en interacciones cognición/emoción) se pueden encontrar en la reciente obra de Damasio (1996) y revisten una importancia particular para la presente digresión: en pacientes con lesiones cuya entidad afectaba los centros emocionales o la correcta relación entre centros de las emociones y centros del procesamiento de la información, se daban desequilibrios no adaptativos para la persona. A lo largo del libro aparecen sujetos que podríamos calificar de inteligentes y que, sin embargo, por su incapacidad de relacionarse con el medio en función de su valor subjetivo, no pueden llevar a cabo una vida independiente. 
Cuando vemos robots como el M3 japonés, intentando subir una escalera con dificultad, nos damos cuenta de que difícilmente podemos definir la inteligencia sin tener en cuenta el medio, las demandas y la interacción entre ambos componentes (Piaget, 1964). Aunque nos resulte chocante, la afirmación “pensamos con el estómago” no pierde veracidad por su crudeza. La conducta inteligente, en calidad de conducta, puede, por ejemplo, ser considerada “propositiva” (Tolman, 1932). Una conducta propositiva es una conducta con metas, tendente a un objeto, impulsada por motivaciones, intencional: una máquina debería ser programada teniendo en cuenta este aspecto fundamental de la inteligencia como fenómeno orgánico. 
Con todo, la investigación en I.A. no hace más que aumentar y prueba de ello son los numerosos proyectos presentados cada año. Dejando a un lado mecanismos lúdicos como el perro Aibo de la casa japonesa Sony, y otros seres artificiales de capacidad muy limitada, por ahora los resultados más espectaculares se han producido a través de software tradicional. La mayoría de veces, este software se ha programado en LISP, un lenguaje creado en el MIT y utilizado casi exclusivamente en I.A. Escribir software resulta por ahora mucho más efectivo y económico que crear pseudoorganismos integrados. Dentro del marco de referencia que es LISP y otros lenguajes similares, han surgido con el tiempo varios programas paradigmáticos de la I.A. y de sus problemas. El primero de ellos es “Eliza”. 
Creado por Joseph Weizenbaum, Eliza consiste en un amistoso programa de charla. 
Una persona se sienta en el terminal y empieza la conversación con el programa. 
Éste posee un vocabulario limitado, cierta “memoria de trabajo” y una gramática básica. Gracias a la “memoria de trabajo”, Eliza saca palabras clave de la conversación y puede volver a reutilizarlas más adelante, dando la impresión que sigue un hilo o una pauta conversacional. A pesar de la validez aparente del diseño de Eliza, es suficiente empeñar la máquina con verbalizaciones más complicadas de lo normal para apreciar que algo falla: 
E: ¿CÓMO ESTÁS? POR FAVOR, EXPÓN TU PROBLEMA. 
H: Me preguntaba si los ordenadores pueden pensar. 
E: ¿PORQUÉ MENCIONAS LOS ORDENADORES? 
H: Puesto que tú eres uno de ellos, me había planteado preguntarte: “¿Puedes pensar?” 
E: PENSABAS QUE ELLOS PODRÍAN NO SER UNO DEL QUE TÚ PENSABAS PREGUNTARME, PUEDO PENSAR. 
H: Hablemos acerca de ti, no de mí: ¿puedes pensar? 
E: TE GUSTA PENSAR QUE YO, NO TÚ, NO ES CIERTO. 
H: ¿Perdón? 
E: ¿QUÉ TE SUGIERE ESO? 
Esta conversación pone en aprietos al programa, que demuestra todas sus debilidades. Eliza ignora toda información contextual y evalúa los inputs de forma mecánica. Es una tecnología basada en la comparación de patrones y el resultado dista mucho de parecerse al de una conversación humana. La famosa prueba propuesta por Turing, es decir, el que un evaluador pueda discernir a través de un terminal la presencia de una máquina u otro humano, es una barrera de por sí infranqueable para la I.A. actual, basada en el algoritmo y en la lógica no-difusa. Con todo, Eliza no dista mucho de ser una compleja calculadora que responde a las palabras con otras palabras (recuérdese el traductor chino de Searle). 
Sin embargo, la misma prueba de Turing no se libra de problemas. Copeland (1993) ha descrito algunas objeciones a la prueba. La primera de ellas hace referencia al hecho que animales superiores como los delfines o los chimpancés piensan, pero no pueden superar la prueba de Turing (incluso los niños pequeños). Otras tres se refieren a que una máquina podría superar el test de Turing y no ser capaz de pensar. La “objeción de los órganos de los sentidos” es bastante explícita: un ordenador, aunque pueda manejar conceptos, no puede referirlos al mundo que le rodea (a esto hay que añadir que el procesamiento de las percepciones por parte de las máquinas es por ahora algo muy lento e ineficaz). La “objeción de la caja negra” supone que aunque una máquina lograra pasar la prueba de Turing, el examen de sus mecanismos internos pondría al descubierto la incapacidad real de la máquina para pensar. Finalmente, la “objeción de la simulación” afirma que “la simulación de un proceso X, no es el proceso X”, con lo que, por ejemplo, simular el pensamiento no equivaldría a pensar. Todo esto pone en evidencia que incluso una prueba como la de Turing tiene sus debilidades y que para llegar a un mecanismo capaz de pensar, se deben superar muchos más escollos. 
Uno de los más importantes consiste en la obtención y manipulación del conocimiento. Por ejemplo, el GPS, o General Problem Solver, de Newell fue un programa que en su época despertó grandes expectativas. Su código fuente le permitía resolver sencillos acertijos y problemas, como el de los tres misioneros y los tres caníbales, o el de las Torres de Hanoi. Sin embargo, el GPS tenía graves limitaciones, más aún: no era en realidad el programa quien “resolvía” el problema, sino los programadores. De hecho, para lograr que el GPS “solucione” un problema, hay que proporcionarle todas las variables implicadas y esto, una vez más, es trabajar conun programa de cálculo. Decir que el GPS es inteligente equivale a afirmar que la inteligencia es básicamente velocidad de procesamiento y resolución de problemas con variables dadas, con todos los falsos corolarios que se derivan de este postulado. 
El GPS ha sido comparado con un “autómata que va dando batacazos hasta hallar la solución” y es una imagen bastante certera de los fracasos en I.A.: la inteligencia humana es ante todo “económica”, “ahorra” posibles caminos para llegar de forma más efectiva a una solución. Un programa de ordenador, por otro lado, sigue una “lógica del bucle”, efectiva para pequeños problemas, pero no práctica para problemas de envergadura mayor. Por si no fuera suficiente, ya hemos comentado que el GPS no puede resolver un enigma si no dispone de variables clave. Tampoco puede representar el problema ante sí mismo, mientras el programador lo hace. Y es precisamente esta representación la que permite la resolución verdadera, lo que ahorra intentos y posibilita alternativas atrevidas o no lógicas, saltando incógnitas prohibitivas; desde este punto de vista, el GPS no hace más que despejar incógnitas: 
es un programa lógico, pero no inteligente. 
Así, el adjetivo “general” o “universal” se ha progresivamente eliminado de la I.A. para ser sustituido por la frase “sistema experto”. Los sistemas expertos admiten desde el principio sus propias limitaciones, y aquí reside su fuerza: programas de soporte para el diagnóstico médico, aplicaciones de reconocimiento de voz o correctores ortográficos, son todos ellos sistemas expertos que operan con éxito en “micromundos”. Estos programas altamente especializados recuerdan los 
idiotssavants de la literatura médica: personas capaces de decir el día de la semana de un año y mes cualquiera, obtener cualquier potencia de un número entero en segundos, reproducir una escena dibujándola con precisión fotográfica o recordar largas listas triviales de nombres. Estos “islotes de capacidad” son comparables con los programas más avanzados en Inteligencia Artificial, y viceversa. Se podría incluso decir que la inteligencia artificial lograda hasta ahora es de tipo “autista” y paranoide: el programa de ordenador atiende sólo algunos datos de su entorno e ignora otros, es capaz de llevar a cabo algunas tareas, pero no otras. La respuesta es infalible y estereotipada, el punto de vista es único. 
Uno de los proyectos más ambiciosos en este sentido es el que Doug Lenat está llevando a cabo con su CYC (trigrama derivado de “enciclopedia”): su objetivo es construir una base de conocimientos que contenga una porción significativa de sentido común (o realidad consensuada) de los occidentales del siglo XX. La opinión de Lenat es que la vulnerabilidad de los sistemas expertos se basa en su “ignorancia”. El proyecto CYC pretende “construir” un pseudo sentido común a través de millones (unos 100, según Lenat) de enunciados del tipo “el agua corre hacia abajo”, “tener dinero no impide querer más”, “los seres vivos enferman” y un largo etcétera. Este proyecto, sin embargo, ha recibido críticas por la ontología y la lógica que utiliza, demasiado “basta” y limitada (Copeland, 1993). Todo intento por superar la barrera de la complejidad parece abocado al fracaso. Terry Winograd, programador de Shrdlu, un sistema experto que manipula formas en el espacio, admite que no puede ir más allá de su mismo programa. Millones de líneas de código se amontonan sin que se dé “chispa” alguna de inteligencia en el sentido humano. 
¿Realmente puede nacer esta “chispa” en un soporte no orgánico? Hay quienes consideran que el modelo 0-1 del transistor normal no sea el más adecuado y que los modernos procesadores no distan mucho de la enorme calculadora mecánica de Babbage: son los promotores de la teoría de redes neuronales y procesamiento en paralelo. La naturaleza peculiar del wetware neuronal, el tipo de procesamiento y otras diferencias tangibles con respecto a los elementos vi estado de los ordenadores tradicionales podrían, según algunos, constituir la fundamental diferencia -y obstáculo- entre la I.A. de silicio y la inteligencia orgánica. Mientras un transistor pasa por dos estados y éstos son los que valen para la computación, en el cerebro se tienen además en cuenta la organización de las estructuras, la tasa de descarga y la enorme interconexión y actividad de integración de señales que se lleva a cabo. McClellan, máximo representante del grupo PDP, hipotetiza que dadas estas características de procesamiento, lo que al cerebro humano le ocuparía pocos segundos de elaboración (por ejemplo, leer y comprender lo que está escrito aquí) podría durar años para los más rápidos ordenadores actuales. Las diferencias entre el soporte orgánico y el electrónico no terminan aquí. Parece que el cerebro adopte una estrategia de almacenamiento “difuso”, como un holograma. Esta arquitectura repartida también acarrea como consecuencia el que el cerebro humano sea mucho menos vulnerable a los fallos en sus unidades constituyentes que los ordenadores: si en un ordenador falla un semiconductor, un cable o una patilla, la actividad entera puede perderse; en el cerebro, por el contrario, se da una gran redundancia en el procesamiento, y la pérdida de neuronas no parece afectar con la misma gravedad el procesamiento como ocurre con los ordenadores tradicionales. 
5. ¿Qué tipo de inteligencia y conciencia posee una máquina? 
Al tratar de contestar esta pregunta se da otro salto cualitativo, del ámbito lógico matemático al ámbito científico filosófico. El primero es más restringido y por tanto las reglas de “juego” están bien definidas, como contrapartida tampoco se puede decir mucho sobre problemas de alcance más amplio que resultan más interesantes. Turing también dio ese salto y propuso una prueba para determinar cuándo se puede considerar inteligente una máquina. Así establece que una máquina se puede considerar inteligente si al comunicarse con un humano (que no ve físicamente a la máquina) este no sabría decir si está hablando con una máquina o con otro humano como él. Este test aunque no lo ha pasado ninguna máquina todavía, sí que parece alcanzable en un futuro no lejano. Ello animó a los seguidores de la IA fuerte a aventurar el advenimiento de máquinas inteligentes que alcanzarían las mismas características de la inteligencia humana; sin embargo, Searle presentó (Searle, 1980) el siguiente argumento en contra: Supongamos una persona que sepa solo inglés y se le encierra solo en una habitación, la puerta dispone de una pequeña rendija que le sirve de comunicación con el exterior. La comunicación se establece exclusivamente mediante hojas de papel escritas en chino que se pasan por la rendija. La tarea de esta persona consiste en seguir unas instrucciones escritas en inglés, que se encuentran en la habitación, de cómo manipular caracteres chinos. Cuando se le pasan desde el exterior preguntas en chino, esta persona utilizando las instrucciones en inglés contestaría también en chino, sin saber el significado real de lo que le preguntan y de lo que él contesta; sin embargo para observadores que se encuentran en el exterior daría la sensación de que sabe chino. 
Con esto Searle muestra que aunque veamos hablar a un ordenador y contestar a nuestras preguntas, en realidad no son capaces de entender la lengua. Los ordenadores utilizan los elementos sintácticos de la lengua pero no los semánticos. 
Con todo es conveniente distinguir entre epistemología y ontología, es decir, entre “¿Cómo conozco?” y “¿Qué es lo que conozco cuando conozco? El test de Turing cae en este error de mezclar epistemología y ontología y de ahí viene la confusión que se ha dado incluso en las discusiones entre expertos. El ámbito epistemológico se relaciona mejor con la ciencia que el ontológico. El ontológico sobrepasa al científico, porque la ciencia carece de las herramientas para contestar a muchos de los problemas que plantea la filosofía, que sin embargo resultan más radicales para el ser humano.Es importante separar y definir específicamente qué se entiende por conciencia. Si no, se podría argumentar que un simple termostato es consciente de que hace frío en la habitación en que está instalado, porque se dispara y pone en funcionamiento la calefacción cuando en la habitación se alcanzada una cierta temperatura. Sólo nos vamos a referir a niveles de consciencia superior, cualidad propia de los seres humanos; es decir, definimos conciencia como la capacidad para debatir, reflexionar y darse cuenta de la propia existencia. Penrose considera que existen intuiciones de la mente que no se pueden expresar algorítmicamente, y apoyado en el teorema de Gödel dice que la mente no se puede simular con la ciencia que ahora conocemos, indica que tiene que surgir un nuevo paradigma científico para que se pueda abordar este problema. 
Todo esto entronca con el ámbito filosófico del mundo de las ideas de Platón. Nos movemos así entre las matemáticas y la filosofía, lo que Einstein consideraba los problemas genuinamente interesantes. Gödel era un platonista entre positivistas en el círculo de Viena, él estaba callado mientras los otros hablaban de la obra de Witteinstein. Gödel en lugar de hablar ofrece una demostración que lleva directamente al mundo de las ideas de Platón, y que también dice algo en contra de 
“el hombre es la medida de todas las cosas” de los positivistas del círculo de Viena 
[5]. 
Se podrán hacer muchas cosas en inteligencia artificial. Pero cuando en los siglos XVII y XVIII se intentaba construir una máquina que volara se miraba a las aves y como simular su capacidad de volar, se intentaba ponerles alas y una cola que se movieran de forma similar a las de las aves. A principios del siglo XX surge el avión que volaba pero que se parecía a las aves solo en las alas y la cola. Aunque los aviones no son como la aves sí son más útiles a los humanos que las aves en el sentido puro de utilidad, pues los aviones nos permiten viajar rápidamente de un punto a otro, transportando toneladas de material, cosa que no se lograría ni con las aves mitológicas; sin embargo las aves aventajan a los aviones en que son capaces de reproducirse por sí mismas; es obvio que el sistema de reproducción de las aves aventaja al de los aviones, al menos en economía, los aviones son incapaces de poner huevos por ahora. Sirva esta analogía para indicar lo que cabe esperar de sistemas desarrollados intentando simular la inteligencia y la conciencia; probablemente se consigan en un futuro androides, seres artificiales, muy inteligentes, incluso más que los humanos en la realización de ciertas tareas, pero obviamente siempre serán distintos de los humanos. Por el simple hecho de haber sido creados por el hombre, a los androides no se les podrán atribuir cualidades humanas. 
En general, los seres vivos no son como las máquinas hechas por los humanos, como les gusta decir a algunos mecanicistas. Un androide o un robot es como un coche, se fabrican las piezas independientemente: las ruedas, el volante, los cilindros del motor, etc. que luego se ensamblan entorno a una unidad central que puede ser el ordenador de a bordo. El ensamblaje se realiza de fuera a dentro. En los seres vivos el proceso se da al revés de unas pocas células se desarrolla todo el ser vivo. 
El ensamblaje se realiza de dentro a fuera. Así Borden argumenta que el metabolismo bioquímico es necesario para la vida. Según esta autora puede ser posible producir vida artificial pero probablemente tendrá que ser a través de procesos bioquímicos y no metálicos electrónicos. Un programa informático, esté o no insertado en un robot, no tiene intencionalidad, no tiene conciencia y, por tanto, no puede tener una semántica intrínseca. 
 	 
6. Objeciones contra las IA 
· Objeción dualista: Los robots son artefactos materiales y la conciencia requiere una entidad inmaterial. 
Según Dennett, detrás de las objeciones de algunos autores (incluido Searle), de hecho, está un dualismo encubierto, un deseo muy arraigado en todos nosotros – él de proteger el cerebro de la ciencia. Los «misterios» de la vida van concediendo sus secretos a la ciencia (por ejemplo, el misterio de la vida a través del descubrimiento del ADN). No hay razón alguna para considerar que la conciencia sea una excepción. 
· Los robots son inorgánicos y la conciencia requiere un cerebro orgánico; los robots serán siempre demasiado sencillos y su procesamiento demasiado lento como para ser conscientes. 
Es cierto que la complejidad de la bioquímica cerebral es abrumadora. Sin embargo, en la actualidad la ciencia es capaz de imitar y suplir el funcionamiento de algunos órganos. Por ejemplo, el corazón artificial funciona realmente bien, aun siendo muchísimo más sencillo que un corazón orgánico. La construcción de un ojo artificial ya está en el horizonte. Si es posible con el corazón y el ojo, ¿por qué no con el cerebro? No hay ninguna objeción lógica en contra de la posibilidad de sustituir cada uno de los módulos cerebrales por un circuito electrónico. Con todo, de modo análogo al caso del corazón artificial, para construir un cerebro artificial probablemente no sea necesario hacer una copia sinapsis por sinapsis. 
· Algunos expertos vaticinan que el desarrollo de la IA, el mayor reto tecnológico de la historia, dará a luz una nueva generación de robots autónomos capaces de atender cualquiera de nuestras necesidades. Pero, ¿constituirán una amenaza? 
Pero ¿constituirán una amenaza? Elon Musk, el visionario magnate que fundó PayPal o la corporación espacial privada SpaceX, asegura que las investigaciones en este sentido van demasiado rápido, y que por eso la IA es una tecnología que puede resultar muy peligrosa. Entre los agoreros del apocalipsis artificial destaca el filósofo británico Nick Bostrom, de la Universidad de Oxford, que compara nuestro destino con el de los caballos, cuando fueron sustituidos por los coches y los tractores. En su opinión, una vez que sean conscientes de sí mismas, las máquinas inteligentes nos reemplazarán sin miramientos. 
Muchos investigadores señalan que la ONU debería hacer ya un pronunciamiento en contra de los robots militares autónomos. Imaginan que en un futuro cercano estos serán tan avanzados que podrán seleccionar y eliminar sus objetivos de forma totalmente automatizada, esto es, no necesitarán la intervención de operadores humanos. 
No obstante, buena parte de los científicos que trabajan en este sector mantienen que los sistemas informáticos no conseguirán emular la inteligencia humana; no, al menos, en las próximas décadas. De momento, los avances que se han realizado en IA parecen indicar que las máquinas equipadas con ella serán herramientas sumamente especializadas. Así, quizá en 30 años poseamos robots personales muy avanzados, capaces de recoger el lavavajillas, ordenar la casa, hacer la compra o atender a enfermos y discapacitados, pero carecerán de nuestra inteligencia. 
6.1 La Teoría del Valle inquietante 
Es una hipótesis propuesta en 1970 por el japonés Masahiro Mori. Según este experto en robótica, conforme más rasgos y comportamientos antropomorfos damos a los robots, mayor es nuestra empatía con ellos. Tendemos a reaccionar mejor ante máquinas que tienen ojos o boca, aunque no sean elementos necesarios para que desempeñen sus funciones. 
Pero esa relación no es lineal. Mori teorizó que llega un momento en el que la respuesta emocional se vuelve negativa, a medida que el ser artificial parece cada vez más humano. Si representamos el fenómeno en una gráca veríamos que se da un valle en el que los robots nos producen una sensación inquietante antes de que su parecido con nosotros resulte tan alto que la respuesta emocional vuelva a ser positiva. 
El fenómeno ha sido estudiado en primates, con resultados similares. En 2009, la 
Universidad de Princeton mostró a un grupo de monos fotografías de otros monos e imágenes tridimensionales generadas por ordenador con diferentes grados de realismo. La respuesta emocional fue similar a laque generamos las personas. 
7. Conclusiones 
La Inteligencia Artificial es sin dudas una de las ramas de la ciencia donde el hombre recrea sus potencialidades y donde como en un espejo, refleja su más preciado don, el que lo separa indiscutiblemente del resto de las especies, la “inteligencia”. El reto está en hacia donde conducimos estas ciencias, cuáles son las motivaciones y los fundamentos que las sostienen. Aquí es donde hay que potenciar el estudio y la aplicación de la razón principal de la Bioética, como disciplina que considera los problemas éticos planteados o derivados por el desarrollo de la ciencia y la técnica y su aplicación a la vida humana. 
Cada día se hace más realidad el planteamiento de Potter, el “gran reto que tiene ante sí la Bioética contemporánea, es desarrollar el camino como reflexión crítica abarcadora, que integre ciencia y vida, conocimiento y moralidad, los problemas vitales del hombre con perspectiva de presente y futuro”. Si el hombre no cambia las formas de organización de la sociedad y no abandona la estructura capitalista de economía, además de la posibilidad de la desaparición del hombre como especie por las acciones contaminantes y destructivas que realiza, nos encontramos ante nuevas formas de dominación y poder y la posibilidad de otro camino hacia la autodestrucción, la enajenación. 
La ciencia no se puede detener ni a los avances científicos pueden ponérseles muchas cadenas, pero hay barreras éticas que no pueden traspasarse por las consecuencias ético-morales que pueden acarrear; el hombre continuará por la senda abierta, su afán de lograr y alcanzar nuevos retos lo lleva en sus genes, la sociedad debe hacer hincapié en la incorporación de la ética en sus acciones, por lo que debe cambiarse la forma de abordar las investigaciones. 
Compartimos la idea expuesta por Catherine Galaz cuando expresa “... Y es que ante tantos logros científicos y en un mundo cada vez más individualizado, aparece en el horizonte la idea de que todo es posible y todo vale. Pero a la par con las conquistas científicas, ha aparecido un nuevo frente de acción de la ética poniendo énfasis en preguntas tales como: ¿debe tener la tecnología sus límites?, ¿dónde comienza la vida?, ¿puede el hombre manipularlo todo?, ¿todo lo que el hombre puede hacer, lo debe hacer?...” El trabajo ético concerniente a los retos y posibilidades que nos imponen los sistemas de Inteligencia Artificial -y a la ciencia en general- recaen sobre los hombros y la conciencia de los creadores e investigadores, pero la sociedad, con sus armas, su leyes y su necesidad de sobrevivir debe enlutarlos por los caminos en los que sean más beneficiosos para el ser humano. La Bioética debe erigirse y utilizarse como bastión y defensa e incorporase en todo el accionar investigativo y cotidiano de los seres humanos. 
No puede descuidarse la formación ética de los investigadores, quienes al pensar en ciencia y tecnología no pueden descuidar la responsabilidad social y las consecuencias de cada uno de sus actos. Ella constituye “la nueva ética científica que combina la humildad, la responsabilidad y la competencia,… y que intensifica el sentido de la humanidad”. Y coincidimos con Madruga en su trabajo sobre sostenibilidad tecnológica, “la tecnología nos obligará a repensar nuestra condición humana, obligándonos a conocer nuestras posibilidades de crecer como seres creadores y de seguir evolucionando espiritualmente hacia un nueva visión del mundo donde dejamos de ser los amos de la naturaleza para convertirnos en los protectores de la naturaleza y de nosotros mismos, en alianza con la tecnología”.20 
En conclusión, la conciencia y la inteligencia no son más que los disparos de las neuronas. El funcionamiento de los circuitos cerebrales es replicable por medios informáticos, sea como una réplica exacta o, mejor, utilizando simplificaciones que darán los mismos resultados funcionales. Dennett sugiere que el método más viable de crear una máquina consciente es construir un robot dotado de la capacidad de interaccionar con el ambiente de un modo similar al nuestro, y aprender. Así va a crear su propia representación mental del mundo y, finalmente, su propia conciencia. 
 	 
7.1 Conclusión Desde el Punto de Vista Ético 
La ética es una ciencia práctica que es fundamental en todos los aspectos de la vida diaria. Esta ciencia filosófica nos ayuda a reflexionar sobre los comportamientos correctos e incorrectos y sobre cómo llegar a tener una buena vida en interacción con otros seres humanos y en armonía con el medio ambiente. 
La ética es un componente clave para el desarrollo actual y futuro de la IA, pues es la base para mantener la integridad y la legitimidad de de sus aplicaciones y para salvaguardar la misma vida. 
Por lo anterior, los desarrollos tecnológicos deben estar sujetos a la aprobación y verificación de la sociedad no sólo con criterios técnicos, sino también con criterios éticos. 
La IA es un campo nuevo y en continua evolución, en el que todo está por investigar y desarrollar. De ahí la necesidad de generar en la sociedad la confianza de que lo que se produzca bajo sus técnicas está elaborado con una serie de principios y códigos éticos que guiaran el comportamiento de dichas máquinas. 
Avizoramos que la creación de valor a partir de la incorporación de la ética en los nuevos productos llevará a marcar la pauta entre las organizaciones dedicadas al desarrollo y producción de tecnología. Esto se podría convertir un estándar internacional, mejorando tanto la calidad de vida de los empleados de estas organizaciones, como la de sus clientes. 
Dichos estándares crearían entre los países una gran diferencia, llevándolos a que trabajen en la vinculación de la ética dentro de cada proceso que se desarrolle en sus organizaciones. Esta sería una gran opción para la mejora de países con altos niveles de corrupción y de tecnocracia en la automatización industrial. 
En esta ponencia han surgido muchas más preguntas que respuestas. Por ejemplo ¿hasta dónde podemos llegar con la tecnología?, ¿hasta dónde quieren las personas reemplazarse por máquinas capaces de realizar infinidad de procesos matemáticos y de razonamiento en un menor tiempo? Y aún más lejos, ¿hasta qué punto estas máquinas tendrán la capacidad de sentir, demostrar sentimientos, sobrepasar frustraciones, alegrarse por sus logros?, 
¿Llegarán a sentir frio, calor, la calidez de una mañana, el rocío al amanecer y otras sensaciones que solo pueden ser percibidas por los humanos? Si lo anterior llegara a cumplirse, ¿Podrán los robots o las máquinas inteligentes llegar a tener los mismos derechos que tienen los humanos?, ¿llegarán a tener estas máquinas procesos cognitivos como los seres humanos?, ¿podrán heredar las capacidades de sus padres? 
Consideramos que el sólo hecho de imaginar respuestas a estos interrogantes significa un avance en la aplicación de la ética a la IA. Igualmente, esperamos que esta ponencia sirva de motivación para aquellas personas interesadas en la investigación en esté difícil pero necesario y urgente desafío para los profesionales del área. 
 	 
8. Bibliografía 
Newell, A.: El concepto de mente, Teorema, Valencia, 1980 
Damasio, A.: El error de Descartes, Drakontas, Madrid, 1996 
Searle, J., Mentes, cerebros y ciencia, Cátedra, Madrid, 1985 
González, F.: Inteligencia Artificial, Anaya, Madrid, 1996 
Copeland, J.: I.A., una introducción filosófica Alianza, Madrid, 1996 
Adarraga P. y Zaccagnini J. L.: Psicología e I.A., Trotta, Madrid, 1994 
Renato G. Herrera, La Inteligencia Artificial ¿Hacia dónde nos lleva?, 1990 
Juan J. Romero, Inteligencia artificial y computación avanzada, Fundación Alfredo Brañas, N. 13 / 2007 
Kostov. A (1982). Piense como un gran maestro. Club de Ajedrez, Editorial Fundamentos 
Nilsson, Nils J. (2000). Inteligencia Artificial: Una nueva síntesis. McGraw Hill 
Rich, E., Knight, K. (1991) Artificial Intelligence, McGraw Hill. Trad. Cast. 1º ed.: México, G. Gili, 1988 
Revista MUY INTERESANTE2 
 
20 
 
21 
 
image4.png
image5.png
image1.png
image2.png
image3.png

Continuar navegando