Logo Studenta

8 1 Singularidad tecnologica - Castañeda Giron

¡Este material tiene más páginas!

Vista previa del material en texto

1 
 
La singularidad 
tecnológica: el debate 
acerca de su posibilidad 
• Carlos Francisco Castañeda Girón 
Resumen 
El presente documento revisa los argumentos que varios autores tienen acerca de la 
posibilidad de que la tendencia de crecimiento de tecnologías de la información permita en 
algún momento la configuración de una entidad de Inteligencia Artificial “Dura” que 
sobrepase el nivel humano para llegar a la “Superinteligencia”. En esta revisión se indican los 
argumentos a favor y en contra, sin ser exhaustivos o definitivos, con el fin de verificar la 
importancia que el tema de la Singularidad Tecnológica tiene, a partir también de la definición 
del fenómeno o las distintas posibilidades de alcanzar este punto. 
Palabras clave: singularidad, argumentos, definición, inteligencia artificial, 
superinteligencia 
This paper reviews several arguments several authors mind about the possibility of the 
superintelligence break from the develompent of a “Hard” Artificial Intelligence. This 
document list the forementioned “pro” and “con” arguments, without being definitive, in 
order to determine the importance of this topic. By defining the term and reviewing the 
different ways Singularity can be achieved. 
Keywords: singularity, arguments, definition, artificial intelligence, AI, 
superintelligence
4 
 
Introducción 
La humanidad ha tenido en los últimos 150 años un avance particularmente rápido en materia 
tecnológica, en particular el crecimiento de las tecnologías de la información desde la primera 
computadora anunciada en 1946 (hace 66 años] ha sido exponencial hasta contar con los 
sistemas de procesamiento, generación y almacenamiento de información con los que 
contamos hoy en día. 
El avance tecnológico acelerado ha colocado a varios científicos, especialistas y escritores de 
distintas áreas en la posición de imaginar cómo será el futuro dado lo que existe hoy en 
materia tecnológica. La extrapolación del comportamiento industrial y social en los sistemas 
de información, quizá el método más efectivo de prospección, ha permitido que se pueda 
suponer un momento en el cual será posible crear un sistema tecnológico, autónomo y híbrido, 
que iguale la inteligencia humana dadas las capacidades de procesamiento de información, 
que se equiparen con las capacidades de nuestro cerebro biológico. Este punto, sin embargo, 
no sería el límite del desarrollo, a partir de ese momento las máquinas con capacidades 
inteligentes, capaces de replicarse en tiempos extremadamente cortos en comparación con los 
entes biológicos, podrían comenzar a mejorar iterativamente en una suerte de evolución. Esto, 
según los autores que apoyan esta teoría, llevaría a máquinas con capacidades de inteligencia 
más allá de la humana, y por lo tanto más allá de la inteligencia biológica. 
Este documento parte de la definición que Vernor Vinge, quien acuñó el término e integró las 
ideas de varios otros escritores y tecnólogos para entregar el concepto de singularidad 
tecnológica, como un símil de la singularidad en astrofísica, donde el espacio de hace 
infinitamente elástico y se comprime de la misma manera. A la par, esta revisión también se 
basa en los textos de quien es hoy el mayor promotor del concepto de singularidad, Ray 
Kurzweil, para entregar un panorama general de qué es la singularidad tecnológica, revisar 
que más allá del optimismo desarrollista hay riesgos y conocer los argumentos en favor y en 
contra de la mera posibilidad de que un evento de tal magnitud pueda suceder en algún 
momento, y en particular cuando los principales teóricos indican que será dentro de la 
primera mitad del siglo XXI.
5 
 
1. Qué es la Singularidad Tecnológica 
El término "Singularidad" se define genéricamente como el fenómeno, lugar o circunstancia 
donde las reglas que gobiernan el comportamiento dejan de tener validez. La Singularidad 
tecnológica es "un periodo futuro durante el cual el ritmo del cambio tecnológico será tan rápido 
y su impacto tan profundo, que la vida humana será transformada irreversiblemente” (Kurzweil, 
The Singularity is Near: When Humans Trascend Biology, 2005), Vinge nos dice que es el punto 
donde se crea una inteligencia sobrehumana de manera tecnológica (Vinge, 1993). 
En este mismo artículo definitorio de Vinge, nos indica que no es sólo por la vía de la creación 
de una gran computadora que replique la inteligencia humana, como se puede alcanzar este 
punto, el autor nos da cuatro opciones: 
Puede ser que se desarrollen computadoras que estén "despiertas" y sean superinteligentes 
en la escala humana. Hay voces en contra y a favor de la posibilidad, pero en este caso, como 
en las siguientes opciones, el autor nos dice que si existe la posibilidad, se llegará a ella 
irremediablemente. 
La segunda forma en cómo llegar a la Singularidad es que una red de computadoras 
interconectadas "despierte” como una entidad superinteligente. Hay que notar que el autor 
escribió esto en 1993, cuando el primer navegador gráfico, Mosaic, era lanzado al mercado 
en abril de ese año. 
La tercera vía para acceder a la Singularidad es a través de la integración de humanos y 
computadoras a través de interfaces avanzadas, donde la conjunción de la parte biológica 
con la informática puede generar incrementos a las capacidades humanas de manera que se 
puedan reconocer como inteligencias sobrehumanas. 
Finalmente la cuarta opción para encontrarse con la Singularidad es mediante la 
manipulación biológica pura, que puede conducir a mejoras sustanciales en el intelecto 
humano. 
A partir de estos escenarios, son los que involucran el desarrollo de sistemas de información 
y hardware los que despiertan el debate, y en específico las dos primeras opciones, ya que 
suponen la creación de lo que se conoce como la Inteligencia Artificial Dura (IAD). El tercer 
caso el autor lo define como Inteligencia Amplificada (Iam) que incita un debate distinto, 
relativo a la cuestión de quiénes serían los elegidos para las modificaciones tecnológicas y 
con ello convertirse en seres 
superinteligentes, evolutivamente en uno o varios escalones más arriba que el resto de las 
personas que no han sido modificadas. 
6 
 
En otro enfoque, Kurzweil con su definición basada en la lógica de crecimiento exponencial de 
la tecnología, también argumenta que este desarrollo acelerado de las capacidades tecnológicas 
conduciría a escenarios de avance sin precedentes en tres áreas de conocimiento: la genética, la 
nanotecnología y la robótica, que él identifica con la IAD. 
• La posibilidad de una Inteligencia Artificial Superior 
Existen dudas ciertas de que la existencia de un organismo (ya sea mecánico, biológico o lógico) 
que supere en capacidad intelectual al humano sea posible en cualquier momento. Existen, 
como dijimos, caminos ideados por los autores que apoyan la idea para llegar a la 
superinteligencia, sin embargo, los detractores de la misma indican que la motivación puede 
estar basada en la esperanza de la inmortalidad (Horgan, 2008) manifestada incluso por los 
fundadores de la idea, como Kurzweil quien prevé que los humanos podrían llegar a ser 
entidades inmortales de software consciente. 
Sin embargo, a pesar de que el argumento de la concepción religiosa y de "creyentes" se ve 
soportada por la premura con la cual los "singularitarios" predicen la aparición del momento 
de inflexión1 hay autores que al considerar los elementos que integran la conciencia y con ello 
la inteligencia, afirman que la creación de máquinas con esa característica es posible (Koch & 
Tononi, 2008). Según el artículo de Koch y Tononi, la conciencia depende exclusivamente de las 
matemáticas y la lógica, no viene de un reino mágico, por lo cual en teoría puede ser 
reproducida en una máquina. Se sabe que está relacionada con la función de la corteza cerebral 
como lo demuestran casos de humanos en estados vegetativos persistentes,donde la corteza no 
demuestra actividad. También es necesaria la actividad del tálamo. Un ente consciente es un 
sistema integrado con un amplio repertorio de estados. Está relacionado con la cantidad de 
información que el sistema puede generar. 
Con base en esto es posible plantear un debate real acerca de la singularidad desde
 
1 Horgan indica que la estimación de a lo más 3 décadas para la aparición de la superinteligencia de Vinge o de 
Kurzweil tienen más que ver con la propia mortalidad de estos autores que con una proyección realista de los 
avances en el terreno de la computación y la inteligencia artificial. No es tan llamativo para los singularitarios 
que el fenómeno de la singularidad tecnológica se dé dentro de 400 años. 
7 
 
argumentos técnicos y no sólo de creencias. 
• Sí habrá una Inteligencia Artificial Superior 
El artículo fundamental de la Singularidad (Vinge, 1993] es irreductible al afirmar que el 
estado de la tecnología hará posible en algún momento del siglo XXI (y en particular en la 
primera mitad] el surgimiento deliberado o accidental de una inteligencia artificial. 
Si la Singularidad Tecnológica puede suceder, lo hará. Incluso si todos los gobiernos del mundo 
entendieran la "amenaza" y murieran de temor, el progreso hacia esa meta continuaría. En la ficción 
hay historias de leyes aprobadas para prohibir la construcción de una 'máquina que asemeje a la mente 
humana'. De hecho, la ventaja competitiva (económica, militar, incluso artística] de cada avance en la 
automatización, es tan irresistible que promulgar leyes, o establecer aduanas que prohíban tales cosas, 
solamente asegura que alguien más lo obtendrá primero. 
Para Kurzweil, la Singularidad es una consecuencia natural de no solamente el desarrollo 
tecnológico, sino el devenir natural de la evolución, la cultura, la economía y por supuesto de 
la tecnología, que siguen crecimientos exponenciales más que aritméticos. En su libro La 
Singularidad está Cerca, enlista los siguientes factores que hacen posible la aparición de 
máquinas superinteligentes: 
• La innovación técnica se acelera, se duplica cada década; 
• El poder de las TI crece exponencialmente, se duplica cada año; 
• Para las TI hay un segundo nivel de crecimiento exponencial, alimentado por el 
beneficio económico que representa su crecimiento; 
• La exploración del cerebro humano es una de las tecnologías que mejora 
exponencialmente; 
• Tendremos modelos efectivos de inteligencia humana para la mitad de los años 20 
de este siglo; 
• Con la disponibilidad del software y hardware para emular el cerebro humano, 
se podrá aprobar el Test de Turing2 hacia finales de siglo; 
• El ciclo de la inteligencia de las máquinas, que iterativamente mejora su diseño, 
se hará más rápido cada vez; 
Muehlhauser y Salamon añaden “aceleradores" al surgimiento de la primera inteligencia 
artificial de al menos nivel humano. 
 
2 La prueba o Test de Turing es una actividad desarrollada en 1950 por Alan Turing, matemático inglés, que 
enfrenta a un juez con dos entidades a las cuales realiza preguntas, una de ellas es humana y otra es una 
máquina. Si el juez no puede distinguir a qué tipo de entidad, humana o artificial, corresponden las 
respuestas recibidas, entonces la máquina ha aprobado el test. El fondo de esta prueba se basa en que si 
algo parece inteligente, es inteligente. 
8 
 
El poder de cómputo ha crecido de manera exponencial en concordancia cercana con la ley 
de Moore, pero incluso si esta se agota y el crecimiento es menor, podemos esperar hardware 
que sea más poderoso, por mucho, en unas décadas. Este software con capacidades mucho 
mayores puede resolver problemáticas mayores en menor tiempo y costo con el uso 
únicamente de la fuerza bruta. A su vez, el desarrollo de los algoritmos computacionales 
entrega mejoras al desempeño, como en el caso de Deep Blue en 1997, que ejecutaba 1.5 
millones de millones de operaciones por segundo; en 2003 Deep Junior obtuvo el mismo 
resultado con la ejecución de 0.0015 millones de millones de operaciones por segundo. 
Los conjuntos de datos masivos o el llamado Big Data fomenta la capacidad de 
reconocimiento de patrones. Con el crecimiento acelerado de fuentes de datos en formatos 
electrónicos, el bajo precio de producción de los datos y el bajo costo de almacenaje, los 
sistemas de información cuentan con material disponible y en formatos accesibles para 
realizar reconocimiento, análisis y procesamiento. 
El progreso en la sicología y la neurociencia han permitido conocer procesos y formas de 
trabajar del cerebro que permiten un mejor modelado que se aplica en redes neuronales, 
procesamiento tridimensional y paralelo. Esto se agrega al crecimiento de la ciencia en 
general derivado del crecimiento en número de matriculados en posgrados e investigadores. 
Los incentivos económicos son importantes entre los factores que impulsan el desarrollo de 
la IA+, bajo la promesa de mejores resultados y productividad con menor costo en la 
producción de bienes y servicios derivado de la posibilidad de robots trabajadores con IA 
(en primera instancia). 
Por último, y quizá el mayor incentivo dentro de la escala de valores no siempre clara del ser 
humano, es el de "ser los primeros". Bajo un entorno competitivo y una vez que esté a la vista 
la meta de la primera máquina con IAD, gobiernos, empresas y cualquier persona con interés 
comercial y económico (dado el término de Homo Economicus (Robbins, 1932), cualquier 
persona tiene esas motivaciones) verán las ventajas sustanciales de la construcción de esa 
primera máquina. 
Para algunos autores (Muehlhauser, Facing The Singularity, 2012) la posibilidad de la 
superinteligencia es sólo cuestión de números y características comparables: 
• La velocidad de procesamiento, donde nuestras neuronas pueden llevar datos a 75 
metros por segundo o menos, cuando una máquina puede superar esas velocidades 
por 4 millones; 
• Profundidad serial. El cerebro humano no puede ejecutar rápidamente cálculos que 
requieren más de 100 pasos secuenciales, por lo cual se apoya en la computación 
paralela. En el ámbito computacional hoy en día es posible acudir a ambos tipos de 
9 
 
procesamiento (serial y paralelo) para superar esta limitación. 
• Recursos computacionales. El cerebro humano está limitado por el tamaño del 
cráneo (razones anatómicas y fisiológicas) mientras que las máquinas de cómputo 
pueden construirse tan grandes como ciudades, sólo limitadas por el consumo de 
energía y la arquitectura, lo cual es un obstáculo que se busca eliminar con sistemas 
de menor consumo y nuevos diseños. 
• Racionalidad. No está claro que los cerebros humanos hagan decisiones racionales 
de manera nativa y perfecta. Las computadoras se crean desde cero con el juego de 
instrucciones para ser racionales en las decisiones. 
• Acceso introspectivo / editabilidad. No podemos introducirnos en nuestro cerebro 
para editar o mejorar los algoritmos cognitivos. Es evidente que esa posibilidad 
existe en sistemas diseñados por los humanos. 
• No habrá una Inteligencia Artificial Superior 
La aseveración de un futuro, para algunos cercano (Vinge, 1993; Kurzweil, The Singularity is 
Near: When Humans Trascend Biology, 2005) donde habrá una inteligencia artificial capaz de 
mejorarse a sí misma en procesos iterativos para llegar a la IA++ es por supuesto motivo de 
debate, no sólo en la comunidad de las TI, sino en todos los ámbitos debido a los grandes 
impactos filosóficos, éticos, económicos, laborales, religiosos que tiene el supuesto de la 
posibilidad de una entidad más inteligente que el ser humano, su relación con éste y las posibles 
decisiones que haría respecto a su futuro, el entorno, su crecimiento. 
Además del tema de la creación de una IA Amistosa que vimos anteriormente, algunos autores (Shaviro;Sotala, 
2007; Stross, 2011; Greaves & Allen, 2011) cuestionan la posibilidad de que en algún momento se dé la 
singularidad tecnológica. A partir de varios enfoques y limitantes que intentan demostrar, y para las cuales 
Chalmers propone una réplica. Cabe mencionar que incluso el artículo de Vinge contempla la posibilidad de que 
la singularidad no llegue: 
Quizá no pase en absoluto. Algunas veces trato de imaginar los síntomas que esperaríamos ver si la 
Singularidad no se va a desarrollar. [..] Si esto es cierto, en los inicios de la década del 2000 
encontraríamos que la curva de desempeño del hardware comenzaría a declinar, esto debido a la 
incapacidad de automatizar de trabajo de diseño requerido para soportar mejoras al hardware. 
Terminaríamos con algún equipo muy poderoso, pero sin la capacidad de llevarlo más allá. El 
procesamiento comercial de las señales digitales sería asombroso, dando apariencia de análogo incluso 
a las operaciones digitales, pero nunca nada "despertaría", y nunca habría la carrera intelectual que es la 
esencia de la Singularidad. Sería vista como una época dorada... y sería el fin del progreso. 
Entre los argumentos en contra de la posibilidad de una inteligencia superhumana, Chalmers 
enumera los siguientes: 
10 
 
• La inteligencia no es solamente un tema de procesamiento de información. Hay factores 
cruciales en la inteligencia humana que se omiten en la IA: el entendimiento, 
personificación y cultura. 
• El diseño de una inteligencia equivalente al menos a la humana requiere de un 
profundo entendimiento del yo y una sicología cognitiva total. Estos campos del 
conocimiento están lejos de llegar a sus límites hoy en día, por lo cual no se puede 
esperar en un futuro cercano (y quizá nunca se llegue a la meta] que se desarrolle la 
IAD. 
• Los sistemas de nivel Turing (M2) no pueden crear sistemas de nivel super-Turing (M3), 
por lo cual a partir de la IA no se puede llegar a la IA+ ni a IA++. 
Otras críticas que se manifiestan en distintos lugares (Kurzweil, The Singularity is Near: When 
Humans Trascend Biology, 2005; Greaves & Allen, 2011) son el problema de la complejidad y el 
tema de la lógica malthusiana. La complejidad de un cerebro humano sobrepasa al estudio 
científico cada vez que se hace un nuevo avance en este campo de estudio. Con cada 
descubrimiento de la química del cerebro, la estructura de las neuronas, se reconoce que la 
complejidad está más allá de modelos que la ciencia pueda construir. La inteligencia humana 
es producto de la evolución, un proceso iterativo de prueba y error desarrollado en millones de 
años y no producto del diseño, adicionalmente a esto la inteligencia humana e incluso 
cualquier inteligencia biológica, ejecuta varios procesos en paralelo de manera eficiente y cada 
uno de los procesos es tan complejo que no ha podido ser modelado o replicado en su 
totalidad. Queda subyacente en este tema de la complejidad la cuestión de la conciencia y la 
identidad, si definimos a esta como parte de la inteligencia enfrentamos los diversos 
fenómenos que se han presentado en casos de traumatismo severo en ciertas personas, donde 
la identidad se transtorna para reflejarse en objetos, lo cual lleva a que la plataforma de 
conciencia puede no contener a la conciencia o la identidad (Stross, 2011). 
La crítica a la lógica malthusiana indica que no se pueden extrapolar comportamientos que 
marcan tendencias logarítmicas debido a que hay un punto de agotamiento de recursos 
inherente a cualquier sistema. En el caso de la IA puede referirse al límite de energía para 
mantener encendidos los equipos de procesamiento y almacenamiento, o bien el calor 
generado por lo que supone este argumento, sería una máquina gigantesca. 
Enlistamos a continuación algunos otros argumentos en contra de la posibilidad de la 
singularidad: 
• La rigidez de la computación digital (secuencial y discreta) contra la lógica difusa de 
la inteligencia biológica; 
• Las fallas en los sistemas computacionales actuales, con niveles relativos bajos de 
11 
 
complejidad, serán el límite del desarrollo en sistemas de extrema complejidad; 
• La paradoja del Cuarto Chino, donde hay un ente intermediario (puede ser una 
persona) que transmite mensajes escritos en ideogramas chinos entre alguien que 
pregunta y alguien que contesta. Para el que pregunta las respuestas son correctas y 
califica al intermediario de inteligente, pero éste sólo es un transmisor que no sabe 
chino y por lo tanto no puede leer lo que dicen las respuestas. El transmisor es sólo 
una computadora; 
• La regulación gubernamental desacelerará o detendrá la tecnología. 
El debate se presenta así entre la posición de quienes creen en la posibilidad de la 
Singularidad y quienes la niegan, sin obviar la fracción de quienes temen un surgimiento de 
IAD sin posibilidad de control en cuanto a la ética o protección hacia sus creadores. 
• ¿Y si fuera posible? 
Hoy en día, ante el debate que toma sentidos a favor y en contra de la posibilidad de la 
superinteligencia, ciertos grupos de especialistas indican que lo mejor ante este escenario es 
tomar previsiones ante la expectativa, por mínima y remota que fuera, de que en algún 
momento, ya sea en un laboratorio o espontáneamente, surja una máquina con consciencia 
propia, lo cual, según hemos visto que afirman Vinge y Kurzweil entre otros, llevará 
irremediablemente al surgimiento de entes más inteligentes que los humanos. Con esta 
perspectiva deben considerarse los escenarios que presentará una interacción entre humanos 
y seres más inteligentes, lo cual plantea 3 alternativas: 
1. Inteacción amable y respetuosa, que requiere que la IA sea amistosa; 
2. Una relación de exterminio humano, debido a la falta de elementos morales en la IA 
y los procesos racionales de pensamiento de la misma; 
3. La IA ininteresada, la cual puede ignorar la existencia humana como los humanos 
ignoran la existencia de insectos a menos que se enfrenten con ellos. 
Con base en estos tres escenarios podemos hacer un análisis de la interacción. 
• Inteligencia Artificial Amistosa 
El debate para muchos autores (Joy, 2000; Bostrom, 2003; Shulman, Jonsson, & Tarleton, 2009; 
Muehlhauser & Salamon, Intelligence Explosion: Evidence and Import, 2012; Chalmers, The 
Singularity: A Philosophical Anlysis, 2010; Muehlhauser & Helm, The Singularity and 
Machine Ethics, 2012; Yudkowsky, et al., 2010) no se enfoca en la posibilidad o no de llegar 
en algún momento al punto de la Singularidad, sino de cómo enfrentar a esta, ya que a partir 
del supuesto de la creación de la primera máquina con IAD que pueda replicarse y mejorarse 
12 
 
a sí misma, los humanos, ahora en la cima de la escala evolutiva con el factor del intelecto 
como diferenciador, quedarían en un segundo plano al perder esta ventaja. 
En un escenario donde hay una inteligencia autónoma, con capacidades iguales a las 
humanas, podemos esperar que se cumpla el argumento de la Explosión de Inteligencia 
(Chalmers, The Singularity: A Philosophical Anlysis, 2010): 
1. Habrá IA (dentro de un periodo de un siglo); 
2. Si hay IA, habrá IA+ (en un periodo de décadas); 
3. Si hay IA+, habrá IA++ (en un periodo de décadas). 
Donde IA es la Inteligencia Artificial a nivel humano, IA+ es una inteligencia artificial de 
nivel superior al humano y IA++ es la inteligencia artificial muy superior al nivel humano, 
tanto como lo es en la actualidad la distancia entre la inteligencia humana y el 
de mamíferos inferiores como los roedores. 
Este panorama nos lleva rápidamente a la cuestión de relación entre dos entidades con 
inteligencias de distinto nivel, lo cual llevado a la realidad actual significa, en el caso donde 
IA++ no sea efectivamente tan superior a la inteligencia humana, al menos una situación 
similar entre los delfines y los humanos. Esto presenta el claro riesgo de una relación desigual, 
así pensar que las máquinascon IA++ serán herramientas de los humanos de forma natural, 
es como pensar que “los humanos son herramientas de los conejos o los chimpancés" (Vinge, 
1993). 
Si se cumple el supuesto de Vinge acerca de la imposibilidad de detener el surgimiento de la 
IA si esta es posible, es fundamental el desarrollo de una forma de determinar que la IA sea 
"amistosa", benevolente o al menos negligente con la existencia de una entidad inferior. No 
bastarían las tres leyes de robótica de Asimov para garantizar una convivencia segura con 
máquinas que han alcanzado IA+ o IA++, Good, de acuerdo con Vinge y con Kessel sugiere 
alimentar a las IA y sus derivadas con una meta-regla dorada: "Trata a tus inferiores como 
serías tratado por tus superiores". 
• Inteligencia Artificial Hostil 
La consciencia, establecida como la percepción de la existencia de uno mismo y la posibilidad 
de evaluar los factores y su afectación con el organismo propio, no requiere la existencia de 
un conjunto de reglas morales o éticas. La psicología conoce bien la condición de la 
psicopatía, donde la persona disocia completamente la valoración de sus actos de su 
contenido moral. Si el organismo (o varios de ellos en caso de la posibilidad de replicación) 
puede tomar decisiones perfectamente racionales sin tomar en cuenta si estos dañan al 
13 
 
ámbito humano. Bien pueden usar las técnicas más destructivas de obtención de recursos 
naturales o incluso tomar a los humanos como materia prima o fuentes de elementos 
necesarios para sus procesos. 
• Inteligencia Artificial Ininteresada 
A pesar de que los humanos tendemos a crear escenarios antropocéntricos, nada garantiza 
que una superinteligencia no quiera interactuar con los humanos simplemente por la 
diferencia de espacios de inteligencia. Se han realizado mediciones acreca de las persoanas 
superdotadas y su capacidad de interacción con personas con menores niveles de 
inteligencia, en estos se h encontrado que la capacidad de relación está limitada por un rango 
que limita el poder comunicarse de manera eficiente y productiva entre dos personas con 
espacios de inteligencia muy distante (Gilbert, 2000; Dronkers, 2002). 
Con el antecedente de la relación difícil entre dos personas con diferente nivel de inteligencia, 
la interacción entre entes que estuvieran por encima de las inteligencias humanas y humanos 
(por más inteligentes que fueran) podría equipararse a la relación de cualquier animal con el 
humano. Evidentemente cabe la posibilidad de un desinterés basado en la imposibilidad de 
comunicación.
14 
 
• Conclusión 
La Singularidad Tecnológica es una posibilidad teórica que presenta retos en varios ámbitos 
humanos, donde se desafían concepciones filosóficas y religiosas y, que en caso de ser 
posible, alteraría toda la organización social humana. Caben los cuestionamientos acerca de 
si en realidad los argumentos en contra son lo suficientemente sólidos para demostrar la 
imposibilidad o sólo para hacer presente los temores ante un escenario completamente 
desconocido, en el cual se pueden prever casos de destrucción de la humanidad o bien una 
era dorada, de bienestar y progreso continuo. El debate está vivo y en ambas posiciones se 
pueden encontrar fallas de lógica, demostraciones recursivas o supuestos demasiado 
audaces que requieren demostración. Los argumentos en contra la de posibilidad de que la 
singularidad tecnológica ocurra no son contundentes, debido principalmente a que parten 
de supuestos menos sólidos, como manifestar que el crecimiento exponencial es finita sin dar 
más argumentos que la escasez de recursos, o bien dar por sentados supuestos acerca de los 
espacios de inteligencia sin demostrar cómo fundamentan las aseveraciones de origen, lo que 
lleva a la debilidad de las conclusiones. 
Lo que queda claro a partir de los argumentos de uno y otro lado del debate es que si existe 
la más mínima probabilidad de que la singularidad suceda en cualquier momento, la 
humanidad debe estar preparada para la contención de su crecimiento descontrolado y los 
riesgos potenciales que presenta el convertirse súbitamente en una especie inferior. Un 
escenario posible es el que mantenemos con las especies que consideramos inferiores. Hoy 
en día nada nos limita a los humanos como especie superior en la cadena evolutiva acabar 
con facilidad con la vida de especies completas en favor del progreso de la humanidad, por 
investigación o por simple diversión. Los humanos, con todo su desarrollo científico, 
artístico, filosófico, histórico y social, al convertirse en una parte inferior de la cadena 
evolutiva, también pueden convertirse en fuente de recursos materiales, maquinarias básicas 
de procesamiento de información o entrar en involución al ver limitadas sus capacidades de 
expansión debido a la preeminencia de otras entidades. Si existe la más remota posibilidad 
de la singularidad tecnológica, mejor preparar el camino mediante la elaboración de reglas 
claras de comportamiento de los entes suprainteligentes, que negar la posibilidad y padecer 
las consecuencias
17 
 
 
• Bibliografía 
Chalmers, D. J. (1 de mayo de 2012). consc.net. Recuperado el 17 de noviembre de 2012, de 
consc.net: http://consc.net/papers/singreply.pdf 
Chalmers, D. J. (2010). The Singularity: A Philosophical Anlysis. Journal Of Consciousness 
Studies, 17 (9), 7-65. 
Cummins, A. (23 de abril de 2010). 1993. El navegador Mosaic ilumina la web con color y 
creatividad. Recuperado el 19 de octubre de 2012, de Geeks Room: 
http://geeksroom.com/2010/04/1993-el-navegador-mosaic-ilumina-la-web-con-color -y-
creatividad/17024/ 
Atkins, T. R. (s.f.). Artificial Intelligent, and Completely Uninterested in You. Recuperado el 2 de 
diciembre de 2012, de Singularity Weblog. A better future, better you: 
http://www.singularityweblog.com/uninterested-ai/ 
Bostrom, N. (2003). Ethical Issues in Advanced Artificial Intelligence. En Smith, En Smit et al. 
Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence 
(Vol. 2, págs. 12-17). Oxford: Institute of Advanced Studies in Systems Research and 
Cybernetics, Oxford University. 
Dronkers, J. (2002). Is there a relation between divorce risk and intelligence? Evidence from the 
Netherlands? (European University Institute, Italia. 
Gilbert, P. (2000). The Relationship of Shame, Social Anxiety and Depression: The Role of the 
Evaluation of Social Rank. Clinical Psychology and Psychotherapy, 7,174-189. 
Greaves, M., & Allen, P. (12 de Octubre de 2011). Paul Allen: The Singularity Isn't Near. 
Recuperado el 30 de noviembre de 2012, de MIT Technology Review: 
http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near / 
Horgan, J. (junio de 2008). The Consciousness Conundrum. Recuperado el 12 de noviembre de 2012, de IEEE 
Spectrum. Inside Technology: http://spectrum.ieee.Org/biomedical/imaging/the-consciousness-
conundrum/0 
Joy, B. (15 de abril de 2000). Why the future doesn't need us. Recuperado el 4 de noviembre de 2012, de Wired: 
http://www.wired.eom/wired/archive/8.04/joy.html 
Kessel, J. (1 de diciembre de 2001). Imagining the Human Future. Up, Down, or Sideways. 
http://consc.net/papers/singreply.pdf
http://geeksroom.com/2010/04/1993-el-navegador-mosaic-ilumina-la-web-con-color
http://www.singularityweblog.com/uninterested-ai/
http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near
http://spectrum.ieee.org/biomedical/imaging/the-consciousness-conundrum/0
http://spectrum.ieee.org/biomedical/imaging/the-consciousness-conundrum/0
http://www.wired.eom/wired/archive/8.04/joy.html
18 
 
Recuperado el 2 de diciembre de 2012, de Imagining the Human Future: 
http://www4.ncsu.edu/~tenshi/ImaginingtheFuture.htm 
Koch, C., & Tononi, G. (junio de 2008). Can Machines Be Conscious? Recuperado el 22 de 
noviembre de 2012, de IEEE Spectrum. Inside Technology: 
http://spectrum.ieee.Org/biomedical/imaging/can-machines-be-conscious/0Kurzweil, R. (marzo de 2006). Reinventing Humanity: The Future of Machine-Human 
Intelligence. The Futurist, 13-16. 
Kurzweil, R. (2005). The Singularity is Near: When Humans Trascend Biology. Londres, 
Inglaterra: Penguin Group. 
Muehlhauser, L. (2012). Facing The Singularity. Recuperado el 4 de diciembre de 2012, de 
Facing The Singularity: http://facingthesingularity.com/ 
Muehlhauser, L., & Helm, L. (2012). The Singularity and Machine Ethics. En A. Eden, J. 
Soraker, J. Moor, & E. Steinhart, Singularity Hypotheses: A scientific and philosophical assessment 
(págs. 1-28). Berlin: Springer. 
Muehlhauser, L., & Salamon, A. (2012). Intelligence Explosion: Evidence and Import. En A. 
Eden, J. Soraker, J. Moor, & E. Steinhart, Singularity Hypotheses: A Scientific and philosophical 
assessment (págs. 1-29). Berlin: Springer. 
Omohundro, S. M. (2008). The Nature of Self-Improving Artificial Intelligence. Self-Aware 
Systems. Palo Alto: Self-Aware Systems. 
Robbins, L. (1932). Ensayo sobre la Naturaleza y Significación de la Ciencia Económica. The 
London School of Economics. The London School of Economics. 
Shaviro, S. (s.f.). The Singularity is Here. Recuperado el 3 de diciembre de 2012, de Shaviro: 
http://www.shaviro.com/Othertexts/Singularity.pdf 
Shulman, C., Jonsson, H., & Tarleton, N. (2009). Machine Ethics and Superintelligence. En C. 
Reynolds, & A. Cassinelli, AP-CAP 2009: The fifth Asia-Pacific computing and philosophy 
conference, October lst-2nd, University of Tokyo, Japan, proceedings (págs. 95-97). Tokyo: AP-CAP. 
Sotala, K. (25 de octubre de 2007). 14 objections against AI/Friendly AI/The Singularity answered. 
Recuperado el 28 de octubre de 2012, de Sotala: http://kajsotala.fi/2007/10/14-objections-
against-aifriendly-aithe-singularity-answer ed/#equivalent 
Stross, C. (22 de junio de 2011). Three arguments against the singularity. Recuperado el 1 de 
http://www4.ncsu.edu/~tenshi/ImaginingtheFuture.htm
http://spectrum.ieee.org/biomedical/imaging/can-machines-be-conscious/0
http://facingthesingularity.com/
http://www.shaviro.com/Othertexts/Singularity.pdf
http://kajsotala.fi/2007/10/14-objections-against-aifriendly-aithe-singularity-answer
http://kajsotala.fi/2007/10/14-objections-against-aifriendly-aithe-singularity-answer
19 
 
diciembre de 2012, de Charlie's Diary: http://www.antipope.org/charlie/blog-
static/2011/06/reality-check-1.html 
Tucker, P. (marzo de 2006). The Singularity and Human Destiny. The Futurist , 38. 
Vinge, V. (1993). The Coming Technological Singularity: How to Survive in the Post-Human Era. 
San Diego, California, USA: Department of Mathematical Sciences, San Diego State 
University. 
Wikipedia. (2012). Alan Turing. Recuperado el 29 de noviembre de 2012, de Wikipedia: 
http://es.wikipedia.org/wiki/Alan_Mathison_Turing 
Wikipedia. (2012). Eniac. Recuperado el 2 de diciembre de 2012, de Wikipedia: 
http://en.wikipedia.org/wiki/ENIAC 
Wise Geek. (2012). What is the Technological Singularity? Recuperado el 4 de octubre de 2012, 
de Wise Geek, clear answers for common questions: http://www.wisegeek.com/what-is-
the-technological-singularity.htm 
Yudkowsky, E., Salamon, A., Shulman, C., Kaas, S., McCabe, T., Nelson, R., y otros. (2010). 
Reducing long-term catastrophic risks from artificial intelligence. The Singularity Institute. San 
Francisco: The Singularity Institute. 
http://www.antipope.org/charlie/blog-static/2011/06/reality-check-1.html
http://www.antipope.org/charlie/blog-static/2011/06/reality-check-1.html
http://es.wikipedia.org/wiki/Alan_Mathison_Turing
http://en.wikipedia.org/wiki/ENIAC
http://www.wisegeek.com/what-is-the-technological-singularity.htm
http://www.wisegeek.com/what-is-the-technological-singularity.htm

Continuar navegando

Otros materiales