Logo Studenta

Riesgoseimpactosdelbigdatalainteligenciaartificialylarobotica

¡Este material tiene más páginas!

Vista previa del material en texto

RIESGOS E IMPACTOS DEL BIG DATA, LA INTELIGENCIA ARTIFICIAL Y LA 
ROBÓTICA. ENFOQUES, MODELOS Y PRINCIPIOS DE LA RESPUESTA DEL 
DERECHO 
 
Por 
LORENZO COTINO HUESO
1
 
Investigador de la Universidad Católica de Colombia. Catedrático de Derecho 
Constitucional de la Universitat de Valencia 
Revistas@iustel.com 
Revista General de Derecho Administrativo 50 (2019) 
 
RESUMEN: El estudio se aproxima a las nociones de los algoritmos, la inteligencia artificial, los 
sistemas de autoaprendizaje automático (machine learning), deep learning y redes neuronales, la 
robótica inteligente y el big data como “alimento” de la inteligencia artificial. Se centran y exponen 
los diferentes riesgos, peligros e impactos. En primer término los riesgos existenciales por una 
“inteligencia artificial fuerte”, “explosiva” o fuera de control. Se alertan de los errores y 
discriminaciones masivas y estupidez artificial así como se repasan las referencias más 
importantes en la literatura sobre los peligros de la “algocracia”, dictadura o fundamentalismo de 
los datos, “dataismo” o la “psicopolítica” y el “enjambre” por estas nuevas tecnologías. A partir de lo 
anterior se abordan los enfoques, modelos y principios de regulación. Se apuesta claramente por 
la necesidad de tomar el control y de regular a partir de la variada tipología de riesgos. Se subraya 
el factor o ritmo temporal de la regulación. En este sentido se valora la introducción de técnicas de 
un Derecho líquido o biodegradable, experimental en beta continuo, así como las llamadas 
“sandboxes”. Pese a las críticas que puedan formularse, se considera que hay que avanzar hacia 
esta innovación de la forma regulatoria. También se analiza la necesaria participación del sector 
tecnológico, de informáticos y de especialistas. No obstante, se alerta de los peligros por falta de 
legitimación, captura y manipulación algorítmica del regulador. También se tiene en cuenta la 
necesidad de adoptar técnicas relativas a los principios de precaución y de responsabilidad. 
Finalmente se hace una referencia de las primeras regulaciones que se detectan en la materia de 
estudio, así como sentencias y resoluciones. 
PALABRAS CLAVE: algoritmos, inteligencia artificial, robótica, big data, derecho, derechos 
fundamentales. 
SUMARIO: I. DE LOS ALGORITMOS A LA INTELIGENCIA ARTIFICIAL, SISTEMAS DE 
AUTOAPRENDIZAJE, ROBOTS Y BIG DATA. HACIA EL INTERNET DE LAS COSAS 
ROBÓTICAS. 1. Algoritmos. 2. Inteligencia artificial. 3. Aprendizaje automático (machine learning), 
deep learning y redes neuronales. 4. Robótica inteligente. 5. Big data o macrodatos: el alimento de 
la inteligencia artificial y su procedencia. 6. Algunas notas sobre el impacto económico. II. 
 
1
 El presente estudio es resultado de investigación del proyecto “Derecho y Big Data”, Grupo de 
Investigación en Derecho Público y TIC como investigador de la Universidad Católica de Colombia. 
Así mismo es Catedrático de Derecho Constitucional de la Universitat de Valencia, España. De 
igual modo, el estudio se realiza en el marco del proyecto “La regulación de la transformación 
digital y la economía colaborativa” PROMETEO/2017/064 Generalitat Valenciana y MINECO Retos 
“Garantía de los derechos fundamentales y de la participación democrática ante la inteligencia 
artificial, big data y robótica” 2019-2021 (RTI2018-097172-B-C21) (pendiente), al igual que de la 
Estancia en Occentus Network S. L, ayuda Generalitat (AEST/2017/003). 
 
 
RGDA 
ISSN: 1696-9650, núm. 50, Enero (2019) Iustel 
2 
RIESGOS, PELIGROS E IMPACTOS DE ESTAS TECNOLOGÍAS QUE EXIGEN RESPUESTAS 
JURÍDICAS. 1. Riesgos incluso existenciales para la humanidad por una “inteligencia artificial 
fuerte”, “explosiva” o fuera de control. 2. Errores y discriminaciones masivas y estupidez artificial. 3. 
“Algocracia”, dictadura o fundamentalismo de los datos, “dataismo”, “psicopolítica” y “enjambre”. III. 
LA RESPUESTA DEL DERECHO. ENFOQUES, MODELOS Y PRINCIPIOS DE REGULACIÓN. 1. 
La necesidad de tomar el control y de regular. 2. Clasificación de los riesgos y los enfoques y 
respuestas jurídicas. 3. El tiempo apremia. Necesidad e inconvenientes de un Derecho líquido o 
biodegradable, experimental en beta continuo. 4. Además, un Derecho nebuloso, con alta 
participación del sector tecnológico, de informáticos y de especialistas. Peligros de falta de 
legitimación, captura y manipulación algorítmica del regulador. 5. La adopción técnicas relativas a 
los principios de precaución y de responsabilidad. 6. La importancia de la incorporación de técnicas 
de responsabilidad activa y una aproximación a la responsabilidad algorítmica. 7. Autoridad y 
autoridades sectoriales y especializadas. IV. PARA TERMINAR. UNA REFERENCIA A LAS 
PRIMERAS REGULACIONES, SENTENCIAS Y RESOLUCIONES. 
 
ABSTRACT: The study approaches the concepts of algorithms, artificial intelligence, self-
learning systems), deep learning and neural networks, intelligent robotics and big data as "food" of 
artificial intelligence. Then, the different risks, dangers and impacts are explained. First, the 
existential risks to humanity for a "strong artificial intelligence", "explosive" or out of control. The 
errors and massive discriminations and artificial stupidity are alerted. They are also followed the 
most important references in the literature about the dangers of these new technologies: the 
"algocracy", dictatorship or fundamentalism of the data, "dataism" or "psychopolitics" and the 
"swarm". Based on the above, regulatory approaches, models and principles are examined. The 
author affirms the need to take control and to regulate from the varied typology of risks. The time 
factor or the rhythm of the regulation is stressed. In this sense, it is valued the introduction of 
techniques of a liquid or biodegradable law, experimental in continuous beta, as well as the 
"sandboxes" techniques. Despite the criticisms about it, it is stated that we must move towards this 
innovation in the form of regulation. The necessary participation of the technology sector, computer 
specialists and specialists is also analyzed. However, the dangers due to lack of legitimacy, capture 
and algorithmic manipulation of the regulator are warned. It is also taken into account the need to 
adopt techniques related to the principles of precaution and responsibility. Finally, the first 
regulations in the subject of study are described, as well as judgments and resolutions. 
KEYWORDS: algorithms, artificial intelligence, robotics, big data, law, fundamental rights. 
 
I. DE LOS ALGORITMOS A LA INTELIGENCIA ARTIFICIAL, SISTEMAS DE 
AUTOAPRENDIZAJE, ROBOTS Y BIG DATA. HACIA EL INTERNET DE LAS COSAS 
ROBÓTICAS 
1. Algoritmos 
La RAE los define como “Conjunto ordenado y finito de operaciones que permite 
hallar la solución de un problema.” O como “Método y notación en las distintas formas del 
cálculo.” Algoritmo es una secuencia de comandos para que una computadora 
transforme un input en output. Señala Monasterio
2
 que se trata de un código software 
que procesa un conjunto limitado de instrucciones. Existen muchas clases y de muy 
 
2
 Monasterio Astobiza, Aníbal. (2017). “Ética algorítmica: Implicaciones éticas de una sociedad 
cada vez más gobernada por algoritmos”, Dilemata, Núm. 24 (2017): Ética de datos, sociedad y 
ciudadanía, 185-217. P. 186 
 
 
 
Análisis monográfico 
3 
diversas aplicaciones si bien este autor señala tres propiedades básicas de los mismos: 
su universalidad, su opacidad y el impacto en la vida de las personas. 
Como recuerdan Coglianese y Lehr
3
, los algoritmos en modo alguno son nuevos, sino 
que han integrado los programas informáticos desde hace décadas. El motivo por el que 
centran ahora la atención es que algoritmos avanzados de aprendizaje automático 
advanced machine-learning algorithms están revolucionando y automatizando la vida y la 
sociedad.Estos autores subrayan que la creación de algoritmos es un proceso no sólo 
estadístico o matemático, sino complejo y humano que incluye recopilación, preparación 
y análisis de datos en diversas etapas. 
En este proceso se incluyen asimismo muchas decisiones de desarrolladores y 
directivos
4
. Y como apuntan Coglianese y Lehr
5
, los algoritmos actuales son “robots” 
digitales que poseen habilidades efectivamente autónomas para adaptarse y aprender. 
2. Inteligencia artificial 
La Comisión Europea
6
 señala que “El término «inteligencia artificial» (IA) se aplica a 
los sistemas que manifiestan un comportamiento inteligente, pues son capaces de 
analizar su entorno y pasar a la acción -con cierto grado de autonomía- con el fin de 
alcanzar objetivos específicos.” Puede consistir simplemente en un programa informático 
(p. ej. asistentes de voz, programas de análisis de imágenes, motores de búsqueda, 
sistemas de reconocimiento facial y de voz), pero la IA también puede estar incorporada 
en dispositivos de hardware (p. ej. robots avanzados, automóviles autónomos, drones o 
aplicaciones del internet de las cosas). Los pilares básicos de la IA que ya Nilsson señaló 
en 1980
7
 se aplican a algoritmos, redes neuronales artificiales y patrones de 
razonamiento, en principio, similares a los humanos. Se trata de nociones 
necesariamente interconectadas, que llevan al tránsito entre algoritmos, IA hacia los 
sistemas de aprendizaje autónomo avanzado y la robótica inteligente. Navas
8
 recuerda 
 
3
 Coglianese, Cary and Lehr, David. (2017). “Regulating by Robot: Administrative Decision 
Making in the Machine-Learning Era”, febrero, Georgetown Law Journal, Forthcoming; U of Penn, 
Inst for Law & Econ Research Paper No. 17-8. p. 3. https://ssrn.com/abstract=2928293 
4
 FRA. (2018). #BigData: Discrimination in data-supported decision making, European Union 
Agency for Fundamental Rights, Viena, p. 4. Acceso en 
https://fra.europa.eu/en/publication/2018/big-data-discrimination 
5
 Coglianese, Cary and Lehr, David. (2017). Op. cit. p. 3. 
6
 Comisión Europea. (2018). IA para Europa. Comunicación de la Comisión al Parlamento 
europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de 
las Regiones. COM(2018) 237 final{SWD(2018) 137 final} Bruselas, 25.4.2018, p. 1. 
7
 Nilsson, Nils. (1980). Principles of Artificial Intelligence, Palo Alto , California: Tioga Press. 
8
 Navas Navarro, Susana. (2017 b). “Derecho e IA desde el diesño. Aproximaciones”, en Navas 
Navarro, Susana (ed). (2017 a.) IA. Tecnología, Derecho, Tirant lo Blanch, Valencia, p. 24. 
https://ssrn.com/abstract=2928293
https://fra.europa.eu/en/publication/2018/big-data-discrimination
 
 
RGDA 
ISSN: 1696-9650, núm. 50, Enero (2019) Iustel 
4 
que un sistema de IA necesita de una secuencia de instrucciones que especifique las 
diferentes acciones a ejecutar por el sistema informático. 
3. Aprendizaje automático (machine learning), deep learning y redes neuronales 
La ISO 8373 de 2012 sobre Robots y dispositivos robóticos Robots and robotic 
devices define la autonomía como “capacidad para realizar tareas previstas en función 
del estado y la percepción actuales, sin intervención humana”
9
 (ap. 2.2). Coglianese y 
Lehr
10
 señalan tres claves de esta independencia de los seres humanos: autoaprendizaje 
automático: (1) los resultados de los algoritmos no dependen de que los humanos hayan 
especificado de antemano y que mientras los algoritmos de aprendizaje se están 
ejecutando, los humanos no están realmente controlando cómo se están combinando y 
comparando los datos. (2) La naturaleza de la “caja negra”, los resultados no siempre 
son intuitivamente explicables. Y (3) se trata de procesos con resultados rápidos y 
automáticos. 
Así pues, el sistema trabaja sobre grandes volúmenes de datos sobre los que aplica 
numerosas reglas o algoritmos, se identifican patrones de comportamiento y, basándose 
en ellos, el sistema se entrena aprende de estos datos y es capaz de predecir 
comportamientos futuros. 
Por cuanto al aprendizaje profundo o deep learning está inspirado en el 
funcionamiento de redes neuronales de nuestro cerebro. Los datos van pasando por 
distintas “capas” en la que se aplican reglas de aprendizaje, modelos para que pueda 
evaluar ejemplos e instrucciones para los resultados se vayan comparando y ajustando 
en cascada. 
4. Robótica inteligente 
Para el Parlamento UE
11
 en su resolución sobre robótica, ésta especialmente es la 
“capacidad de aprender de la experiencia y tomar decisiones cuasi independientes— ha 
hecho que estos robots se asimilen cada vez más a agentes que interactúan con su 
entorno y pueden modificarlo de forma significativa”. Y se considera a la “Autonomía de 
un robot”
12
 “como la capacidad de tomar decisiones y aplicarlas en el mundo exterior, 
 
9
 ISO. 2012. ISO 8373 Robots and robotic devices. 
https://www.iso.org/obp/ui/#iso:std:iso:8373:ed-2:v1:en 
10
 Coglianese, Cary and Lehr, David. (2017). Op. cit. p. 18. 
11
 Parlamento Europeo. (2017 a). Normas de Derecho civil sobre robótica. Resolución del 
Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión 
sobre normas de Derecho civil sobre robótica (2015/2103(INL)). Letra z) 
12
 Ibídem, letra AA. 
https://www.iso.org/obp/ui/#iso:std:iso:8373:ed-2:v1:en
 
 
 
Análisis monográfico 
5 
con independencia de todo control o influencia externos; que esa autonomía es 
puramente tecnológica y que será mayor cuanto mayor sea el grado de sofisticación con 
que se haya diseñado el robot para interactuar con su entorno”. Y añade que “cuanto 
más autónomos sean los robots, más difícil será considerarlos simples instrumentos en 
manos de otros agentes (como el fabricante, el operador, el propietario, el usuario, etc.)”
 
13
. 
El Parlamento UE
14
, como primer principio general subraya la importancia de las 
definiciones pidiendo “definiciones europeas comunes de sistema ciberfísico, sistema 
autónomo, robot autónomo inteligente y sus distintas subcategorías”. Y de modo 
operativo señala la necesidad de clasificación de robots a efecto de un “sistema global 
de registro de robots avanzados”. 
La referida ISO 8373 de 2012 define robot como “mecanismo accionado programable 
en dos o más ejes con un grado de autonomía, que se mueve dentro de su entorno, para 
realizar las tareas previstas”. Y por lo que más interesa, el robot inteligente se define 
como el “capaz de realizar tareas detectando su entorno y / o interactuando con fuentes 
externas y adaptando su comportamiento” (2. 28). Santos
15
 afirma que “robot inteligente 
será aquella máquina física que de manera autónoma a través de programas y sensores 
inteligentes pueda llegar a tomar decisiones basándose en la lógica e IA prediciendo las 
necesidades de los humanos y de las situaciones en las que se ven envueltos actuando, 
alterando e interactuando con el mundo físico, todo ello sin estar sometidos al control 
continuo de los humanos.”
16
. 
Como señala la Asamblea del Consejo de Europa
17
 la convergenia tecnológica “tiene 
consecuencias no solo para los derechos humanos y la forma en que pueden ejercerse, 
sino también para el concepto fundamental de lo que caracteriza a un ser humano” (nº 1) 
[…] 2. La omnipresencia de las nuevas tecnologías y sus aplicaciones está desdibujando 
los límites entre el ser humano y la máquina, entre las actividades en línea y fuera de 
línea, entre el mundo físico y el virtual, entre lo natural y lo artificial, y entre la realidad y 
la virtualidad. Lo que ahora se avecina en el horizonte es el ser humano “aumentado”. 
 
13
 Ibídem, letra AB. 
14
 Ibídem, principio 1. 
15
 Santos González, María José. (2017). “Regulación legal dela robótica y la IA: retos de futuro”, 
en Revista Jurídica de la Universidad de León, Núm. 4 (2017), pp. 25-50, p. 31. 
16
 Ibídem, p. 32. 
17
 Consejo de Europa. (2017 b). Asamblea Parlamentaria, cit. Traducción libre. 
 
 
RGDA 
ISSN: 1696-9650, núm. 50, Enero (2019) Iustel 
6 
Así pues, cabe hablar de un internet de las cosas robóticas (“Internet of Robotic 
Things, IoRT)”
18
. Todas estas nuevas tecnologías convergentes y que “beben” del big 
data o se confunden con él, requieren la atención jurídica y especialmente desde la 
dignidad y los derechos fundamentales, especialmente los derechos de la personalidad y 
la vida privada. Y especial atención hay que prestar por su sensibilidad a las llamadas 
tecnologías “captology”, esto es las “Computers As Persuasive Technologies” . Se trata 
de tecnologías informáticas (computadoras, teléfonos móviles, sitios web, tecnologías 
inalámbricas, aplicaciones móviles, videojuegos, etc.) creadas para cambiar nuestras 
intenciones y comportamiento. Y es que estas tecnologías se basan precisamente en la 
recopilación de datos y su análisis a través de la IA e interfaces inteligentes
19
. Y entre las 
referencias máximas, puede mencionarse las psicografías (psychographics) que llevan a 
cabo segmentación y análisis de datos sobre personalidades
20
. 
5. Big data o macrodatos: el alimento de la inteligencia artificial y su procedencia 
La terminología “big data” trae causa del trabajo de Schönberger y Cukier
21
. En 
español se utiliza la expresión inglesa “big data”, también “macrodatos” (Parlamento 
Europeo
22
) y no tanto la de “datos masivos”. El Parlamento Europeo en su letra A afirma 
que: 
“el concepto de macrodato se refiere a la recopilación, análisis y acumulación 
constante de grandes cantidades de datos, incluidos datos personales, procedentes de 
diferentes fuentes y objeto de un tratamiento automatizado mediante algoritmos 
informáticos y avanzadas técnicas de tratamiento de datos, utilizando tanto datos 
almacenados como datos transmitidos en flujo continuo, con el fin de generar 
correlaciones, tendencias y patrones (analítica de macrodatos);” 
 
18
 Simoens , Pieter; Mauro Dragone; Alessandro Saffiotti. (2018). “The Internet of Robotic 
Things. A review of concept, added value and applications”, International Journal of Advanced 
Robotic Systems Volume: 15 issue: 1, February 26. 
19
 Stanford Persuasive Technology Lab, “What is captology?”, 
http://captology.stanford.edu/about/what-is- captology.html 
20
 Samuel, Alexandra. (2016). “Psychographics Are Just as Important for Marketers as 
Demographics” https://hbr.org/2016/03/psychographics-are-just-as-important-for-marketers-as-
demographics . También, Wade , Michael. (2018). “What are psychographics, the behavioural 
analysis that helped Cambridge Analytica get into the minds of voters?” The Independent, 22 March 
2018 https://www.independent.co.uk/voices/cambridge-analytica-facebook-trump-elections-
psychoanalytics-voters-minds-a8268721.html 
21
 Mayer-Schönberger, Viktor y Cukier, Kenneth (2013 a): Big Data: A Revolution That Will 
Transform How We Live, Work, and Think; ahora en Big data. La revolución de los datos masivos, 
Turner Publicaciones. 
22
 Parlamento Europeo. (2017 b). Resolución de 14 de marzo de 2017, sobre las implicaciones 
de los macrodatos en los derechos fundamentales: privacidad, protección de datos, no 
discriminación, seguridad y aplicación de la ley (2016/2225(INI)). 
http://captology.stanford.edu/about/what-is-captology.html
http://captology.stanford.edu/about/what-is-captology.html
https://hbr.org/2016/03/psychographics-are-just-as-important-for-marketers-as-demographics
https://hbr.org/2016/03/psychographics-are-just-as-important-for-marketers-as-demographics
https://www.independent.co.uk/voices/cambridge-analytica-facebook-trump-elections-psychoanalytics-voters-minds-a8268721.html
https://www.independent.co.uk/voices/cambridge-analytica-facebook-trump-elections-psychoanalytics-voters-minds-a8268721.html
http://www.europarl.europa.eu/oeil/popups/ficheprocedure.do?lang=fr&reference=2016/2225(INI)
 
 
 
Análisis monográfico 
7 
Se habla de las “V” 
23
: volumen, variedad, velocidad y valor, a las que se añaden 
entre otras, la veracidad
24
. El gran reto de los datos masivos es la captación, gestión y 
tratamiento para agregar valor a grandes volúmenes de datos poco utilizados o 
inaccesibles hasta la fecha, todo ello para aportar y descubrir un conocimiento hasta 
ahora oculto. Entre otros, Boyd y Crawford
25
 subrayan que el Big Data no sólo se refiere 
a grandes conjuntos de datos y las herramientas y procedimientos utilizados para 
manipular y analizar ellos, sino también a un giro en el pensamiento computacional y la 
investigación. 
Se da una necesaria convergencia del big data porque los sistemas computacionales 
son capaces de tratar, aprender, resolver problemas y tomar decisiones a partir de los 
grandes datos bajo un cambio de paradigma. La ingente acumulación de información y el 
big data es lo que ha permitido en los últimos años que vaya haciéndose efectivo el 
desarrollo de la IA. 
Por cuanto a la procedencia de la ingente cantidad de datos, puede ser muy variada: 
datos generados por humanos, generados biométricamente, producidos máquina a 
máquina, productos de grandes transacciones o del uso de la web y redes sociales. En 
mayo de 2018 hay 4 mil millones de usuarios de internet en el mundo, los 2,243,058,923 
usuarios activos de Facebook , los 335,506,850 usuarios activos de Twitter, las 
1,884,903,109 Websites. Sólo en un segundo se envían 2.700.121, hay un tráfico de 
internet de 57,960GB, se hacen 67,565 búsquedas en Google, se ven 74,218 videos en 
YouTube, se envían 8,074 Tweets o se suben 851 fotos en Instagram
26
 . Sólo en 2017 
se vendieron 1500 millones de smartphones. De la unidad del byte vamos superando 
geométricamente las unidades de media (kilo, mega, giga, tera, peta, exa, zetta y 
yottabyte). 
Innumerables son las masivas facturaciones o transacciones económicas. Y la 
cantidad de datos se dispara en las comunicaciones del internet de las cosas, 
comunicaciones entre máquinas, industrias, estaciones meteorológicas, etc. por lo 
general vinculadas a medidores y sensores de temperatura, luz, altura, presión, sonido, 
localización, GPS, así como en el entorno de tecnologías RFID, wifi o bluetooth. Y entre 
otros datos a añadir, los procedentes de movimientos de ratón o de interactuación con 
 
23
 Gartner. (2012). Emerging Market Analysis: IT. Mexico, 2012 and beyond Gartner., julio, 
acceso completo en https://www.gartner.com/doc/2096518/emerging-market-analysis-it-mexico 
24
 Puyol Moreno, Javier. (2014). “Una aproximación a Big Data”, en Revista de Derecho UNED, 
núm. 14, págs. 471-505, p. 488. Acceso completo en Dialnet. De este autor, también, (2015). 
Aproximación Jurídica y Económica al Big Data, Tirant lo Blanch, Valencia. 
25
 Boyd D. y Crawford K. (2011). “Six Provocations for Big Data”, A Decade in Internet Time: 
Symposium on the Dynamics of the Internet and Society, p. 6 Acceso completo: 
https://ssrn.com/abstract=1926431 
26
 En http://www.internetlivestats.com/ se accede a los datos al momento, 
https://www.gartner.com/doc/2096518/emerging-market-analysis-it-mexico
https://ssrn.com/abstract=1926431
http://www.internetlivestats.com/
 
 
RGDA 
ISSN: 1696-9650, núm. 50, Enero (2019) Iustel 
8 
nuestro sistema operativo. También son parte del big data los datos biométricos, 
normalmente vinculados al ámbito de seguridad pero también de sanidad (escáneres de 
retina, de huellas digitales, o lectores de cadenas de ADN, monitoreos médicos de todo 
tipo, etc.). 
Gracias al big data y la IA se permite generar patrones dinámicos de tendencias de 
futuro: la predictibilidad y el apoyo en la toma de decisiones. Sepuede conocer mejor al 
cliente, al mercado, personalizar los productos y servicios, mejorar el márquetin y la 
publicidad, tener una mejor visión estratégica y de negocio, crear nuevos servicios y 
productos, y obtener nuevos ingresos, mejorar y agilizar la toma de decisiones, prever el 
comportamiento
27
. 
Como recuerda el Parlamento Europeo en la mencionada resolución sobre 
macrodatos “la analítica de macrodatos genera valor añadido” y puede repercutir muy 
positivamente “en los ámbitos de la asistencia sanitaria, la lucha contra el cambio 
climático, la reducción del consumo energético, la mejora de la seguridad en el 
transporte y la posibilidad de establecer ciudades inteligentes, mejorando, así, la 
optimización y eficiencia de las empresas y contribuyendo a una mejora de las 
condiciones laborales y a la detección y la lucha contra el fraude; y que los macrodatos 
pueden ofrecer una ventaja competitiva para los procesos de toma de decisiones de las 
empresas europeas, al mismo tiempo que el sector público puede beneficiarse de una 
mayor eficacia gracias a un mejor conocimiento de los distintos niveles de desarrollo 
socioeconómico” (letra h ). 
Merced a las posibilidades de tratamiento, se trata de combinar datos como el 
químico que aleatoriamente va tomando muestras por doquier, se descubren 
correlaciones sin conocer previamente la causa. Uno de los mayores retos es disponer 
de personas adecuadas y formadas para analizar y explotar los datos, esto es, convertir 
una gran cantidad de datos en decisiones, estrategias y mejores experiencias para los 
consumidores
28
. 
6. Algunas notas sobre el impacto económico 
Las repercusiones de la IA, big data, robótica, son incuestionables. El impacto 
económico de la automatización de los conocimientos, los robots y los vehículos 
autónomos puede estar entre 6.500 y 12.000 millones de euros al año de aquí a 2025 
(incluida la mejora de la productividad y una mayor calidad de vida entre la población de 
 
27
 AEPD - ISMS Forum (eds.); Carlos Alberto Sáiz (coord.). (2017). Código de buenas prácticas 
en protección de datos para proyectos de Big Data, mayo, AEPD e ISMS Forum, Madrid, pp. 6-7. 
28
 Ibídem, p. 21. 
 
 
 
Análisis monográfico 
9 
edad avanzada)
29
. Se afirmaba en 2016 una cifra de 60 000 millones euros y ésta podría 
posiblemente ascender a más de 106.000 millones de euros en 2020
30
. En 2018 se 
señala que la IA puede hacer crecer el PIB español en 189 mil millones de dólares para 
2035, más de un 10%
31
. Las inversiones públicas y privadas en investigación y desarrollo 
en el ámbito de la IA oscilaron entre 4 000 y 5 000 millones euros frente a 6.500-9.700 
millones euros en Asia y 12.100-18.600 millones euros en América del Norte
32
. Ahí se 
afirmaba también que en 2020 la combinación del big data y el open data, especialmente 
el primero implicará un crecimiento de 230 mil millones de euros, un 1,9% adicional al 
PIB. 
También se afirma que un 50% de la economía europea crecerá en su eficiencia en 
un 5-6%
33
. En 2017, se ha afirmado que “el sector de los macrodatos está creciendo a 
un ritmo del 40 % anual, siete veces más rápidamente que el del mercado de las 
tecnologías de la información” (Parlamento Europeo, 2017 b, letra k). 
II. RIESGOS, PELIGROS E IMPACTOS DE ESTAS TECNOLOGÍAS QUE EXIGEN 
RESPUESTAS JURÍDICAS 
1. Riesgos incluso existenciales para la humanidad por una “inteligencia artificial 
fuerte”, “explosiva” o fuera de control 
El Parlamento UE (2017 a, ob. cit.) afirma que pese a las ventajas del desarrollo de 
máquinas inteligentes y autónomas, la cuestión “plantea retos a la hora de velar por la no 
discriminación, las garantías procesales, la transparencia y la inteligibilidad de los 
procesos decisorios” (letra h). Se apunta también que “el progreso de la robótica podría 
traducirse en una elevada concentración de la riqueza y el poder en manos de una 
minoría” (letra k). Además, “existe la posibilidad de que a largo plazo la IA llegue a 
superar la capacidad intelectual humana” (letra p). 
 
29
 Comisión Europea, 2018, op. cit. 
30
 Comisión Europea. (2017). Comunicación de 2017 COM(2017) 9, «La construcción de una 
economía de los datos europea», de 10 de enero de 2017 y documento anexo SWD(2017) 2, de 
10 de enero de 2017. 
31
 Accenture. (2018). Country Spolights. Why Artificial Intelligence is the Future of Growth. 
(Accenture, 2018, p. 3). Acceso en https://www.accenture.com/ve-es/_acnmedia/PDF-
33/Accenture-Why-AI-is-the-Future-of-Growth--Country-Spotlights.pdf 
32
 DemosEUROPA. (2014). Big and open data in Europe. A growth engine or a missed 
opportunity?, estudio solicitado por la Comisión Europea al Centre for European Strategy, Sonia 
Buchholtz, Maciej Bukowski, Aleksander Śniegocki the Warsaw Institute for Economic Studies 
(WISE Institute) esponsorizado por Microsoft.http://www.bigopendata.eu/wp-
content/uploads/2014/01/bod_europe_2020_full_report_singlepage.pdf 
33
 SMART-Comisión Europea. (2013). - Study on a "European data market", encargado por la 
Comisión 2013/0063 http://ec.europa.eu/digital-agenda/en/news/smart-20130063-study-european-
data-market-and-related-services 
https://www.accenture.com/ve-es/_acnmedia/PDF-33/Accenture-Why-AI-is-the-Future-of-Growth--Country-Spotlights.pdf
https://www.accenture.com/ve-es/_acnmedia/PDF-33/Accenture-Why-AI-is-the-Future-of-Growth--Country-Spotlights.pdf
http://www.bigopendata.eu/wp-content/uploads/2014/01/bod_europe_2020_full_report_singlepage.pdf
http://www.bigopendata.eu/wp-content/uploads/2014/01/bod_europe_2020_full_report_singlepage.pdf
http://ec.europa.eu/digital-agenda/en/news/smart-20130063-study-european-data-market-and-related-services
http://ec.europa.eu/digital-agenda/en/news/smart-20130063-study-european-data-market-and-related-services
 
 
RGDA 
ISSN: 1696-9650, núm. 50, Enero (2019) Iustel 
10 
No son pocos los temores ante la “singularidad tecnológica”, una “IA fuerte” (strong 
AI) que puede quedar fuera de control humano con graves riesgos para la humanidad y 
su deshumanización. Kurzweil en 2005 
34
 pronosticó para 2045 la “singularidad 
tecnológica”, esto es, el momento a partir del cual podría quedar fuera de control humano 
el futuro por el crecimiento exponencial de la tecnología. Se trata de la también llamada 
explosión de la IA
35
, lo que Bolstrom, el Director del Future of Humanity Institute de la 
Universidad de Oxford, llama el “treacherous turn” el “giro traicionero” hacia una 
superinteligencia o inteligencia maligna. Bostrom afirma que “somos como niños jugando 
con una bomba”
36
. Se hace referencia, pues, al momento en el que la IA pasa a ser 
lo suficientemente fuerte para atacar a los humanos sin advertencia o provocación, 
cuanto puede considerar que los humanos son una amenaza para el logro de sus 
valores finales y se vuelven en contra evitando los sistemas de control 
establecidos por los ingenieros. 
Desde el Instituto del Futuro de la Vida del MIT (The Future of Life Institute) 
37
 se 
señala que “la IA tiene el potencial de volverse más inteligente que cualquier ser 
humano, no tenemos una manera segura de predecir cómo se comportará.” La IA suscita 
la existencia de riesgos existenciales para la humanidad que Petit denomina 
“Existernality”
38
. Elon Musk (Tesla, SpaceX, Paypal, etc.) en 2014 advirtió que la IA 
presenta la “mayor amenaza existencial” para la civilización humana y la comparó con 
una “invocación al demonio” (“summoning the demon”)
39
. Y en 2017 Musk ha recordado 
la necesidad de una regulación proactiva y no sólo reactiva frente a las malas 
consecuencias, porque de lo contrario la regulación llegará demasiado tarde
40
. 
 
34
 Kurzweil, Raymond. (2005). Singularity is near. When humans transcend biology, Penguin.35
 Muehlhauser, Luke, and Anna Salamon. 2012. “Intelligence Explosion: Evidence and Import.” 
In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Amnon Eden, 
Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer, acceso en 
http://intelligence.org/files/IE-EI.pdf 
36
 Bostrom, Nick. (2014). Superintelligence, Paths, Dangers, Strategies, Oxford University Press, 
p. 259. También ver Bostrom, Nick. 2013. “Existential risk prevention as global priority.” Global 
Policy 4.1 (2013): 15-31. 
37
 The Future of Life Institute. “Benefits & Risks of Artificial 
Intelligence”·https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/ 
38
 Petit, Nicolas. (2017). Law and Regulation of Artificial Intelligence and Robots - Conceptual 
Framework and Normative Implications (March 9, 2017). Working paper, cita p. 29 Acceso en 
SSRN: https://ssrn.com/abstract=2931339 or http://dx.doi.org/10.2139/ssrn.2931339 
39
 Gibbs, Samuel. (2014). “Elon Musk: Artificial Intelligence is our Biggest Existential Threat”, 
The Guardian (Oct. 27, 2014). 
40
 Gibbs, Samuel. (2017). “Elon Musk: regulate AI to combat 'existential threat' before it's too 
late, The Guardian (julio. 17, 2017). 
http://intelligence.org/files/IE-EI.pdf
https://ssrn.com/abstract=2931339
https://dx.doi.org/10.2139/ssrn.2931339
 
 
 
Análisis monográfico 
11 
También Stephen Hawking en sus últimos años insistió en que la IA puede “destruir”, 
“mejorar” o “reemplazar” a la humanidad
41
. Bill Gates, aunque también ha subrayado el 
lado más amable, ha afirmado que los “humanos deberíamos estar preocupados por la 
amenaza que implica la IA”
42
. 
Frente a las visiones más negativas se han considerado exageraciones como que con 
la IA se acerque el día del juicio final
43
. De especial interés, Calo ha criticado estas 
visiones tan negativas del “apocalipsis de la IA” que pueden generar una percepción 
social muy negativa para el desarrollo de la IA. Señala que un desproporcionado temor 
distrae a los policymakers para las necesidades más inmediatas y puede desincentivar la 
inversión o generar una política de hivernación de la IA (“AI Policy Winter”). De contrario 
a estas visiones más negativas se apunta que desde los años 50 no se ha conseguido 
que los robots sean más inteligentes que insectos
44
. Se afirma además que la 
destrucción por superinteligencias no es la salida natural e inteligente, dado que como 
afirmara Yann LeCun el director de IA de Facebook, “las computadoras no tienen 
testosterona.”
45
 No sin ironía se señala que el objetivo es que la IA efectivamente invada 
la tierra, pero que sea efectivamente inteligente frente a la situación actual. 
Por cuanto al ámbito concreto del desarrollo de armas autónomas fue un hito en 2015 
la “Carta abierta de investigadores de IA y robótica contra las armas autónomas”, que ha 
sido suscrita por unos 4000 investigadores de la máxima relevancia
46
. Y también en 2015 
se lanzó una Carta abierta “Prioridades de investigación para una IA robusta y 
beneficiosa”, pues “los beneficios potenciales son enormes”, “mientras se evitan riesgos 
potenciales.”
47
 
 
41
 Mcmenemy, Rachael. (2017). “Stephen Hawking says he fears artificial intelligence will replace 
humans”, 1 nov 2017, https://www.cambridge-news.co.uk/news/cambridge-news/stephenhawking-
fears-artificial-intelligence-takeover-13839799 
42
 Rawlinson, Kevin. (2015). “Microsoft's Bill Gates insists AI is a threat”, BBC News, 29 de enero 
de 2015, https://www.bbc.com/news/31047780 
43
 Khatchadourian (2015). “The Doomsday Invention”, The New Yorker (23 Nov.), 
https://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-
bostrom. 
44
 Calo, Ryan. (2017). “Artificial Intelligence Policy: A Primer and Roadmap”. University of 
California, Davis [Vol. 51:399-435], p. 24 y ss. Citas de la p. 25 (agosto 2017). Acceso en 
SSRN: https://ssrn.com/abstract=3015350 or http://dx.doi.org/10.2139/ssrn.3015350 
45
 Ibídem, p. 26. 
46
 “Autonomous weapons: an open letter from ai & robotics researchers”, Carta de 28 de julio de 
2015 en la apertura de la conferencia IJCAI 2015. https://futureoflife.org/open-letter-autonomous-
weapons/?cn-reloaded=1 
47
 Russell, Stuart; Dewey, Daniel; Tegmark Max. (2016). Research Priorities for Robust and 
Beneficial Artificial Intelligence (10 febrero) https://arxiv.org/abs/1602.03506 
https://www.cambridge-news.co.uk/news/cambridge-news/stephenhawking-fears-artificial-intelligence-takeover-13839799
https://www.cambridge-news.co.uk/news/cambridge-news/stephenhawking-fears-artificial-intelligence-takeover-13839799
https://www.bbc.com/news/31047780
https://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom
https://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom
https://ssrn.com/abstract=3015350
http://dx.doi.org/10.2139/ssrn.3015350
https://futureoflife.org/open-letter-autonomous-weapons/?cn-reloaded=1
https://futureoflife.org/open-letter-autonomous-weapons/?cn-reloaded=1
https://arxiv.org/abs/1602.03506
 
 
RGDA 
ISSN: 1696-9650, núm. 50, Enero (2019) Iustel 
12 
Más allá de los riesgos existenciales para la humanidad, desde el Future of Humanity 
Institute de Oxford
48
, se ha analizado el lado “malicioso”, los malos usos potenciales de 
la IA y los mecanismos de defensa que habrían de desarrollarse frente a ello. Se subraya 
el carácter de “doble uso” de estas tecnologías. Este reciente estudio agrupa los peligros 
de la IA en seguridad digital, física y política
49
. Por cuanto a la “seguridad digital” se 
analiza la expansión e intensificación de los ataques cibernéticos, la intoxicación de 
datos e informaciones o el uso de síntesis de voz para la suplantación. Respecto de la 
“seguridad física” se afirman potenciales ataques con drones y otros sistemas físicos, el 
hackeo de los futuros vehículos autónomos. En el ámbito de la “Seguridad política” se 
afirma la mayor vigilancia y control social especialmente a través análisis de datos 
recopilados en masa; también, la persuasión y manipulación a través de propaganda 
dirigida, así como el engaño (por ejemplo, a través de la manipulación de videos) y la 
ampliación de amenazas de invasión de privacidad y la manipulación social. También se 
alerta de los análisis cada vez más novedosos de los comportamientos humanos, los 
estados de ánimo y las creencias de la población. Estos riesgos, se afirma, se dan 
especialmente en las dictaduras, pero también amenazan y mucho las democracias. 
2. Errores y discriminaciones masivas y estupidez artificial 
Boyd y Crawford (ob.cit.) ya afirmaron que los números no hablan por sí mismo; las 
afirmaciones de objetividad y precisión son engañosas dado que todos los 
investigadores son intérpretes de datos y siempre hay un proceso de “limpieza de datos” 
inherentemente subjetivo. También apuntan que con los datos masivos, también hay 
errores de datos masivos. O’Neil ha llegado a hablar de “Weapons of math destruction”
50
 
. Como señala Surden, lejos del “manto de objetividad de la tecnología”, los sistemas 
tecnológicos pueden tener valores sociales “incrustados” o emebidos en su diseño y que 
éstos sean contrarios a la igualdad, principios constitucionales y derechos humanos
51
. El 
Parlamento UE
52
 en su resolución sobre macrodatos ha insistido en que: 
 
48
 Brundage Miles y otros. (2018) “The Malicious Use of Artificial Intelligence: Forecasting, 
Prevention, and Mitigation”, Future of Humanity Institute, Febrero de 2018. 
http://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-
376b92c619de/downloads/1c6q2kc4v_50335.pdf 
49
 Ibídem, pp. 23-50. 
50
 O’Neil, Cathy. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and 
ThreatensDemocracy, Crown. Ahora en español (2017). Armas de Destrucción Matemática. Como 
el Big Data aumenta la desigualdad y amenaza la democracia. Capitán. Swing, Madrid, 2017. 
51
 Surden, H. (2017). “Values Embedded in Legal Artificial Intelligence”. U of Colorado Law Legal 
Studies Research Paper No. 17-2017 1-5, p. 2. Acceso: https://ssrn.com/abstract=2932333 
52
 Resolución de 14 de marzo de 2017, ob. cit. 
http://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/1c6q2kc4v_50335.pdf
http://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/1c6q2kc4v_50335.pdf
https://ssrn.com/abstract=2932333
 
 
 
Análisis monográfico 
13 
“los datos de capacitación a menudo son de una calidad cuestionable y no son 
neutrales” (Letra B), la “baja calidad” de los datos o los procedimientos “podrían dar lugar 
a algoritmos sesgados, correlaciones falsas, errores, una subestimación de las 
repercusiones éticas, sociales y legales, el riesgo de utilización de los datos con fines 
discriminatorios o fraudulentos y la marginación del papel de los seres humanos en esos 
procesos, lo que puede traducirse en procedimientos deficientes de toma de decisiones 
con repercusiones negativas en las vidas y oportunidades de los ciudadanos, en 
particular los grupos marginalizados, así como generar un impacto negativo en las 
sociedades y empresas” (Considerando m). 
“[L]a información revelada por los análisis de los macrodatos no ofrece una visión 
general objetiva e imparcial de ninguna materia y que es tan fiable como lo permitan los 
datos subyacentes (Cons. General 2). 
Los algoritmos pueden estar diseñados para discriminar, por lo que se tratarían de 
discriminaciones directas. No obstante, lo normal es que se trate de discriminaciones 
indirectas, la discriminación puede darse sin intención alguna, incluso con la pretensión 
de lograr toda la objetividad posible: malas elecciones de datos, datos sesgados contra 
un grupo, datos pobres, incompletos, incorrectos, desactualizados, mal recopilados, de 
mala calidad
53
. En 2016 MS Tay un algoritmo de Microsoft diseñado para chatear en 
Twitter y aprender a interactuar con humanos, en menos de 24 horas se convirtió en 
negacionista del Holocausto, homófobo, transfobo y misógino. Fue inmediatamente 
desconectado. Google ha etiquetado a personas de raza negra como gorilas. 
Richards y King
54
 afirman importantes cautelas y una necesaria visión crítica frente a 
los “grandes evangelistas” del big data. Afirman la paradoja de la transparencia, por la 
que mientras que con los datos masivos se accede invasivamente a información privada, 
los resultados de estos tratamientos están casi completamente rodeadas de secreto legal 
e industrial. Subrayan especialmente la paradoja que implica que un futuro casi 
milagroso y de transformación social sea al fin y al cabo un privilegio que queda en 
manos del gobierno y de grandes empresas, a costa de los ciudadanos. Todos estos 
riesgos por el uso de IA y big data pueden llevarnos a errores masivos o a una estupidez 
artificial, que sería, eso sí, muy humana. 
3. “Algocracia”, dictadura o fundamentalismo de los datos, “dataismo”, 
“psicopolítica” y “enjambre” 
 
53
 FRA. (2018). #BigData… op. cit. pp. 4-5. 
54
 Richards Neil M. y King Jonathan H. (2013). “Three Paradoxes of Big Data”, en 66 Stanford 
Law Review Online 41, p. 41. Acceso en https://www.stanfordlawreview.org/online/privacy-and-big-
data-three-paradoxes-of-big-data/ 
https://www.stanfordlawreview.org/online/privacy-and-big-data-three-paradoxes-of-big-data/
https://www.stanfordlawreview.org/online/privacy-and-big-data-three-paradoxes-of-big-data/
 
 
RGDA 
ISSN: 1696-9650, núm. 50, Enero (2019) Iustel 
14 
Cabe ahora hacer alguna muy breve referencia a las muy importantes e influyentes 
tesis críticas sobre la “algocracia” o la tiranía de los algoritmos
55
, la “dictadura de los 
datos”
56
 o el “dataismo”
57
. Sin duda, son el referente o punto de partida en la materia. 
Entre los variados peligros, Cukier y Mayer hacen referencia a la “paralización de la 
privacidad” (“Paralyzing privacy”)
58
 o las posibilidades de que se castigue 
preventivamente a individuos por la predicción de su posible comisión de delitos. En 
particular, bajo la idea de la “dictadura de los datos”, se critica el nuevo “dataismo”: “en 
Dios confiamos, y para todo lo demás hay que aportar datos”.
 59
 
En 2016 la Casa Blanca alertó también contra el “fundamentalismo de los datos”, esto 
es, “la creencia de que los números no pueden mentir y siempre representan la verdad 
objetiva”
 60
. En el famoso Homo Deus, Harari hace referencia al “dataismo” o religión de 
los datos en la III Parte de su obra (Homo sapiens pierde el control). El dataismo se 
considera que puede ser la nueva religión: “no venera ni a dioses ni al hombre: adora los 
datos”
61
 “el dataismo amenaza con hacer a Homo sapiens lo que Homo sapiens ha 
hecho a todos los demás animales”
62
. Los grandes e importantes algoritmos son 
generados por grandes empresas y equipos, un gran rompecabezas que nadie ve en 
perspectiva y sin control humano efectivo
63
. 
Otra de las grandes referencias críticas ineludibles es Han
64
, filósofo alemán de 
origen surcoreano, entre otros bien analizado y evaluado por Galpasoro
65
. Han muestra 
 
55
 Danaher, John. (2016). “The Threat of Algocracy: Reality, Resistance and 
Accommodation”, 29 PHIL. & TECH. 245. Acceso en https://philpapers.org/rec/DANTTO-13 
56
 Mayer-Schönberger, Viktor y Cukier, 2013 a (ob. Cit) y en particular (2013 b): “The Dictatorship 
of Data”, MIT Technology Review, mayo de 2013 https://www.technologyreview.com/s/514591/the-
dictatorship-of-data/ acceso en español en https://www.technologyreview.es/s/3564/la-dictadura-
de-los-datos (trad. Francisco Reyes). 
57
 Harari, Yuval Noah. (2016). Homo Deus. Breve historia del mañana. Barcelona: Debate 
(Traducción: Joandomènec Ros). Se sigue versión disponible en internet de 613 páginas. También, 
Harari N. (2015), Homo Deus: A Brief History of Tomorrow. London. Harvill Secker. 
58
 Ob. cit. 2013 a), pp. 99 y ss. 
59
 Ibídem, pp. 102 y ss. 
60
 White House. (2016). “Big Data: A Report on Algorithmic Systems, Opportunity, and Civil 
Rights,” Executive Office of the President, mayo 2016, p. 10. 
61
 Harari, Yuval Noah. (2016). Ob. Cit. p. 353. 
62
 Ibídem, p. 319. 
63
 Ibídem, p. 377. 
64
 Han, Byung Chul. (2013). La sociedad de la transparencia. Barcelona: Herder; (2014 a). En el 
enjambre. Barcelona: Herder; (2014 b). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. 
Barcelona: Herder y Han, Byung Chul. (2014 c). La agonía del eros. Barcelona: Herder. 
65
 Galparsoro Ruiz, José Ignacio. (2017). “Big Data y Psicopolítica. Vía de escape: de la vida 
calculable a la vida como obra de arte”, en Dilemata, Núm. 24 (2017): Ética de datos, sociedad y 
https://philpapers.org/rec/DANTTO-13
https://www.technologyreview.com/s/514591/the-dictatorship-of-data/
https://www.technologyreview.com/s/514591/the-dictatorship-of-data/
https://www.technologyreview.es/s/3564/la-dictadura-de-los-datos
https://www.technologyreview.es/s/3564/la-dictadura-de-los-datos
 
 
 
Análisis monográfico 
15 
clara preocupación por la actual “sociedad de la transparencia”, nefasta para el hombre 
por la “hiperinformación” y la “hipercomunicación”, directamente vinculadas al Big Data. 
En la gran masa de información no hay ninguna verdad, ni cercanía, ni relaciones 
interpersonales. Se genera un síndrome exceso información (IFS, Information Fatigue 
Syndrome). Así, el Big Data no es sinónimo de un mayor conocimiento, más bien lo 
contrario: “el conocimiento total de datos es un desconocimiento absoluto en el grado 
cero del espíritu”
66
. Se afirma que la red se ha convertido en un “enjambre digital”(“Digital swarm”) amorfo, que implica las meras acumulaciones de individuos aislados sin 
alma o espíritu colectivo. No hay multitud, sino aislamiento. Y se genera un muy negativo 
efecto de un panóptico digital en el que somos explotados, una “sociedad psicopolítica 
de la transparencia”. La psicopolítica con la vigilancia digital puede leer nuestros 
pensamientos y controlarlos
67
, así pues, el sujeto neoliberal se explota a sí mismo y 
además lo hace de forma voluntaria
68
. 
Los explotados colaboran activamente y de buen grado a su construcción y 
conservación, dan todos los datos con una actitud “acompañada del sentimiento de 
libertad”
69
, típico del feliz usuario de internet. Cabe recordar con Monasterio70 el ethos 
tecnolibertario presente en las compañías tecnológicas y que se va extendiendo por 
todas las esferas de la sociedad como ha descrito Taplin
71
. 
III. LA RESPUESTA DEL DERECHO. ENFOQUES, MODELOS Y PRINCIPIOS DE 
REGULACIÓN 
1. La necesidad de tomar el control y de regular 
Para algunos, siguiendo la expresión de Latiff y McCloskey
72
 con relación a los 
drones como armas-, quizá nos acercamos peligrosamente al “Robo-Rubicon”. La AI 
ya se ha expandido mundialmente, si bien, en modo alguno ha desplegado su potencial. 
 
ciudadanía, 25-43. Acceso completo en 
https://www.dilemata.net/revista/index.php/dilemata/article/view/412000099 
66
 Han, 2014 b, op. cit. p. 105. 
67
 Han 2014 a, op. cit. p. 78-79. 
68
 Han, 2014 b, op. cit. p. 12. 
69
 Han, Byung Chul. (2013). Op. cit. p. 92. 
70
 Monasterio Astobiza, Aníbal. (2017). Op. cit. . p. 198. 
71
 Taplin, Jonathan. (2017). Move Fast and Break Things: How Facebook, Google, and Amazon 
Cornered Culture and Undermined Democracy. New York. Little, Brown Company. 
72
 Latiff Robert H. & McCloskey, Patrick J. (2013). With Drone Warfare, America Approaches 
the Robo-Rubicon, WALL ST. (Mar. 14, 2013), ahora en https://reilly.nd.edu/people/adjunct-
faculty/maj-gen-robert-latiff-ret/with-drone-warfare-america-approaches-the-robo-rubicon/ 
https://www.dilemata.net/revista/index.php/dilemata/article/view/412000099
https://reilly.nd.edu/people/adjunct-faculty/maj-gen-robert-latiff-ret/with-drone-warfare-america-approaches-the-robo-rubicon/
https://reilly.nd.edu/people/adjunct-faculty/maj-gen-robert-latiff-ret/with-drone-warfare-america-approaches-the-robo-rubicon/
 
 
RGDA 
ISSN: 1696-9650, núm. 50, Enero (2019) Iustel 
16 
Los riesgos existenciales de la AI es bien posible que sean distantes en el tiempo, no así 
los riesgos sistémicos y, obviamente los más concretos. 
No obstante, hay que estar con el Parlamento Europeo o con Calo. Estamos aún a 
tiempo de dar una respuesta, por lo que aquí interesa desde el Derecho. Como señala 
Calo
73
, quizás la mayor ventaja es el tiempo: AI ha logrado capturar la imaginación 
de los formuladores de políticas lo suficientemente temprano en su ciclo de vida que 
existe la esperanza de que podamos canalizarla hacia el interés público. 
Buttarelli, Supervisor Europeo de Protección de Datos
74
 afirma que la Unión Europea, 
en particular, dispone ahora de un “período crítico” antes de la masiva adopción de estas 
tecnologías para incorporar los valores a las estructuras digitales que definirán nuestra 
sociedad. El Instituto del Futuro de la Vida del MIT (The Future of Life Institute) recuerda 
que la inteligencia humana tiene que asumir el control de la IA. Se señala que si 
cedemos nuestra posición como la más inteligente en nuestro planeta, es posible que 
también cedamos el control.”
75
 
La pregunta, como el título de la obra de Rushkoff
76
, es “¿queremos dirigir la 
tecnología o queremos que ella nos dirija a nosotros?: Programar o ser programados”. El 
Parlamento británico
77
 recuerda la conveniencia de que un ‘interruptor de apagado’; un 
código que aseguraría que un sistema de IA pudiera ser interrumpido de manera 
repetida y segura por supervisores humanos
78
. Sánchez Barrilao afirma que no estamos 
en la Era de Ultrón, pero sí que puede que estemos ante ella. La sola posibilidad del 
riesgo exige por responsabilidad constitucional impedirlo, pero sin negar la IA. Hay que 
ser consciente de los riesgos para encauzar el desarrollo, con “gestión del riesgo, al fin y 
 
73
 Calo, Ryan. (2017). Op. cit. , p. 28 
74
 Supervisor Europeo de Protección de Datos. (2015). Dictamen 4/2015. Hacia una nueva ética 
digital. Datos, dignidad y tecnología, 11 de septiembre de 2015, p. 15. 
75
 The Future of Life Institute. (Sin fecha), “Benefits & Risks of Artificial Intelligence” 
https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/ 
76
 Rushkoff, Douglas. (2010). Program or be programmed: Ten commands for a digital age. New 
York, Or Books. 
77
 House of Commons Science and Technology Committee. (2016). Robotics and artificial 
intelligence (No. Fifth Report of Session 2016-17). London, UK. Nº 42, p. 16 Acceso en: 
http://www.publications. parliament.uk/pa/cm201617/cmselect/cmsctech/145/145.pdf 
78
 En esta línea señala que Google DeepMind informó de esta posibilidad en junio de 2016 para 
trabajar con académicos de la Universidad de Oxford. Google developing kill switch for AI, BBC 
News Online, 8 June 2016 
https://www.bbc.com/news/technology-36472140 
https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/
 
 
 
Análisis monográfico 
17 
al cabo”. Sostiene que el Derecho no “se limite a actuar siempre a rebufo del progreso 
tecnológico”.
 79
 
Estamos aún a tiempo de que no se dé la llamada paradoja de Collingridge
80
, quien 
describió la paradoja del control social de la tecnología. Cuando sería posible influir o 
controlar el desarrollo de una tecnología en sus primeras etapas, no hay suficiente 
conocimiento como para tomar decisiones racionales. Sin embargo, cuando se conoce 
la tecnología y sus riesgos ya es tarde y el control es difícil e incluso imposible por el 
desarrollo tecnológico o de los sectores que lo dominan. 
Desde los años 90 ya hemos tenido esta la experiencia con la falta de regulación o su 
llegada tardía respecto de internet. En general, frente a problemas sistémicos y bien 
relevantes se ha intentado proyectar el Derecho offline en la medida de lo posible a 
internet, en una suerte de principio de equivalencia funcional
81
. Asimismo, se ha 
funcionado de modo reactivo a través de respuestas jurisprudenciales por lo general 
tardías. Ahora bien, esta actitud no es una decisión inocua. De un lado ha llevado a que 
la ilegalidad se haga masiva en la red, con los problema políticos y culturales que ello 
conlleva. Del otro lado, entre los ganadores hay que ubicar a las grandes empresas 
tecnológicas que en la alegalidad logran una posición y tamaño de dominio tal que 
cuando la respuesta regulatoria llega -como sucede en los últimos años- es tarde y se da 
la paradoja de Collingridge y es muy cuestionable su eficacia real. Y todo hay que decir 
que esta situación no parece que haya favorecido al sector tecnológico europeo. 
El Parlamento UE en su resolución sobre robótica
82
 señala que “es necesario 
disponer de una serie de normas en materia de responsabilidad, transparencia y 
rendición de cuentas que reflejen los valores humanistas intrínsecamente europeos y 
universales que caracterizan la contribución de Europa a la sociedad; que esas normas 
no deben afectar al proceso de investigación, innovación y desarrollo en el ámbito de la 
robótica;” (letra u). Subraya asimismo el papel de la Unión para “establecer principios 
éticos básicos que deban respetarse en el desarrollo, la programación y la utilización de 
robots y de la IA, y a la hora de incorporar dichos principios a la normativa y los códigos79
 Sánchez Barrilao, Juan Francisco. (2016). “El Derecho constitucional ante la era de Ultrón: la 
informática y la IA como objeto constitucional”, Estudios de Deusto: revista de la Universidad de 
Deusto, Vol. 64, Nº. 2, pp. 225-258, pp. 31-33. 
80
 Collingridge, David. (1980). The Social Control of Technology, New York, St. Martin's Press. 
81
 Si bien en ocasiones se menciona este principio genéricamente para la proyección del 
Derecho offline para el ámbito electrónico, como aquí se hace, formalmente se expresó respecto 
del valor de la firma electrónica y la firma en papel en la CNUDMI, Guía para la incorporación al 
derecho interno de la ley modelo de la CNUDMI sobre comercio electrónico (Nueva York: Naciones 
Unidas, 1999), p.21. 
82
 Parlamento Europeo. (2017 a). Normas de Derecho civil sobre robótica. Cit. 
 
 
RGDA 
ISSN: 1696-9650, núm. 50, Enero (2019) Iustel 
18 
de conducta de la Unión, con el fin de encauzar la revolución tecnológica” (letra v). No 
obstante, considera que “procede empezar por las cuestiones relativas a la 
responsabilidad civil” (letra x). 
La pregunta de interés no es tanto si regular o no regular, las cuestiones relevantes 
se han de descomponer en muchas variables. Quién o quiénes tienen que regular, de 
qué nivel normativo, internacional, supranacional, nacional, regional…, se trata de 
autorregulación, de heterorregulación, de autorregulación impuesta, promovida, a través 
de normas públicas, privadas, estándares industriales, códigos tipo; con qué grado de 
participación de los sectores implicados en la elaboración e implementación de las 
normas, a través de qué instrumentos normativos, para qué niveles o ámbitos, por 
cuánto tiempo, sobre qué temas, qué mecanismos de evaluación normativa pueden 
implementares, etc. Y obviamente, ya por cuanto a los posibles contenidos regulatorios, 
hay que ver los principios y estructuras básicos, qué técnicas pueden ser más 
apropiadas para tener en cuenta los riesgos y daños posibles, qué papel tiene la 
dignidad y los derechos fundamentales en las medidas regulatorias, qué tipos de 
garantías pueden preverse. 
2. Clasificación de los riesgos y los enfoques y respuestas jurídicas 
Resulta de especial interés es la clasificación de los riesgos realizada por Petit
83
 bajo 
su consideración de tipos de “externalidades” (externalities) que implica la IA y la 
robótica por cuanto los correlaciona con la respuesta jurídica que debe darse84. Este 
autor distingue tres niveles de “externalidades”: discretas, sistémicas y existenciales 
(existernality). 
Las discretas no afectan significativamente a la sociedad. Éstas se resuelven ex post 
de modo reactivo a través de las reglas actuales del Derecho y especialmente a través 
de su aplicación judicial. Además, este tipo de problemas permite experimentar en las 
decisiones, evaluar las respuestas de modo comparado y retroalimentarse. 
En un segundo nivel están las externalidades sistémicas Systemic Externality que sí 
que afectan significativamente a la sociedad y tienen un interés público que exige la 
planificación, la evaluación
85
 la regulación previa y la experimentación. Entre estas 
externalidades sistémicas Systemic Externality, se mencionan los problemas de caja 
negra y transparencia, de privacidad, de destrucción de empleo creativo, la mayor o 
menor atribución de responsabilidad o inmunidad por daños frente a la innovación, la 
 
83
 Petit, Nicolas. (2017). Op. cit. pp. 26-27. 
84
 Ibídem, pp. 28 y ss. 
85
 Ibídem, p. 28. 
 
 
 
Análisis monográfico 
19 
mayor o menor protección de la propiedad intelectual o industrial o la transparencia de la 
innovación. 
Petit
86
 entiende como tercer -y peor- nivel de riesgo, los riesgos existenciales 
(“existernality”), esto es, respecto de la existencia misma de la humanidad. La respuesta 
natural a estos riesgos existenciales sería en el nivel internacional. No obstante, dados 
los consabidos problemas de las organizaciones internacionales para tomar decisiones y 
que los Estados las asuman, le llevan a subrayar el importante papel de las 
organizaciones internacionales de normalización (como IEEE, SAE, ISO y otras) para la 
definición de posiciones tempranas. 
Y este autor señala los grandes enfoques y tipos de respuesta jurídicos
87
. El primero 
es el legalista, proyectándose las grandes áreas jurídicas sobre la realidad de la IA y 
robótica: responsabilidad, privacidad, ciberseguridad, etc.
88
 Petit señala que aunque 
puede ser positivo este enfoque corre el peligro de que juristas ajenos a lo tecnológico 
hagan propuestas con importantes desajustes. Asimismo, se corre el peligro de que se 
generen “puntos ciegos” al observar los nuevos fenómenos desde las reglas existentes
89
. 
Y ello puede frenar el desarrollo jurídico
90
. El segundo enfoque sería el tecnológico. Se 
parte del tipo de servicios prestados (autos sin conductor, robots sociales, educación, 
salud, seguridad, empleo, domésticos, entretenimiento exoesqueletos, etc.)
91
 y cada 
ámbito se analiza en clave jurídica. Menciona Petit un tercer enfoque -sobre el que infra 
se volverá- siguiendo el ejemplo de las famosas tres leyes de la robótica de Isaac 
Asimov: “Normas [que] se pueden incorporar directamente a la tecnología en el sentido 
de que un comando y su cumplimiento está imbuido en la tecnología misma”
 92
. Se critica 
que las aproximaciones como las del Parlamento Europeo tanto sobre robótica como 
 
86
 Ibídem, p. 29. 
87
 Ibídem, p. 9. 
88
 Como ejemplos, se mencionan estudios desde las diferentes disciplinas legales: Leroux, C., et 
al. 2012. “Suggestion for a green paper on legal issues in robotics” Contribution to Deliverable D 
3.1.También De Cock Buning, M., Belder L. and Bruin, R. de. 2012. “Mapping the Legal Framework 
for the introduction into Society of Robots as Autonomous Intelligent Systems”. 
89
 Ibídem, p. 7. 
90
 Ibídem, p. 8. 
91
 Ibídem, p. 8. Como ejemplo, se señala Palmerini, E. et al. (2016). “RoboLaw: Towards a 
European framework for robotics regulation.” Robotics and Autonomous Systems 86 (2016): 78-85 
; o The Stanford Artificial Intelligence and Life in 2030 report (the “Stanford Report”) (2016). Study 
Panel, September 2016, que analiza el transporte, servicio de robots, cuidado de la salud, 
educación, comunidades de bajos recursos, público seguridad y protección, empleo y lugar de 
trabajo, robots domésticos / de servicio y entretenimiento”, dicho análisis se hace desde nueve 
amplias categorías de cuestiones jurídicas y políticas. 
92
 Ibídem, pp. 3 y 11. 
 
 
RGDA 
ISSN: 1696-9650, núm. 50, Enero (2019) Iustel 
20 
sobre macrodatos de 2017 ya referidas no tienen claro un enfoque o metodología sino 
que son un misceláneo de los señalados. 
En una línea permisiva que permita especialmente el desarrollo tecnológico destaca 
Calo
93
 para quien frente a los nuevos retos no será necesario ningún “cambio 
sistemático de leyes o instituciones legales para preservar o reequilibrar los valores 
establecidos”. Sin perjuicio de ello, apela a la adopción de políticas de IA (“AI 
policies”) como respuestas concretas, normativas o no. Incluso considera que es 
demasiado pronto para las respuestas normativas
94
, puesto que con las “políticas” es 
más fácil explorar y planear antes de dar respuestas definitivas. 
En esta misma línea, respecto del uso en el sector público, Coglianese y Lehr
95
. Se 
trataría, pues, de re-dirigir, más que prohibir, el desarrollo informático. Antes de poner 
palos en las ruedas de la innovación y el avance, antes de vilipendiar el big data e 
imponer una regulación de mano dura. Tene y Polonetsky
96
 afirman que cabe establecer 
directrices y regulaciones legales y técnicas para limitar usos poco éticos, contrarios a 
derechos fundamentales y principios, en especial vinculadoscon la no discriminación y la 
privacidad, así como fortalecer el control y garantías del individuo. 
Además de estos tres enfoques, por cuanto a tipos de respuestas jurídicas, también 
sintetiza y critica Petit las regulaciones de la dificultan de la tecnología (disabling 
regulation), las capturas de la regulación por grupos de interés privados, la inacción e 
imposibilidad de seguir el ritmo de los cambios y la fácil obsolescencia. Y todo ello para 
en buena medida apostar por un modelo de regulación para la permisión “enabling”
97
. 
Afirma que hay regulaciones de la desactivación de la innovación disabling regulation 
98
, 
bajo el paradigma de. Y en este sentido se marca como ejemplo en Gran Bretaña la Red 
Flag Act de 1865. La misma impuso el máximo de 2 mph en vehículos de motor 
(Locomotive) en aglomeraciones urbanas y exigía que una persona llevara una bandera 
roja 60 yardas delante del vehículo. Se dice que esta regulación retrasó la industria 
británica del automóvil durante 30 años. Como ejemplo actual se menciona la estricta 
normativa de autorización Órganos genéticamente modificados y en algunos aspectos 
 
93
 Calo, Ryan. (2014 y 2015). “Robotics and the Lessons of Cyberlaw”, California Law Review, 
Vol. 103, No. 3, pp. 513-63; University of Washington School of Law Research Paper No. 2014-08, 
p. 553 Acceso en SSRN: https://ssrn.com/abstract=2402972 
 or http://dx.doi.org/10.2139/ssrn.2402972 
94
 Calo, Ryan. (2017). Op. cit. , p. 8. 
95
 Coglianese, Cary and Lehr, David. (2017). Op. cit. p. 3 y p. 62. 
96
 Tene, Omer y Polonetsky, Jules. (2013). “Judged by the Tin Man: Individual Rights in the Age 
of Big Data”, en Journal of Telecommunications and High Technology Law, 11, agosto 2013, p. 3. 
Acceso en https://ssrn.com/abstract=2311040 
97
 Petit, Nicolas. (2017). Op. cit. p. 17. 
98
 Ibídem pp. 12-13. 
https://ssrn.com/abstract=2402972
http://dx.doi.org/10.2139/ssrn.2402972
https://ssrn.com/abstract=2311040
 
 
 
Análisis monográfico 
21 
las que se dan o puedan darse respecto del bitcoin, blockchain o los drones. También 
generan efectos negativos el modelo de la regulación del “rodillazo” (“Knee-jerk 
regulation”
99
). Se trata de imponer una sobrerregulación ineficiente como la reacción en 
algunos países tras el desastre nuclear de Fukushima o prohibiciones preventivas como 
prohibir todas las formas de clonación en la medida en que son incompatibles con la 
dignidad humana y la protección de los humanos. Petit
100
 augura soluciones de este tipo 
en cuanto se dé el primer accidente por conducción de IA de un avión, pues se pasaría a 
exigir una grado significativo de operación humana que haría ineficiente la innovación en 
ese ámbito. 
3. El tiempo apremia. Necesidad e inconvenientes de un Derecho líquido o 
biodegradable, experimental en beta continuo 
Señala Sánchez
101
 que nos encontramos ante una tecnología acelerada que genera 
unos cambios muy veloces. Y, si se me permite, llueve sobre mojado. El big data, la IA y 
la robótica son auténticos aceleradores de la vida, sociedad o modernidad líquida en la 
que que, como describe Bauman, lo único estable es el cambio continuo y debemos 
quedar dispuestos y flexibles al mismo, preparados para cambiar la sintonía, la mente en 
cualquier momento. “La fluidez o la liquidez son metáforas adecuadas para aprehender 
la naturaleza de la fase actual -en muchos sentidos nueva- de la historia de la 
modernidad”
102
. 
El Derecho es un plato que se sirve mejor frío, sin embargo, las nuevas tecnologías 
no dejan enfriar los problemas generados. Y como se ha expuesto supra, en algunos 
ámbitos se corre el riesgo de que la regulación o políticas tardías sean ineficaces. 
Ante unas tecnologías que van generando retos y riesgos tan cambiantes, es bien 
posible que haya que introducir nuevas formas y mecanismos de regulación y 
gobernanza. De ahí que Calo apele a las referidas “políticas de IA” (“AI policies”) y, 
como se ha adelantado, entiende que es demasiado pronto para las respuestas 
normativas
103
. 
Sin embargo, pese a las justificadas reticencias que suscita no hay que descartar 
modelos de regulación líquida o, como afirma Le Déaut en el Consejo de Europa 
 
99
 Ibídem, p. 13. 
100
 Ibídem, p. 14. 
101
 Sánchez Barrilao, Juan Francisco. (2016). Op. cit. p. 233. 
102
 Bauman, Zygmunt. (2004). Modernidad líquida, México, Editorial Fondo de Cultura 
Económica, p. 8. 
103
 Calo, Ryan. (2017). Op. cit., pp. 7-8. 
 
 
RGDA 
ISSN: 1696-9650, núm. 50, Enero (2019) Iustel 
22 
respecto de la AI, una “regulación biodegradable" “biodegradable rules” 104. No hay casi 
tiempo “para evaluar los riesgos y determinar las consecuencias a mediano y largo plazo 
para la salud humana y las implicaciones para los derechos humanos […] necesitamos 
un nuevo tipo de legislación que pueda revisarse regularmente (las llamadas “reglas 
biodegradables”) para acompañar a estos desarrollos a menudo cambiantes ya menudo 
radicales en la ciencia y la tecnología y su aplicación.” (id.). 
Se trata de seguir el nuevo paradigma del beta continuo que es propio a la filosofía de 
la web 2.0
105
. Lejos de versiones definitivas de un programa, utilidad, aplicación, todo ha 
de quedar dispuesto para el cambio y adaptación continuos. Así las cosas, se precisan 
regulaciones -o decisiones políticas e institucionales- que estén continuamente a modo 
prueba. Este Derecho líquido 
106
(obviamente repulsa a la estabilidad y previsibilidad 
hasta ahora naturales al Derecho. Es por ello que frente a un “constitucionalismo líquido” 
juristas paleo positivista como Villaverde reivindiquen con razón el “Derecho sólido” 
“objetivo y estable del Estado y en especial los derechos fundamentales como tal”
107
. 
También jusfiticadamente se García Rubio critica que vamos hacia un Derecho que se 
convierte en algo fluido, líquido, amorfo, que se adapta a las circunstancias y que ya no 
es freno y garantía de nada, sino vehículo de intereses contingentes que fluyen de forma 
constante y mutan y se adaptan de manera imprevisible. Pero como reconoce esta 
autora “en un mundo donde todo es provisional, pasajero y maleable, la norma jurídica 
también ha de contener respuestas contextuales y adaptativas.”
 108
 
En este punto, destaca especialmente Ranchordas
109
: frente a los problemas de falta 
de “ritmo” de la legislación o escasa información para regular, subraya la conveniencia 
 
104
 Consejo de Europa. (2017 a). Technological convergence, artificial intelligence and human 
rights, informe del parlamentario Jean-Yves Le Déaut, Committee on Culture, Science, Education 
and Media Doc. 14288, 10 abril 2017, Conclusiones, nº 69. 
105
 O'Reilly, Tim. 2005. “What Is Web 2.0”, ww.oreilly.com, p. 4. 
https://www.oreilly.com/pub/a/web2/archive/what-is-web-20.html?page=1 
106
 Přibáň, Jiří (ed.). 2016. Liquid Society and Its Law, Routledge. 
107
 Villaverde Menéndez, Ignacio.( 2018). “El constitucionalismo líquido. La dogmática 
constitucional de los derechos fundamentales del siglo XXI tras 40 años de Constitución Española 
de 1978”, en (Punset, Ramón y otros, coords. Cuatro decadas de una Constitución normativa 
(1978-2018): Estudios sobre el desarrollo de la Constitución Española, pp. 31-51, p. 42. 
108
 García Rubio, María Paz. (2016). “Sociedad líquida y codificación”, Anuario de derecho civil, 
Vol. 69, Nº 3, 2016, pp. 743-780, pp. 746 y 749 acceso en 
https://www.boe.es/publicaciones/anuarios_derecho/abrir_pdf.php?id=ANU-C-2016-
30074300780_ANUARIO_DE_DERECHO_CIVIL_Sociedad_l%EDquida_y_codificaci%F3n 
109
 Ranchordas, Sofia. (2014). Constitutional Sunsets And Experimental Legislation: A 
Comparative Perspective. Chentelham: Edward Elgar. Sigo por Ranchordas, Sofia. (2014). 
“Innovation-Friendly Regulation: The Sunsetof Regulation, the Sunrise of Innovation”. Jurimetrics, 
Vol. 55, No. 2, 2015. Acceso en SSRN: https://ssrn.com/abstract=2544291 or 
http://dx.doi.org/10.2139/ssrn.2544291 
https://www.oreilly.com/pub/a/web2/archive/what-is-web-20.html?page=1
https://www.boe.es/publicaciones/anuarios_derecho/abrir_pdf.php?id=ANU-C-2016-30074300780_ANUARIO_DE_DERECHO_CIVIL_Sociedad_l%EDquida_y_codificaci%F3n
https://www.boe.es/publicaciones/anuarios_derecho/abrir_pdf.php?id=ANU-C-2016-30074300780_ANUARIO_DE_DERECHO_CIVIL_Sociedad_l%EDquida_y_codificaci%F3n
https://ssrn.com/abstract=2544291
http://dx.doi.org/10.2139/ssrn.2544291
 
 
 
Análisis monográfico 
23 
de técnicas como las “sunset clauses”, por las que la regulación tiene fecha o 
condiciones de caducidad y la legislación experimental. Se habla de “regulatory 
sandboxes” en referencia a las zonas de arena acotadas para que los niños jueguen. 
Una smart regulation en términos de Zetzsche
110
, de la que Ponce se ha hecho eco en 
España
111
, así como Cerrillo en esta obra. Esencialmente se trata de experimentar, 
probar o testear regulaciones por breves espacios de tiempo y/o a pequeña escala en 
ámbitos o sectores reducidos. De este modo, sobre la prueba y error, se reúne mejor 
información para dar respuestas regulatorias. A mi juicio hay que estar especialmente 
abierto a esta innovación regulatoria. 
Los problemas clave que generan la tecnologías emergentes no pueden resolverse 
sólo de forma reactiva y a golpe de resolución jurisdiccional tardía. Se necesitan 
decisiones políticas, de planeación y de Derecho positivo. Se requieren respuestas de 
los actores políticos, institucionales y del Derecho en sus diversas fórmulas. Estas 
decisiones no siempre pueden esperar a que se decanten todas las opciones e intereses 
en un entorno cambiante. Sin renunciar a un Derecho “sólido”, hay que hacer de la 
necesidad virtud e introducir nuevas fórmulas regulatorias, más dinámicas, que 
incorporen la evaluación y adecuación normativa, que faciliten las diversas versiones, 
que introduzcan fórmulas de remisiones a la determinación normativa por órganos 
capacitados técnicamente y con suficiente legitimación. Todo ello puede permitir que el 
Derecho despliegue razonablemente su eficacia ante los nuevos retos. Ello, 
obviamente, respetando todos los principios de publicidad y seguridad jurídica y la 
legitimación democrática de las decisiones normativas. Como se señala supra, la 
introducción de los principios de precaución y de responsabilidad y sus técnicas son 
especialmente adecuados. 
4. Además, un Derecho nebuloso, con alta participación del sector tecnológico, de 
informáticos y de especialistas. Peligros de falta de legitimación, captura y 
manipulación algorítmica del regulador 
Las respuestas regulatorias parece que han de surgir de una nebulosa constelación 
de actores. Aunque no es en modo alguno un fenómeno exclusivo de internet ni del 
 
 
110
 Zetzsche, Dirk y otros . (2017). “Regulating a Revolution: From Regulatory Sandboxes to 
Smart Regulation”. 23 Fordham Journal of Corporate and Financial Law 31-103 (2017). Acceso en 
SSRN: https://ssrn.com/abstract=3018534 / http://dx.doi.org/10.2139/ssrn.3018534 
 
111
 Ponce, Juli (2017). “Regulatory sandboxes y empresas Fintech: innovación regulatoria y 
derecho a una buena administración”, en Hay Derecho, 26.11.2017. 
https://ssrn.com/abstract=3018534
http://dx.doi.org/10.2139/ssrn.3018534
https://hayderecho.expansion.com/2017/11/26/regulatory-sanboxes-y-empresas-fintech-innovacion-regulatoria-y-derecho-a-una-buena-administracion/
https://hayderecho.expansion.com/2017/11/26/regulatory-sanboxes-y-empresas-fintech-innovacion-regulatoria-y-derecho-a-una-buena-administracion/
 
 
RGDA 
ISSN: 1696-9650, núm. 50, Enero (2019) Iustel 
24 
ámbito que nos ocupa, la regulación que pretenda tener alguna eficacia debe ser el 
resultado de fórmulas de gobernanza en las que participe activamente el sector afectado 
sobre el que tienen que aplicarse las normas. Se hace especialmente necesario un 
Derecho en red con intervención más horizontal de todos los operadores (Muñoz 
Machado, Reed)
 112
. En el ámbito del big data no falta quienes se inclinan hacia formas 
de regulación suaves (Rubinstein, o Tene y Polonetsky
113
). En el ámbito de la nube, 
Reed
 
ha insistido en modelos de co-regulación trasnacional, en especial se insiste en 
que es necesario reforzar la legitimación de las normas. 
Ya para la AI la Asamblea Parlamentaria Consejo de Europa
114
 (nº 3) “observa con 
preocupación que cada vez es más difícil para los legisladores adaptarse a la velocidad 
a la que evolucionan las ciencias y las tecnologías y establecer los reglamentos y 
normas necesarios; cree firmemente que salvaguardar la dignidad humana en el siglo 
XXI implica desarrollar nuevas formas de gobernanza, nuevas formas de debate público 
abierto, informado y antagónico, nuevos mecanismos legislativos y, sobre todo, el 
establecimiento de una cooperación internacional que permita abordar estos nuevos 
desafíos de manera más efectiva”. 
Se genera así un regulador nebuloso por cuanto la regulación surge de la comunidad 
afectada (instituciones, individuos y las entidades empresariales implicadas) y se articula 
a través de variadas formas, en especial, de soft law. Una vía es la estandarización 
técnica internacional de naturaleza privada. Y cabe alertar que una vez adoptada por el 
sector, tal regulación -que por lo general está protegida por la propiedad intelectual- en 
no pocas ocasiones pasa a ser aceptada por los Estados e instituciones delegando 
grandes espacios a lo privad. Así, se producen reenvíos desde la normativa pública a la 
privada o remisiones directas o indirectas a las distintas versiones de la norma técnica 
privada, para asegurar así la adecuación sin necesidad de modificación normativa 
(Tarrés Vives y Darnaculleta)
115
. Otra vía habitual de esta regulación nebulosa se articula 
a través de códigos, normas de conducta, modelos de autorregulación más o menos 
impulsada por los poderes públicos de los diferentes niveles. Del lado positivo, en 
 
112
 Muñoz Machado, Santiago. (2000). La regulación de la Red. Poder y Derecho en Internet, 
Taurus. Reed, Chris. (2012). Making Laws for Cyberspace, Oxford university Press, Oxford, 
capítulo IV. 
113
 Tene, Omer y Polonetsky, Jules. (2013). Op. cit. . 
114
 Consejo de Europa. (2017 b). Asamblea Parlamentaria, Recommendation 2102 (2017)1, de 
28 de abril. Technological convergence, artificial intelligence and human rights. 
115
 Tarrés Vives, Marc. (2003). “Las normas técnicas en el Derecho Administrativo”, en 
Documentación administrativa, nº 265-266, (Ejemplar dedicado a: Derecho administrativo, ciencia y 
tecnología), pp. 151-184. Ver pp. 170 y ss. Darnaculleta, María M. (2005). Autorregulación y 
Derecho Público: la autorregulación regulada, Marcial Pons, Barcelona. 
 
 
 
Análisis monográfico 
25 
muchos casos estas fórmulas tienen mayores garantías de eficacia real teniendo en 
cuenta además que se trata de un fenómeno especialmente trasnacional. 
La participación del sector sin duda es necesaria, pero son también muchos los 
problemas. Así, como recuerda para el ámbito de la IA Petit
116
 hay que estar alerta al 
peligro de la capturas regulatoria o el capitalismo clientelar por el que grupos influyen 
haciendo prevalecer sus interés privados frente al interés general. De hecho, y frente a lo 
que se pueda pensar, tales capturas del regulador en el ámbito de las tecnologías 
emergentes no sólo se dan a favor del siempre poderoso sector tecnológico. En muchas 
ocasiones el regulador queda capturado por el sector social o empresarial que queda 
desplazado por las tecnologías emergentes, pero