Inteligencia
artificial: Problemas y reflexiones para el Derecho Administrativo
REDAV, N° 20, 2020, pp. 11-30
Resumen: El artículo destaca algunas de las
características de la inteligencia artificial que deben ser consideradas por
los Estados al momento de implementar tal tecnología en el ejercicio de la
función administrativa, dados los inconvenientes que las mismas podrían
representar para los derechos ciudadanos.
Palabras
clave: Inteligencia artificial – Motivación – Transparencia.
Abstract: This paper highlights some of the features of
artificial intelligence that must be considered by States when they implement
such technology in the administrative function, given the inconveniences that
they could represent for citizen rights.
Keywords: Artificial intelligence – Motivation – Transparency.
Recibido |
27-09-2021 |
Aceptado |
04-11-2021 |
No se pretende en este trabajo ahondar en conceptos
como inteligencia artificial (en adelante, IA) y cuarta revolución industrial.
Nos centraremos más bien en las características de la IA, los problemas que se
desprenden de dichas características y reflexionaremos sobre cómo esto podría
impactar al derecho administrativo, por la incorporación de estas tecnologías
en la Administración Pública.
En tal sentido, haremos
referencia solo en esta parte a lo que se entiende por IA esto es, cuando se persigue
“emular las facultades intelectuales humanas en máquinas para que estas
puedan realizar tareas propias de los seres humanos”[1]. En otras palabras, “podemos entender a la
IA cuando una computadora o dispositivo con poder computacional o sistema
informático imita las funciones cognitivas que los humanos asocian con otras
mentes humanas, como por ejemplo aprender, asociar, y resolver problemas”[2].
En las últimas décadas,
especialmente, en el siglo XXI se ha intentado tenazmente que la IA sea una
realidad que arrope nuestras vidas desde lo más complejo hasta lo más
rutinario. Si bien el nuevo milenio no llegó con vehículos voladores –y 20 años
después aun no los hay[3]– los avances tecnológicos de los últimos
tiempos son fascinantes.
Y es quizás sobre la base de
esa fascinación, por lo nuevo, por lo increíble que a veces nos resulta que un
aparato nos entienda y nos responda, que muchas veces simplemente consumimos la
tecnología y la aceptamos sin hacer ningún tipo de reflexión sobre el impacto
real que tiene en nuestras vidas, impacto que la más de las veces podrá ser
positivo, pero que podría también ser negativo, y sobre lo cual pareciera no se
repara con el rigor debido, más allá de los análisis sobre las consecuencias
laborales que está teniendo ya el uso, sobre todo en el sector privado, de la
IA[4].
Si bien sobre la IA hay
diversas advertencias sobre sus riesgos y los desafíos éticos, jurídicos y sociales
que presenta, por ejemplo, en el informe anual 2018-2019 del Foro Mundial de
Economía se dice “Las tecnologías emergentes como la inteligencia artificial
(…) inevitablemente plantea nuevos riesgos y preocupaciones éticas”[5], “asimismo las voces de precaución han
incluido al cosmólogo Stephen Hawking, al billonario de Microsoft Bill Gates y
al empresario en tecnología Elon Musk”[6], quizá podamos afirmar que estos riesgos y
desafíos son captados por personas más informadas en la materia, mientras que
el ciudadano común continúa seducido sin ahondar en análisis.
Es paradójico, pues tal vez
este entusiasmo por la IA es inculcado precisamente por las personas más
informadas y por las promesas de lo que la IA puede hacer por nosotros y
nuestras vidas, en Clarke observamos:
Simon (1960) afirmaba “En un futuro muy próximo –mucho
menos de veinticinco años– tendremos la capacidad técnica para sustituir todas
y cada una de las funciones humanas en las organizaciones (…)”. Kurzweil (2005) “para finales del 2020 las computadoras
tendrán inteligencia indistinguible de los biológicamente humanos”[7].
Afirmaciones como estas
abundan entre los científicos y desarrolladores de tecnología, es una constante
promesa del futuro digital, robótico y cibernético que no deja de fascinar y
crear expectativas en cualquier persona.
Los retos que presenta la IA
no son menores, es comprensible el fervor que esta genera para muchas personas
y es más comprensible aun que todos los beneficios que esta pueda aportar sean
cada vez más asumidos cotidianamente para ayudarnos realmente a ser mejores
personas, a simplificar nuestras vidas y al mismo tiempo a convertirnos en
seres más productivos.
En tal sentido, sería también
comprensible que esta asunción de la IA cuente con la debida prudencia y
análisis que aseguren que en realidad se adopta para beneficiarnos y no para
generar problemas a futuro que desde el punto de vista del derecho causen
indefensión, inseguridad jurídica, falta de transparencia o control o
directamente daños a las personas.
Desde luego son y serán muy
diferentes los problemas que el uso de la IA generará en cada sociedad, según
el tipo de instituciones y regímenes políticos que funcionen en cada una. Una
sociedad democrática, respetuosa del Estado de Derecho y del libre intercambio,
enfrentará problemas muy diferentes a los que existen y se observarán en una
sociedad autoritaria, regida por la concentración del poder y la planificación
central[8].
En este estudio nos
proponemos revisar algunos problemas derivados directamente de las propias
características de la IA y que podrían generar consecuencias dañosas para las
personas si la IA se incorpora –sin el debido cuidado– en la relación
jurídica entre la Administración y los ciudadanos. Además, aportaremos algunas
reflexiones que deberían tomarse en cuenta desde el derecho administrativo,
para que se acoja sin excesivo entusiasmo y sin excesivo temor lo que esta
cuarta revolución industrial plantea.
La IA supone grandes desafíos, entre ellos se encuentra el problema
de la adaptación del derecho a estas tecnologías que impactan de manera tan
honda en nuestras vidas, considerando que lo usual es que el derecho se quede
obsoleto o simplemente desligado de la realidad de la aplicación de la IA o
cualquier otro instrumento tecnológico.
En especial, nos interesa estudiar cómo podríamos asegurar que la
automatización, digitalización y delegación de la actividad administrativa[9]
a sistemas de IA, y la consecuente sujeción de la IA al derecho administrativo,
sea respetuosa de los derechos y garantías individuales de las personas y que
minimice los riesgos de discriminación, inseguridad jurídica, indefensión, etc.
y que al mismo tiempo garantice que la Administración contribuya a la
satisfacción del bien común.
Los problemas que surgen para el derecho administrativo por la
aplicación de la IA están vinculados con algunas de sus características, que
pasamos a examinar de inmediato.
i. Características
de la IA
1. La opacidad de los
algoritmos
En revistas o libros dedicados al tema se puede leer con frecuencia
que los algoritmos, sobre los cuales funciona la IA, son una black box o caja negra de los que no se sabe
qué hay dentro. La opacidad, por diferentes razones, dificulta que pueda
saberse a ciencia cierta cómo funcionan los algoritmos, por qué usan los datos
que usan para tomar decisiones y en definitiva por qué toman unas decisiones y
no otras.
Según Agustí Cerrillo:
Desde el punto de vista legal, la opacidad de los
algoritmos puede deberse a la existencia de cláusulas contractuales o
regulaciones que limitan el acceso a la información para proteger otros bienes
o derechos, como los secretos comerciales, la propiedad intelectual e
industrial, la protección de datos personales y la seguridad pública. También
puede ser para proteger la confidencialidad o el secreto del proceso de toma de
decisiones para evitar revelar las decisiones que aún se están tomando[10].
Cuando llevamos esto al plano de la implementación de IA por la
Administración debemos tener en cuenta además que:
…los algoritmos utilizados no suelen ser
programados por el personal del sector público sino por otros que quieren
protegerlos, por ejemplo, para evitar la pérdida de una ventaja competitiva o
para obtener un retorno de la inversión. Por eso es común que los propios
contratistas declaren confidenciales sus códigos de algoritmos[11].
2. Los sesgos en el
tratamiento y procesamiento de datos
En su séptima acepción, la Real Academia Española define sesgo como
“error sistemático en el que se puede incurrir cuando al hacer muestreos o
ensayos se seleccionan o favorecen unas respuestas frente a otras”.
La IA no está exenta de incurrir en errores, a pesar de que se ha
querido vender como tecnología libre de parcialidades y subjetividades, por su
precisión matemática. La realidad es que la IA requiere una programación previa
antes de poder funcionar, y para hacerlo se basa en algoritmos que utilizan
miles de datos (big data) para tomar
las decisiones que toman, y todos esos datos no son necesariamente de calidad.
No todas las bases de datos recopilan información (datos) siguiendo
estándares de calidad, lo que puede acarrear que muchos de los datos usados por
una IA al decidir estén de algún modo “contaminados” por falta de veracidad, falta
de precisión, falta de consistencia, etc. Esto los haría poco confiables e
indefectiblemente conllevaría a una toma de decisión errada.
Una IA puede venir con sesgos desde su programación porque el
programador haya querido que las decisiones se muevan en un sentido y no en
otro[12],
o pueden estos sesgos generarse a partir de los datos que utiliza la IA para
tomar una decisión.
Por ello se advierte que la IA puede operar con sesgos provenientes
de:
…en unas ocasiones la calidad de los datos que se
toman como marco de análisis, en otras las preconcepciones del programador. En
algunos casos, son las propias elecciones de sus usuarios las que incorporan el
sesgo al insertar datos cuando el sistema debe retroalimentarse con nueva
información. Más preocupante resulta este anormal funcionamiento cuando es
intencional, cuando el resultado perverso es exactamente el que se espera
obtener[13].
Recordemos, además, que la IA, tiene como característica la
autonomía, que, aunque no es absoluta, le habilita para ejercitar un
aprendizaje automático o machine learning, que puede
además ser profundo (deep learning) lo que expresa que el procesamiento de datos
será más complejo y podrá obtener más y mejor información a través de redes
neuronales artificiales. Así pues, la IA no solo toma los datos y trabaja en
función de su programación, sino que mientras analiza esos datos puede generar
patrones de decisiones autónomas que podrían estar sesgadas por el contenido de
esos datos y generar, por ejemplo, decisiones discriminatorias.
El problema del sesgo en el procesamiento de datos no es menor,
pues en palabras de Vida Fernández:
…una de las cuestiones más controvertidas que se
imputan a la IA es el problema de los sesgos que están afectando a los modelos
predictivos que se aplican y las dificultades para detectarlos y corregirlos.
Son numerosos los estudios que denuncian la existencia de sesgos en la IA que
pueden incrementar la desigualdad a través de una discriminación encubierta y
afectar al principio de igualdad efectiva que debe imperar en una democracia[14].
Sea por una razón u otra, hasta el momento la IA no es infalible,
puede cometer errores y de hecho los comete según se ha denunciado en diversos
casos. Por ejemplo, en Estados Unidos se denunció que un determinado programa
de IA favorecía la libertad condicional de las personas blancas en perjuicio de
individuos de otras etnias[15].
Recientemente en Reino Unido, a causa de la pandemia generada por la
COVID-19 (SARS-CoV-2) que vivimos actualmente, el Gobierno decidió utilizar un
algoritmo predictivo para básicamente determinar quiénes, de haber presentado
la prueba de admisión a universidades, habrían obtenido un cupo universitario,
el algoritmo se aplicó sobre las notas de los recién graduados de bachillerato,
el resultado fue nefasto, cerca de 300.000 aspirantes han denunciado que el
algoritmo bajó sus notas y quienes se han visto más afectados son los
aspirantes universitarios de menos recursos[16].
3. La velocidad en el
desarrollo de nuevas tecnologías incluida la IA
No hace falta un estudio profundo para saber que la tecnología
avanza a pasos agigantados, lo vivimos cada día. Cada vez son más y más rápidas
las formas en que la tecnología interviene en nuestras vidas y es quizás
gracias a esa velocidad que la humanidad se ha permitido grandes cambios en
nuestra forma de existir.
Sin duda, tal realidad nos ha permitido mejorar nuestra calidad de
vida, pero es también esa condición vertiginosa la que acarrea ciertos
problemas para el derecho y que no son ajenos para el derecho administrativo.
Como apunta Vega:
…el aumento de la IA hasta ahora ha ocurrido en un
vacío general regulatorio. Con la excepción de la legislación de algunos
Estados en los EUA con respecto a vehículos autónomos y drones, existen muy pocas
leyes o regulaciones que aborden específicamente los desafíos únicos planteados
por IA, y prácticamente no hay tribunales que hayan desarrollado estándares que
aborden específicamente quién debe ser considerado legalmente responsable si
una IA causa daño[17].
Como se observa, el rápido avance de las tecnologías pone en jaque
al derecho por su incapacidad de adaptarse a tiempo a sus infinitos y rápidos
cambios.
Por su parte Martín
expone:
…este proceso no es aséptico. Ni las tecnologías ni
las decisiones políticas de aprovechamiento de las mismas son neutras; además,
su implantación en la Administración puede tener consecuencias negativas si el
Derecho no asegura el mantenimiento de las garantías jurídicas necesarias para
la protección de los derechos de los ciudadanos. Éste es el principal reto que
se plantea en relación con el proceso de digitalización de la Administración:
lograr una mayor eficacia en el ejercicio de la función de administrar sin
restringir el ámbito de protección de los ciudadanos frente al poder público[18].
ii. Problemas que se derivan de la incorporación de la IA en la
Administración Pública y reflexiones en torno a dichos problemas para el
derecho administrativo
1. En cuanto a la
opacidad de los algoritmos
La primera característica examinada, la opacidad de los algoritmos,
genera problemas específicos para el derecho administrativo, a saber:
A. La
falta de transparencia[19] y acceso a la información[20]
Por diferentes razones los algoritmos con los cuales funciona una
IA, sufren de opacidad, ni siquiera los propios desarrolladores pueden hoy en
día descifrar con exactitud cómo es que un algoritmo termina tomando una
decisión. Esto, evidentemente, supondría un problema para la Administración si
decidiera incorporar IA en algunos de sus procesos de tomas de decisiones, pues
más allá de la voluntad en cumplir con la transparencia y acceso a la
información, la Administración Pública se vería imposibilitada materialmente
por carecer de los medios para explicar y dar a conocer las razones de una
decisión. Esto a su vez se convertiría en un incentivo perverso para los
funcionarios pues, en palabras de Clarke
“cuando las entidades están seguras sabiendo que no se les puede culpar, el
comportamiento irresponsable es inevitable. Están amenazados los principios
establecidos de evaluación, equidad, proporcionalidad, toma de decisiones basas
en la evidencia y la capacidad de impugnar las decisiones”[21].
Además de esto, muchos algoritmos están protegidos por patentes de
propiedad intelectual e industrial, como apunta Azuaje
“de acuerdo con la Organización Mundial de la Propiedad Intelectual (OMPI),
para el año 2019 se contabilizaron más de 340.000 solicitudes de patente
relacionadas con la IA”[22],
esta protección sin duda genera una tensión entre el derecho de propiedad
derivado del secreto empresarial y el derecho a la transparencia y acceso a la
información de los particulares ante la Administración.
Otro problema asociado al desafío de asegurar la transparencia en
las actuaciones en que opere una IA, tiene que ver con los conflictos que se
presentarán entre el derecho de acceso a la información que consten en
registros públicos y el derecho a la protección de datos personales que consten
en esos registros, pues en la medida que la Administración enfatice la tutela
del segundo ante el primero de los mencionados derechos, también podrían surgir
problemas de transparencia, que deberán ser debidamente atendidos a través de
fórmulas que impidan o reduzcan al máximo la opacidad[23].
Teniendo en cuenta lo dicho, cabe preguntarse ¿De qué manera puede
la Administración expresar en un lenguaje compresible para todos cómo funciona
la IA y los procesos llevados a cabo a través de esta?, es más, ¿existe
realmente algo como un lenguaje “comprensible para todos” cuando se trata de
IA? Pareciera muy cuesta arriba para la administración poder cumplir con la
transparencia y derecho a la información respecto de los particulares.
Entonces, también cabe preguntarse ¿la solución sería no incorporar IA en la
Administración?
Evidentemente la respuesta es no, primero porque es ingenuo pensar
que la era digital no abarcará al sector público como ya ha abarcado al sector
privado, y segundo porque sería contrario al propio beneficio de las personas,
pues la incorporación de la IA puede suponer grandes avances en eficiencia y
eficacia de la Administración, siempre que se acoja con el debido cuidado. Se
debe entonces apuntar a un objetivo primordial, esto es, que la Administración
incorpore IA que cumpla los máximos estándares de calidad y éticos, tanto en el
procesamiento y uso de la información para decidir como la atención al
ciudadano al momento de hacer de su conocimiento lo decidido, ya disponibles,
por ejemplo, en propuestas de organizaciones especializadas en materia de IA[24].
Tal medida contribuirá a reducir el impacto de la opacidad de los algoritmos y
a generar mayor confianza en las personas respecto del impacto de la IA en sus
relaciones con la autoridad administrativa[25].
B. La
dificultad en el control de los actos dictados por IA
Como sabemos, toda la actividad de la Administración está sujeta a
control; sin embargo, cuando se trate de actividad derivada de IA este control
no necesariamente puede ejercerse aun y cuando el acto en sí mismo, por regla
general, pueda ser impugnable. Ello así, porque los elementos que se
necesitarían para ejercer un control adecuado no estarían al alcance de los
jueces o de quien corresponda en un momento dado el control del acto.
No solo correspondería al afectado por el acto poder conocer la
lógica con que se ha tomado una decisión (lo que Tomás de La Quadra llama el derecho a “explicación”[26]),
sino que corresponde también a quien toma la decisión poder conocer cómo la IA
ha tomado tal decisión en nombre de la Administración y en definitiva el nombre
del funcionario a cargo de tomarla (ya que hasta el momento no hay un reemplazo
definitivo de los funcionarios que emiten decisiones por IA).
En tal sentido, expone Valero
Torrijos que:
…ahora bien, dicha persona [el funcionario público]
debería ser capaz de asumir –y, por tanto, de comprender– el alcance y las
razones del resultado que arrojen los algoritmos, ya que, de lo contrario, no
podría hacerse responsable de la decisión que se adopte y, en particular,
difícilmente se podrían cumplir las exigencias legales de motivación[27].
Si no se tiene acceso a la información de cómo funciona una IA y
bajo qué parámetros ha dictado tal o cual decisión ¿será posible impugnar un
acto dictado por IA?, ¿qué es lo que se debería impugnar?, ¿basta con mantener
los métodos tradicionales de impugnación del acto?, ¿estarán los jueces
preparados para conocer controversias en que esté presente la acción de una IA?
Son preguntas a partir de las cuales se deben formular oportunas y
útiles respuestas, ya que la tendencia será a que entre la Administración y el
ciudadano cada vez más medie una máquina y no una persona humana. Ante ello, la
posibilidad de cuestionar la validez de un acto debe ratificarse como parte del
derecho a la defensa y a la tutela judicial de toda persona frente
Administración el cual mal puede resultar debilitado o menoscabado por la
incorporación de nuevas tecnologías, que entonces vendrían a reforzar las
prerrogativas de que ya disfruta la autoridad administrativa.
C. La
falta de motivación del acto
Un elemento esencial de todo acto administrativo es la motivación,
de allí que la Administración pueda exteriorizar las razones de sus decisiones
y de allí que el particular pueda impugnar dichas razones cuando las mismas no
se ajustan a los hechos o al derecho. Sin embargo, si nos encontramos frente a
una IA que esencialmente toma decisiones a través de algoritmos que son en sí
mismo opacos (no transparentes) entonces estamos frente a un problema que va a
la concepción del acto mismo, pues “la máquina no puede argumentar. No
argumenta, o lo hace sólo aparentemente, en el output, en forma de motivación
que no es razonamiento sino una secreción del programa que sirve de
acompañamiento, de cobertura, para respaldar una operación, para ‘justificarla’”[28].
Siendo cada vez más común la existencia de procedimientos o etapas
de procedimientos administrativos automatizados, cabe prever que en un futuro
cercano dichos trámites estarán delegados a sistemas de IA con autonomía. Si
bien hoy en día no hay procedimientos administrativos cuyas decisiones estén
totalmente delegadas a una máquina, el futuro promete una mayor
despersonalización en la atención a los ciudadanos. Lo vemos cada vez más en el
sector privado y es solo cuestión de tiempo para que tal experiencia llegue al
sector público.
Se trata de una oportunidad de oro para abandonar malas prácticas
dentro de la Administración, como por ejemplo el uso de formatos
preestablecidos para tomar decisiones en casos que pueden ser similares, pero
en los que muchas veces se omiten cuestiones relevantes que terminan por
perjudicar a los particulares, o directamente la muy cuestionable técnica del
“copiar y pegar” al producir actos administrativos.
La apuesta es derrotar lo advertido por Martínez García en la cita previa de su análisis. Si bien la
máquina no razona, sí puede entregar mejor y más información a los particulares
al hacer de su conocimiento las decisiones tomadas en los asuntos de su
interés. A fin de cuentas, una máquina no tiene las limitantes de horario,
capacidad mental y falta de adecuados incentivos que una persona natural tiene.
Por tanto, uno de los objetivos debe ser que la IA que se incorpore en la
Administración lejos de convertirse en un elemento adicional de perjuicio al
ciudadano, sea desde el principio un instrumento idóneo para estudiar de forma
más rápida y mejor cualquier caso que se le plantee, superando la capacidad de
los funcionarios de hoy y generando en lo posible decisiones mejor motivadas y
más justas para todos.
D. La
imprecisión en el establecimiento de la responsabilidad por los daños
Sabemos que la Administración debe responder por los daños que
causa. Sin embargo, cuando la Administración causa daños por una decisión
tomada a través de IA, podrían considerarse elementos externos (de
programación, desarrollo o comercialización de la IA) que podrían generar
serias trabas para los particulares en el establecimiento de la responsabilidad
de la Administración.
En efecto, si se tiene en cuenta que la Administración, en general,
usa tecnologías como la IA que no produce ella misma sino que adquiere de
terceros, cabe anticipar que cuando una IA usada en un organismo administrativo
genere daños por un problema de diseño o por un mal funcionamiento no vinculado
con su uso indebido, de aceptarse evaluar la responsabilidad patrimonial de la
Administración desde una perspectiva civilista o de la culpa, existiría el
riesgo de que aquélla alegue no tener legitimación pasiva para ser demandada al
carecer de culpa en el mal diseño o mal funcionamiento de la IA,
correspondiendo en tal caso al afectado la carga de identificar al proveedor de
la tecnología para accionar en su contra, en un nuevo juicio que, además,
estaría sujeto a las complejas y costosas reglas del proceso civil ordinario.
Lo razonable en tal caso es adoptar una perspectiva publicista y
objetiva de la responsabilidad patrimonial de la Administración[29],
para la cual lo relevante es la verificación del daño y la existencia de
causalidad entre éste y la conducta imputable a la autoridad administrativa, de
modo que ante el particular afectado en su persona o patrimonio sea la
Administración la que responda cuando la IA que ella utiliza cause daños, sin
perjuicio de que luego de ser condenada pueda y deba incluso la Administración
repetir contra el proveedor de la tecnología defectuosa, para que sea éste el
que en última instancia asuma el costo de la reparación, y que incluso,
dependiendo la gravedad del caso, se apliquen sanciones administrativas previo
derecho a la defensa, que le impidan a ese proveedor contratar de nuevo con la
Administración durante un tiempo determinado al menos.
2. En cuanto a los
sesgos en el tratamiento y procesamiento de datos
La segunda característica
examinada, los sesgos en el tratamiento y procesamiento de datos, pueden
generar varios problemas, sin embargo, nos limitaremos a mencionar un problema
de gran envergadura como sería: la discriminación arbitraria y violación del
principio de igualdad ante la ley:
Si, por ejemplo, en el marco
de un concurso público o la aplicación de una sanción, un programa que analiza
diversos tipos de personas tiene en cuenta sus características particulares y,
en función de ellas toma unas decisiones y no otras, esas decisiones podrían en
muchas ocasiones estar basadas en discriminaciones arbitrarias.
Según el artículo 1 de la
Declaración Universal de Derechos Humanos de 1948 “Todos los seres humanos
nacen libres e iguales en dignidad y derechos…”. En tal sentido, toda
autoridad incluida la Administración, debe respetar el derecho a un trato igual
para todas las personas en resguardo de las diferencias particulares de cada
caso[30].
Dar un trato distinto a
personas que se encuentran en una misma situación sería un claro caso de
discriminación arbitraria[31]. Como hemos expuesto arriba, tanto los sesgos
en el procesamiento de datos como la opacidad de los algoritmos, pueden llevar
a que una IA emita decisiones discriminatorias tal como se denunció en Estados
Unidos y Reino Unido en los casos mencionados.
Por lo dicho, merece especial
atención algo que es muy común actualmente en el ámbito de la gestión privada,
como lo es la elaboración de perfiles:
La problemática de
los perfiles debe ser examinada también con el prisma del derecho fundamental a
la igualdad. Hasta ahora el derecho a la igualdad se concretaba en no sufrir
discriminación por razón de nacimiento, raza, sexo, religión, opinión o
cualquier otra condición o circunstancia personal o social (…) lo cierto es que
el perfil (…) crea una nueva categoría o condición que hasta ahora no está
claro si era personal o social, pero que desempeña los mismos efectos o
consecuencias, estigmatizando a la persona que encaja en el perfil (…) son
numerosos los expertos que han denunciado los sesgos y errores de todo tipo en
que incurren muchos de esos algoritmos. Ello suscita la demanda creciente de
regular un derecho a explicación que obligue a desvelar la lógica del
algoritmo, tanto el modelo del que se partía como de otros aspectos del
procedimiento de suministro de datos a la computadora[32].
La elaboración de perfiles,
de acuerdo a los datos que una persona aporta, desde su nombre, lugar de
nacimiento, edad, hasta sus preferencias más íntimas, desde hace varios años
está generando una nueva manera de comprender el mundo y de canalizar el marketing
y más especialmente en influenciar la toma de decisiones de las personas, tal
como se evidenció en el conocido caso Cambrige
Analytica[33] en el cual se reveló cómo el tratamiento de datos y
elaboración de perfiles influyó para que Donald Trump se posicionara y
finalmente ganara las elecciones presidenciales en Estados Unidos.
Con todo lo dicho, no puede
negarse que el sesgo en el tratamiento y procesamiento de datos puede generar
discriminación arbitraria y vulneración del principio de igualdad ante la ley.
Estos son problemas que no podrían admitirse con la puesta en marcha de la IA
en la Administración, imaginemos que en un futuro no muy lejano la selección de
personal, selección de contratistas, prestación de servicios públicos, entre
otros, estén delegados a la IA y esta actúe de manera sesgada, tomando
decisiones arbitrarias que vulneren derechos individuales y generen
responsabilidad en la Administración.
A modo de reflexión, lo
primero que podemos apuntar es que el tratamiento de datos desde el sector
público podría ser mucho más peligroso que en el caso del sector privado, pues
la Administración además de contar con todas las herramientas tecnológicas
aplicadas en estos casos, puede ejercer coacción legítima sobre los
particulares, cosa que no le está dada a los privados.
En tal sentido, el objetivo
respecto de este punto es que la Administración lleve a cabo los más rigurosos
procedimientos de selección de prestadores de servicios de IA u oferentes de
productos de IA. La adquisición de estas tecnologías debería pasar por
procedimientos licitatorios que en definitiva permitan determinar que se elige
al mejor prestador u oferente y que los riesgos de causar daños son mínimos. Ya
hemos visto cómo los gobiernos de Estados Unidos y Reino Unido se han visto
afectados por elecciones erróneas al adquirir IA que se ha desarrollado con
sesgos causando daños a las personas, en estos casos como también se indicó
arriba la responsabilidad de la Administración debe ser objetiva.
Sin embargo, como ciudadanos
no nos interesa una Administración Pública que constantemente pueda causar
daños y a la cual haya que demandar con frecuencia para que repare. Más bien
nos interesa que la Administración funcione de manera óptima y cause los
menores daños posibles, para lo cual es indispensable al incorporar IA que se
elija a los mejores proveedores e incluso se exija verificación de procesos
bajo estándares éticos y de transparencia, como ocurre en la Unión Europea
donde criterios en ese sentido se están adoptando con creciente celeridad.
3. En cuanto a la
velocidad en el desarrollo de nuevas tecnologías
La tercera característica
examinada, la velocidad en el desarrollo de nuevas tecnologías incluida la IA,
plantea los siguientes problemas:
En un mundo cambiante como es el de la tecnología el derecho
encuentra un caos para sí ¿cómo poder regular algo que está en constante
cambio? El derecho es sinónimo de certeza, estabilidad, lo que nos produce
seguridad jurídica como ciudadanos es saber que ante una conducta “A” tendremos
un resultado “B”. El derecho trata de ser preciso, de abarcar cuanto puede. Y,
sin embargo, a veces la ley presenta lagunas o vacíos, que el mismo derecho a
través de técnicas como la analogía, la interpretación, el precedente, entre
otros, trata de corregir.
Todo esto parece insuficiente cuando se habla de nuevas
tecnologías. Como hemos dicho antes, no solo es que la ley puede quedar
obsoleta, es que a veces no se acerca a la realidad de estas tecnologías, es
insuficiente y sobre todo débil para controlar lo que éstas vienen a proponer.
Si hay algo que nos ha hecho evolucionar como especie, es el
derecho y la concreción de este en leyes justas. Que nuestras conductas puedan
ser reguladas por normas ciertas y universales –de igual aplicación para todos–
y que nuestros conflictos se diriman de acuerdo con preceptos previamente
establecidos ha pacificado nuestras vidas en los últimos siglos.
Pero ahora nos encontramos ante un mundo digital, online, escasamente
regulado y cuyos intríngulis son altamente desconocidos por el común de las
personas. Códigos binarios, algoritmos, big
data, machine learning, deep
learning, inteligencia artificial, son términos
que se leen y se oyen cada vez más ¿pero conocemos su alcance, significado y
lógica de funcionamiento?
Estos modelos disruptivos[34]
requieren habilidades desconocidas, no podemos pretender que el derecho y el
proceso de formación de la ley positiva puedan regular con éxito algo que nos
desborda en el tiempo. Se deben asumir nuevas formas de regulación que vayan a
la par de los cambios radicales que las nuevas tecnologías y en especial la IA
en sí mismas representan. Mientras no encontremos esas nuevas formas de
controlar la IA, estaremos como sociedad –y como humanidad– asumiendo altos
riesgos de ser dañados sin consecuencias, viviendo en la incerteza, en la
inseguridad jurídica.
Hoy en día en Estados Unidos y sobre todo en la Unión Europea, se
está trabajando fuertemente con principios éticos y soft
law para poder de alguna manera hacer frente a
los cambios bruscos que supone la IA y que no pueden ser atacados inmediatamente
con una ley, que por muy avanzada que sea en regulación de IA no puede
pretender prever lo infinitamente cambiante de las tecnologías.
El problema de las asimetrías y brechas está directamente conectado
con nuestra condición social, nuestro nivel de educación, nuestra edad e
incluso con el mucho o poco interés que las nuevas tecnologías nos genera. Las
asimetrías definirán a las personas que entiendan y se adapten mejor a las
nuevas tecnologías y aquellas que no lo hagan –por las diferentes razones que
sean–, esto creará necesariamente una brecha entre unas y otras. Como apunta
una de las más connotadas ingenieras de España, Nuria
Oliver:
Todos y todas, como ciudadanos y ciudadanas del
mundo, deberíamos tener el derecho de decidir hacia dónde queremos ir como
especie y cómo queremos usar los avances tecnológicos que estamos
desarrollando. El primer paso para eso es conocer de qué estamos hablando y,
desgraciadamente, la brecha entre el estado de desarrollo tecnológico y el
conocimiento del ciudadano medio es inmensa[35].
Si trasladamos este problema a la Administración pública, podemos
encontrar que uno de los ámbitos en que las asimetrías y brechas señaladas
podrían impactar de forma muy negativa, sería en la organización interna de la
Administración con impacto directo en la situación subjetiva de las personas,
pensemos por ejemplo, en el nivel de actualización y capacitación en uso de IA
que pueda observarse en el nivel nacional de gobierno, frente al que se pueda
apreciar a nivel estadal y a nivel municipal. Sería un reto lograr un
equilibrio y que ninguno de los niveles territoriales se imponga en el
beneficio o uso de IA.
Dado que la forma federal y sobre todo descentralizada de muchos
Estados exige que un importante número de asuntos y servicios administrativos
sean prestados a los particulares por autoridades estadales, regionales y
locales, no se puede permitir que entre la Administración nacional, estadal y
local surjan excesivas brechas y asimetrías desde el punto de vista, por
ejemplo, del uso de IA, ya que ello se traducirá en una desigual atención y
servicio a los ciudadanos, manteniendo así una atención de mala calidad en los
niveles estadal y local, que son los más usados en muchas áreas por los ciudadanos.
En definitiva, la IA debe alinearse con la descentralización y
potenciarla, y en ningún caso debilitarla o convertirse en un obstáculo para
profundizarla en favor de las personas.
C. La
dificultad en la oportuna actualización
La Administración Pública al empezar a utilizar IA dentro de sus
procesos habituales, necesariamente tendrá que estar preparada a nivel
organizacional y presupuestario para actualizar esos sistemas de IA, pero
también para capacitar y conservar al personal que se ocupe de estos, así como
para informar y en lo posible asistir a la ciudadanía que interactúa con
servicios prestados a través de IA, en cuanto a los cambios operados en la
forma de ejercer su derecho de petición, supervisar la tramitación de su
procedimiento y obtener respuesta expresa y fundada a su solicitud.
En este punto vale citar a Ramió:
El modelo general propuesto de cara al futuro es
una Administración pública refinada institucionalmente e inteligente. Este
modelo abarcaría dos ingredientes: por una parte, mayor calidad institucional
(sistemas meritocráticos fluidos para el acceso y la carrera, dirección pública
profesional, transparencia, rendición de cuentas y evaluación de políticas y
servicios públicos y, finalmente, un renovado sistema de gestión de recursos
humanos) (…) El segundo ingrediente de este modelo de futuro es la inteligencia
institucional para poder dirigir públicamente los sistemas complejos de
gobernanza. Este ítem hace referencia a una Administración pública que posea
buenos sistemas de información[36].
El objetivo en este punto es claro, se debe procurar una
Administración capaz de asumir con la mayor calidad institucional los retos que
supone la incorporación de IA, esto pasa por asegurar que dichos sistemas no se
queden obsoletos, que la gente pueda entenderlos, que los funcionarios estén
capacitados para esta interacción tecnológica y que los riesgos sean mínimos.
Sería inadmisible una Administración que se vea impedida de lograr sus
cometidos, porque los sistemas de IA no estén debidamente actualizados, el
personal no esté suficientemente capacitado o los usuarios resulten
discriminados o excluidos por desconocer las reglas del servicio digital.
D. La
inadecuada fiscalización y el déficit de interoperabilidad
Por último, y dejando ahora de lado otros problemas adicionales
vinculados con la IA y su utilización en el derecho administrativo, es
importante considerar los retos que supone regular adecuadamente las
innovaciones, para no inhibir su desarrollo y los beneficios que pueden brindar
a las personas, y lograr la interoperabilidad entre organismos de la propia
Administración, que no es otra cosa que cumplir, en el ámbito digital, con los
principios de coordinación y cooperación de la organización administrativa,
indispensables para el buen ejercicio de la función administrativa y efectiva
prestación de servicios a los particulares.
Con relación a la adecuada fiscalización es importante que desde el
derecho administrativo y el derecho regulatorio se discuta qué principios y
parámetros deberán seguir los órganos administrativos competentes para
fiscalizar la producción y uso por privados de innovaciones tecnológicas,
incluida la IA, para actuar con la capacidad de proteger a terceros de usos
indebidos o efectos indeseados derivados de esas innovaciones, sin que ello
implique obstaculizar por razones más bien burocráticas o políticas la
producción de nuevas tecnologías que den soluciones a las personas ante
diferentes problemáticas.
Ante las recientes investigaciones hechas por las autoridades de
los EEUU a ciertas innovaciones y prácticas comerciales de gigantes
tecnológicos como Google, Amazon, Apple y Facebook[37], a
fin de establecer si las mismas estaban o no generando afectación de derechos
fundamentales o vulnerando normas relevantes para actividades electorales,
entre otras materias, se impone que desde el derecho administrativo se plantee
si, por ejemplo, será necesario contar con autorización administrativa previa
para comercializar ciertas invenciones que puedan incidir peligrosamente en
derechos fundamentales de las personas, como ya ocurre en materia de
medicamentos, si deberán adoptarse criterios como el principio precautorio del
derecho ambiental, para en forma preventiva, aun no teniendo toda la evidencia
científica relevante, la autoridad fiscalizadora pueda suspender el uso de una
innovación específica en resguardo de derechos de los usuarios, o si por el
contrario han de ser otro tipo de criterios los que habrá de seguir la
autoridad[38].
Con relación a la interoperabilidad, cabe destacar que en áreas
como la seguridad ciudadana y la inteligencia para enfrentar formas
sofisticadas de delincuencia organizada tanto internas como internacionales, es
prioritario que además de existir simetría y las mínimas brechas de
capacitación y uso de la IA entre las diferentes unidades de la Administración
dedicadas a esas temáticas, existan mecanismos institucionales idóneos, esto
es, seguros, oportunos y ajustados a derecho, de comunicación, intercambio de
información y coordinación de decisiones complejas, que permitan no solo que la
Administración falle en su obligación de proteger el interés público por
descoordinación y fallas en la planificación interna, previa a la actuación,
sino que más bien permita, por la rapidez, certeza y precisión en las acciones
a ejecutar, que ella logre con solvencia servir o tutelar oportunamente el
interés público en juego.
Por tanto, es mucho lo que el derecho de la organización
administrativa necesita evaluar, adaptar y evolucionar para fortalecer
indispensables técnicas y principios básicos en esa área, como la coordinación,
la cooperación, la desconcentración, la descentralización administrativa y la
lealtad institucional, entre otros.
La IA llegó para quedarse y extenderse a un creciente número de procesos
productivos y de prestación de servicios, tanto en el sector privado como en el
sector público, aunque su incorporación a este último se esté desarrollando con
menor rapidez que en el primero.
La adopción de IA en los procesos organizativos y la actividad de
la Administración es una oportunidad para que diferentes situaciones que
afectan su buen desempeño y funcionamiento sean definitivamente superadas en
beneficio de los particulares al interior de las relaciones jurídicas que
mantienen con las autoridades de gobierno.
Para que lo anterior sea posible es indispensable identificar,
comprender y analizar los desafíos y problemas que la incorporación de la IA
está generando y seguirá produciendo por un tiempo en las organizaciones
administrativas estatales, ante lo cual es al derecho administrativo,
primariamente, la disciplina jurídica a la que toca examinar estas situaciones
y generar oportunas y efectivas soluciones.
A partir de principios, figuras e instituciones propias del derecho
administrativo es posible generar respuestas efectivas a los desafíos y
problemas que la IA genera en su incorporación a la organización y la actividad
administrativa, examinados algunos de ellos en este ensayo, pero siempre y
cuando se adapten exitosamente al cambio que supone migrar de una realidad
presencial a una realidad digital.
Dificultades y peligros como la opacidad de los algoritmos, las
asimetrías en el uso de la IA, las dificultades para el control de las
decisiones administrativas de la IA, la insuficiente motivación, la
responsabilidad por daños generados por la IA al actuar desde la Administración
y el logro de una adecuada fiscalización sobre la producción de nuevas
tecnologías como la IA, entre otros, solo pueden ser superadas con apoyo en el
derecho administrativo.
Pero no de cualquier derecho administrativo, sino de uno capaz de superar sus propios dogmas, de dialogar con el conocimiento tecnológico y de garantizar estándares técnicos y éticos apropiados para asegurar que la modernización que genere la adopción de la IA efectivamente genere beneficios a las personas, y en modo alguno nuevos y peores perjuicios. ■
*
Abogada y Especialista en Derecho Administrativo por la Universidad
Católica Andrés Bello, Venezuela. mayerlin.matheus@uautonoma.cl
[1] Cerrillo
Martínez, Agustí (2019): “El
impacto de la inteligencia artificial en el derecho administrativo ¿nuevos
conceptos para nuevas realidades técnicas?”, Revista
General de Derecho Administrativo, N°
50, p. 3.
[2] Vega
Iracelay, Jorge (2018): “Inteligencia Artificial y derecho: principios y
propuestas para una gobernanza eficaz”, Revista Iberoamericana de Derecho
Informático, Nº 5, p. 16.
[3] Cabe señalar
que el pasado 29-08-2020 el primer carro volador alzó vuelo de manera exitosa
en Japón. Ver https://bit.ly/2EKwzjJ
[4] Con relación al impacto de la IA en el
ejercicio de la profesión de abogado, véase Oppenheimer, Andrés (2019):
¡Sálvese Quien Pueda! (Santiago, Debate), pp. 149 y ss.
[5] Traducción
libre. World Economic Forum (2019): Annual Report 2018–2019.
En https://bit.ly/36D5wPe, p. 52.
[6] Traducción
libre. Clarke, Roger (2019): “Why the world wants controls over
Artificial Intelligence”, Computer Law & Security Review, Nº 35, p. 423.
[7]
Ibid., p. 424.
[8] Peirano,
Marta (2019): El enemigo conoce el sistema. Manipulación de ideas, personas e
influencias después de la Economía de la Atención (Santiago, Debate). La autora
analiza lo que causa y puede causar el uso de tecnologías como la IA en el
sector público, cuando ello ocurre en contextos autoritarios como el de Rusia y
China.
[9] Véase Ponce Solé, Juli (2019):
“Inteligencia artificial, derecho administrativo y reserva de humanidad:
algoritmos y procedimiento administrativo debido tecnológico”, Revista
General de Derecho Administrativo, Nº 50, pp. 263-264: “La IA llevada al
campo de las Administraciones Públicas, como decíamos, puede ayudar al
procesamiento rápido de ingentes cantidades de datos y a la toma de decisiones (…)
En tal sentido la actividad administrativa automatizada es definida por el
anexo de la Ley 11/2007, de 22 de junio, de acceso electrónico de los
ciudadanos a los servicios públicos, como toda actuación administrativa
producida por un sistema de información adecuadamente programada sin necesidad de
intervención de una persona física en cada caso singular. Incluye la producción
de actos de trámite o resolutorios de procedimientos, así como de meros actos
de comunicación”.
[10] Traducción libre. Cerrillo Martínez, Agustí (2019): “How
can we open the black box of public administration? Transparency
and accountability in the use of algorithms”, Revista
Catalana de Dret Públic, N° 58, p. 17.
[11] Ibid.
[12] Ya se apuntaba
así en la década de los 70. Ver Fernández,
Tomás Ramón (1971): “Jurisprudencia y computadores”, Revista de Derecho Administrativo,
Nº 64, p. 331.
[13] Martínez
Martínez, Ricard (2018): “Inteligencia artificial, derecho y derechos
fundamentales” en De La Quadra-Salcedo, Tomás y Piñar Mañas, José (directores),
Sociedad Digital y Derecho (Madrid, Boletín Oficial del Estado,
Ministerio de Industria y comercio y Red.Es), p. 269.
[14] Vida
Fernández, José (2018): “Los retos de la regulación de la inteligencia
artificial: Algunas aportaciones desde la perspectiva europea” en De La
Quadra-Salcedo, Tomás y Piñar Mañas, José (directores), Sociedad Digital y
Derecho (Madrid, Boletín Oficial del Estado, Ministerio de Industria y
Comercio y Red.Es), p. 219.
[15] Ver
este y otros casos en Martínez Martínez, Ricard (2019): “Inteligencia
artificial desde el diseño. Retos y estrategias para el cumplimiento
normativo”, Revista Catalana de Dret Públic, Nº 58, p. 69.
[16] Ver Diario
Constitucional (2020): “F*** The Algorithm!: Los peligros de la Dictadura de
los Algoritmos”. En https://bit.ly/3hHUcrN
[17] Vega
Iracelay: Inteligencia artificial y derecho…, ob. cit., p. 22.
[18] Martín
Delgado, Isaac (2019): “Hacia un modelo de Administración digital
auténticamente innovador. Cinco tesis y una ‘anti-tesis’ sobre los derechos de
los ciudadanos en sus relaciones con la Administración por medios electrónicos
en el contexto del procedimiento administrativo”, en Belandria García, José
(coordinador), Transformación
digital, modernización e innovación
en la Administración Pública
(Caracas, Centro para la Integración
y el Derecho Público y Fundación
de Estudios de Derecho Administrativo), pp. 216-217.
[19] Esteve
Pardo, José (2018): Lecciones de Derecho Administrativo (Madrid, Marcial
Pons), pp. 222-223.
[20] Según la Comisión
Interamericana de Derechos Humanos (2007): Estudio especial sobre el Derecho
de Acceso a la Información, en https://bit.ly/2U7EJZ6, p. 31: ”el artículo 13 de la Convención, al estipular
expresamente los derechos a ‘buscar’ y a ‘recibir’ ‘informaciones’, protege el
derecho que tiene toda persona a solicitar el acceso a la información bajo el
control del Estado” y “dicho artículo
ampara el derecho de las personas a recibir dicha información y la obligación
positiva del Estado de suministrarla, de forma tal que la persona pueda tener
acceso a conocer esa información o reciba una respuesta fundamentada cuando por
algún motivo permitido por la Convención el Estado pueda limitar el acceso a la
misma para el caso concreto. Dicha información debe ser entregada sin necesidad
de acreditar un interés directo para su obtención o una afectación personal,
salvo en los casos en que se aplique una legítima restricción. Su entrega a una
persona puede permitir a su vez que ésta circule en la sociedad de manera que
pueda conocerla, acceder a ella y valorarla. De esta forma, el derecho a la
libertad de pensamiento y de expresión contempla la protección del derecho de
acceso a la información bajo el control del Estado, el cual también contiene de
manera clara las dos dimensiones, individual y social, del derecho a la
libertad de pensamiento y de expresión, las cuales deben ser garantizadas por
el Estado de forma simultánea”.
[21] Traducción libre. Clarke, ob. cit., p.
428.
[22] Ver
Adefinitivas (2020): El dilema de la transparencia algorítmica y los
secretos empresariales. A cargo de Michelle Azuaje, en
https://bit.ly/3bcimbu
[23] Para
profundizar sobre este tema ver Belandria García, José (2019): “Expediente
administrativo electrónico, protección de datos de carácter personal y
transparencia administrativa”, en Belandria García, José (coordinador), Transformación digital, modernización e
innovación en la Administración Pública (Caracas:
Centro para la Integración y el Derecho Público y Fundación de Estudios de
Derecho Administrativo), pp. 103 y ss.
[24] Propuestas
realizadas por Association for Computing Machinery ver en Ponce, ob.
cit., p. 265: “1. Conciencia; 2. Acceso y corrección; 3. Responsabilidad; 4.
Explicación; 5. Procedencia de los datos; 6. Auditoría; 7. Validación y testeo”.
[25]
Traducción libre. D’aloia,
Antonio (2019): “Il diritto verso ‘il mondo nuovo’. Le sfide dell’Intelligenza
Artificiale”, Rivista di BioDiritto, Nº 1, pp. 16-17: “Obviamente,
existe un tema muy importante de capacitación ética (y de promover una cultura
de cooperación y transparencia) de los programadores y desarrolladores de
sistemas o agentes IA, para anticipar conflictos y distancias; y, al mismo
tiempo, capacitación tecnológica en las facultades jurídicas y en las oficinas
de apoyo de los órganos institucionales y administrativos”.
[26]
De La Quadra-Salcedo, Tomás
(2018): “Retos, Riesgos y Oportunidades de la Sociedad Digital” en De La
Quadra-Salcedo, Tomás y Piñar Mañas, José (directores), Sociedad Digital y
Derecho (Madrid, Boletín Oficial del Estado, Ministerio de Industria y
comercio y Red.Es), p. 58.
[27]
Valero Torrijos, Julián (2019):
“Las garantías jurídicas de la inteligencia artificial en la actividad
administrativa desde la perspectiva de la buena administración”, Revista Catalana
de Dret Públic, Nº 58, pp. 82-96.
[28] Martínez García, Jesús (2019):
“Inteligencia y derechos humanos en la sociedad digital”, Cuadernos
Electrónicos de Filosofía del Derecho, Nº 40, p. 184.
[29] Sobre
la responsabilidad objetiva en el derecho administrativo, ver Soto Kloss, Eduardo (2010): Derecho Administrativo. Temas fundamentales (Santiago: Editorial Abeledo Perrot y
Thomson Reuters), pp. 909 y ss.
[30] Sobre
igualdad y no discriminación arbitraria ver Navarro, Enrique y Carmona, Carlos
(2015): Recopilación de Jurisprudencia del Tribunal Constitucional
(1981-2015). Nº 59 (Santiago, Cuadernos del Tribunal Constitucional), pp.
97 y 114.
[31]
Véase Sancho López, Marina, “Internet,
Big data y nuevas tecnologías: repercusiones y respuestas del ordenamiento
jurídico”, Cuadernos Electrónicos de Filosofía del Derecho, Nº 39, p.
313: “Si bien los algoritmos se atienen a una lógica científica-matemática,
la forma en que éstos son proyectados al estudio de los procesos sociales
responde indudablemente a unas coordenadas ideológicas concretas y, por tanto,
existe cierto riesgo de que se produzca un proceso reduccionista y
simplificador de etiquetaje respecto de determinados colectivos, a partir de
prácticas discriminatorias de tipo social o económico que pueden determinar una
segregación excluyente de los grupos afectados. La consumación usual de estos
procesos da lugar, según ciertos autores, a la creación de una sociedad de clases
digital”.
[32] De
La Quadra-Salcedo, ob. cit., pp. 56 y 58.
[33] Para
detalles del caso ver documental de Netflix denominado “The Great Hack” (2019).
[34] Martínez
Martínez: Inteligencia artificial desde el diseño…, ob. cit., pp. 66-67.
[35]
Ver Paniagua, Esther (2019): Llevo
20 años investigando la inteligencia artificial: esto es lo que he aprendido y
estos serán sus desafíos futuros, en https://bit.ly/3BOR3zx
[36] Ramió
Matas, Carles (2018): “Inteligencia artificial, robótica y modelos de
Administración pública”, Revista del CLAD Reforma y Democracia, Nº 72, p.
22.
[37]
Ver CNN (2020): “5 conclusiones del interrogatorio
a los poderosos de Amazon, Apple, Facebook y Google”, en https://cnn.it/2ERSO7n
[38]
Ver El País (2020): ”Sundar
Pichai: No albergo dudas de que la inteligencia artificial ha de ser regulada;
la cuestión es cómo” e INFOBAE (2019): “Inteligencia artificial: el debate
sobre regular o no regular un campo en el que chocan el comercio y la ética”,
en https://bit.ly/30Rg7oH y https://bit.ly/2RpwSnC, respectivamente.