Inteligencia artificial: Problemas y reflexiones  para el Derecho Administrativo

Mayerlin Matheus Hidalgo*

REDAV, N° 20, 2020, pp. 11-30

Resumen: El artículo destaca algunas de las características de la inteligencia artificial que deben ser consideradas por los Estados al momento de implementar tal tecnología en el ejercicio de la función administrativa, dados los inconvenientes que las mismas podrían representar para los derechos ciudadanos.

Palabras clave: Inteligencia artificial – Motivación – Transparencia.

Abstract: This paper highlights some of the features of artificial intelligence that must be considered by States when they implement such technology in the administrative function, given the inconveniences that they could represent for citizen rights.

Keywords: Artificial intelligence Motivation Transparency.

Recibido

27-09-2021

Aceptado

04-11-2021

Introducción

No se pretende en este trabajo ahondar en conceptos como inteligencia artificial (en adelante, IA) y cuarta revolución industrial. Nos centraremos más bien en las características de la IA, los problemas que se desprenden de dichas características y reflexionaremos sobre cómo esto podría impactar al derecho administrativo, por la incorporación de estas tecnologías en la Administración Pública.

En tal sentido, haremos referencia solo en esta parte a lo que se entiende por IA esto es, cuando se persigue “emular las facultades intelectuales humanas en máquinas para que estas puedan realizar tareas propias de los seres humanos[1]. En otras palabras, “podemos entender a la IA cuando una computadora o dispositivo con poder computacional o sistema informático imita las funciones cognitivas que los humanos asocian con otras mentes humanas, como por ejemplo aprender, asociar, y resolver problemas[2].

En las últimas décadas, especialmente, en el siglo XXI se ha intentado tenazmente que la IA sea una realidad que arrope nuestras vidas desde lo más complejo hasta lo más rutinario. Si bien el nuevo milenio no llegó con vehículos voladores –y 20 años después aun no los hay[3]– los avances tecnológicos de los últimos tiempos son fascinantes.

Y es quizás sobre la base de esa fascinación, por lo nuevo, por lo increíble que a veces nos resulta que un aparato nos entienda y nos responda, que muchas veces simplemente consumimos la tecnología y la aceptamos sin hacer ningún tipo de reflexión sobre el impacto real que tiene en nuestras vidas, impacto que la más de las veces podrá ser positivo, pero que podría también ser negativo, y sobre lo cual pareciera no se repara con el rigor debido, más allá de los análisis sobre las consecuencias laborales que está teniendo ya el uso, sobre todo en el sector privado, de la IA[4].

Si bien sobre la IA hay diversas advertencias sobre sus riesgos y los desafíos éticos, jurídicos y sociales que presenta, por ejemplo, en el informe anual 2018-2019 del Foro Mundial de Economía se dice “Las tecnologías emergentes como la inteligencia artificial (…) inevitablemente plantea nuevos riesgos y preocupaciones éticas[5], “asimismo las voces de precaución han incluido al cosmólogo Stephen Hawking, al billonario de Microsoft Bill Gates y al empresario en tecnología Elon Musk[6], quizá podamos afirmar que estos riesgos y desafíos son captados por personas más informadas en la materia, mientras que el ciudadano común continúa seducido sin ahondar en análisis.

Es paradójico, pues tal vez este entusiasmo por la IA es inculcado precisamente por las personas más informadas y por las promesas de lo que la IA puede hacer por nosotros y nuestras vidas, en Clarke observamos:

Simon (1960) afirmaba “En un futuro muy próximo –mucho menos de veinticinco años– tendremos la capacidad técnica para sustituir todas y cada una de las funciones humanas en las organizaciones (…)”. Kurzweil (2005) “para finales del 2020 las computadoras tendrán inteligencia indistinguible de los biológicamente humanos”[7].

Afirmaciones como estas abundan entre los científicos y desarrolladores de tecnología, es una constante promesa del futuro digital, robótico y cibernético que no deja de fascinar y crear expectativas en cualquier persona.

Los retos que presenta la IA no son menores, es comprensible el fervor que esta genera para muchas personas y es más comprensible aun que todos los beneficios que esta pueda aportar sean cada vez más asumidos cotidianamente para ayudarnos realmente a ser mejores personas, a simplificar nuestras vidas y al mismo tiempo a convertirnos en seres más productivos.

En tal sentido, sería también comprensible que esta asunción de la IA cuente con la debida prudencia y análisis que aseguren que en realidad se adopta para beneficiarnos y no para generar problemas a futuro que desde el punto de vista del derecho causen indefensión, inseguridad jurídica, falta de transparencia o control o directamente daños a las personas.

Desde luego son y serán muy diferentes los problemas que el uso de la IA generará en cada sociedad, según el tipo de instituciones y regímenes políticos que funcionen en cada una. Una sociedad democrática, respetuosa del Estado de Derecho y del libre intercambio, enfrentará problemas muy diferentes a los que existen y se observarán en una sociedad autoritaria, regida por la concentración del poder y la planificación central[8].

En este estudio nos proponemos revisar algunos problemas derivados directamente de las propias características de la IA y que podrían generar consecuencias dañosas para las personas si la IA se incorpora  sin el debido cuidado– en la relación jurídica entre la Administración y los ciudadanos. Además, aportaremos algunas reflexiones que deberían tomarse en cuenta desde el derecho administrativo, para que se acoja sin excesivo entusiasmo y sin excesivo temor lo que esta cuarta revolución industrial plantea.

La IA supone grandes desafíos, entre ellos se encuentra el problema de la adaptación del derecho a estas tecnologías que impactan de manera tan honda en nuestras vidas, considerando que lo usual es que el derecho se quede obsoleto o simplemente desligado de la realidad de la aplicación de la IA o cualquier otro instrumento tecnológico.

En especial, nos interesa estudiar cómo podríamos asegurar que la automatización, digitalización y delegación de la actividad administrativa[9] a sistemas de IA, y la consecuente sujeción de la IA al derecho administrativo, sea respetuosa de los derechos y garantías individuales de las personas y que minimice los riesgos de discriminación, inseguridad jurídica, indefensión, etc. y que al mismo tiempo garantice que la Administración contribuya a la satisfacción del bien común.

Los problemas que surgen para el derecho administrativo por la aplicación de la IA están vinculados con algunas de sus características, que pasamos a examinar de inmediato.

i.     Características de la IA

1.     La opacidad de los algoritmos

En revistas o libros dedicados al tema se puede leer con frecuencia que los algoritmos, sobre los cuales funciona la IA, son una black box o caja negra de los que no se sabe qué hay dentro. La opacidad, por diferentes razones, dificulta que pueda saberse a ciencia cierta cómo funcionan los algoritmos, por qué usan los datos que usan para tomar decisiones y en definitiva por qué toman unas decisiones y no otras.

Según Agustí Cerrillo:

Desde el punto de vista legal, la opacidad de los algoritmos puede deberse a la existencia de cláusulas contractuales o regulaciones que limitan el acceso a la información para proteger otros bienes o derechos, como los secretos comerciales, la propiedad intelectual e industrial, la protección de datos personales y la seguridad pública. También puede ser para proteger la confidencialidad o el secreto del proceso de toma de decisiones para evitar revelar las decisiones que aún se están tomando[10].

Cuando llevamos esto al plano de la implementación de IA por la Administración debemos tener en cuenta además que:

…los algoritmos utilizados no suelen ser programados por el personal del sector público sino por otros que quieren protegerlos, por ejemplo, para evitar la pérdida de una ventaja competitiva o para obtener un retorno de la inversión. Por eso es común que los propios contratistas declaren confidenciales sus códigos de algoritmos[11].

2.    Los sesgos en el tratamiento y procesamiento de datos

En su séptima acepción, la Real Academia Española define sesgo como “error sistemático en el que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras”.

La IA no está exenta de incurrir en errores, a pesar de que se ha querido vender como tecnología libre de parcialidades y subjetividades, por su precisión matemática. La realidad es que la IA requiere una programación previa antes de poder funcionar, y para hacerlo se basa en algoritmos que utilizan miles de datos (big data) para tomar las decisiones que toman, y todos esos datos no son necesariamente de calidad.

No todas las bases de datos recopilan información (datos) siguiendo estándares de calidad, lo que puede acarrear que muchos de los datos usados por una IA al decidir estén de algún modo “contaminados” por falta de veracidad, falta de precisión, falta de consistencia, etc. Esto los haría poco confiables e indefectiblemente conllevaría a una toma de decisión errada.

Una IA puede venir con sesgos desde su programación porque el programador haya querido que las decisiones se muevan en un sentido y no en otro[12], o pueden estos sesgos generarse a partir de los datos que utiliza la IA para tomar una decisión.

Por ello se advierte que la IA puede operar con sesgos provenientes de:

…en unas ocasiones la calidad de los datos que se toman como marco de análisis, en otras las preconcepciones del programador. En algunos casos, son las propias elecciones de sus usuarios las que incorporan el sesgo al insertar datos cuando el sistema debe retroalimentarse con nueva información. Más preocupante resulta este anormal funcionamiento cuando es intencional, cuando el resultado perverso es exactamente el que se espera obtener[13].

Recordemos, además, que la IA, tiene como característica la autonomía, que, aunque no es absoluta, le habilita para ejercitar un aprendizaje automático o machine learning, que puede además ser profundo (deep learning) lo que expresa que el procesamiento de datos será más complejo y podrá obtener más y mejor información a través de redes neuronales artificiales. Así pues, la IA no solo toma los datos y trabaja en función de su programación, sino que mientras analiza esos datos puede generar patrones de decisiones autónomas que podrían estar sesgadas por el contenido de esos datos y generar, por ejemplo, decisiones discriminatorias.

El problema del sesgo en el procesamiento de datos no es menor, pues en palabras de Vida Fernández:

…una de las cuestiones más controvertidas que se imputan a la IA es el problema de los sesgos que están afectando a los modelos predictivos que se aplican y las dificultades para detectarlos y corregirlos. Son numerosos los estudios que denuncian la existencia de sesgos en la IA que pueden incrementar la desigualdad a través de una discriminación encubierta y afectar al principio de igualdad efectiva que debe imperar en una democracia[14].

Sea por una razón u otra, hasta el momento la IA no es infalible, puede cometer errores y de hecho los comete según se ha denunciado en diversos casos. Por ejemplo, en Estados Unidos se denunció que un determinado programa de IA favorecía la libertad condicional de las personas blancas en perjuicio de individuos de otras etnias[15].

Recientemente en Reino Unido, a causa de la pandemia generada por la COVID-19 (SARS-CoV-2) que vivimos actualmente, el Gobierno decidió utilizar un algoritmo predictivo para básicamente determinar quiénes, de haber presentado la prueba de admisión a universidades, habrían obtenido un cupo universitario, el algoritmo se aplicó sobre las notas de los recién graduados de bachillerato, el resultado fue nefasto, cerca de 300.000 aspirantes han denunciado que el algoritmo bajó sus notas y quienes se han visto más afectados son los aspirantes universitarios de menos recursos[16].

3.    La velocidad en el desarrollo de nuevas tecnologías incluida la IA

No hace falta un estudio profundo para saber que la tecnología avanza a pasos agigantados, lo vivimos cada día. Cada vez son más y más rápidas las formas en que la tecnología interviene en nuestras vidas y es quizás gracias a esa velocidad que la humanidad se ha permitido grandes cambios en nuestra forma de existir.

Sin duda, tal realidad nos ha permitido mejorar nuestra calidad de vida, pero es también esa condición vertiginosa la que acarrea ciertos problemas para el derecho y que no son ajenos para el derecho administrativo.

Como apunta Vega:

…el aumento de la IA hasta ahora ha ocurrido en un vacío general regulatorio. Con la excepción de la legislación de algunos Estados en los EUA con respecto a vehículos autónomos y drones, existen muy pocas leyes o regulaciones que aborden específicamente los desafíos únicos planteados por IA, y prácticamente no hay tribunales que hayan desarrollado estándares que aborden específicamente quién debe ser considerado legalmente responsable si una IA causa daño[17].

Como se observa, el rápido avance de las tecnologías pone en jaque al derecho por su incapacidad de adaptarse a tiempo a sus infinitos y rápidos cambios.

Por su parte Martín expone:

…este proceso no es aséptico. Ni las tecnologías ni las decisiones políticas de aprovechamiento de las mismas son neutras; además, su implantación en la Administración puede tener consecuencias negativas si el Derecho no asegura el mantenimiento de las garantías jurídicas necesarias para la protección de los derechos de los ciudadanos. Éste es el principal reto que se plantea en relación con el proceso de digitalización de la Administración: lograr una mayor eficacia en el ejercicio de la función de administrar sin restringir el ámbito de protección de los ciudadanos frente al poder público[18].

ii.    Problemas que se derivan de la incorporación de la IA en la Administración Pública y reflexiones en torno a dichos problemas para el derecho administrativo

1.     En cuanto a la opacidad de los algoritmos

La primera característica examinada, la opacidad de los algoritmos, genera problemas específicos para el derecho administrativo, a saber:

A.   La falta de transparencia[19] y acceso a la información[20]

Por diferentes razones los algoritmos con los cuales funciona una IA, sufren de opacidad, ni siquiera los propios desarrolladores pueden hoy en día descifrar con exactitud cómo es que un algoritmo termina tomando una decisión. Esto, evidentemente, supondría un problema para la Administración si decidiera incorporar IA en algunos de sus procesos de tomas de decisiones, pues más allá de la voluntad en cumplir con la transparencia y acceso a la información, la Administración Pública se vería imposibilitada materialmente por carecer de los medios para explicar y dar a conocer las razones de una decisión. Esto a su vez se convertiría en un incentivo perverso para los funcionarios pues, en palabras de Clarkecuando las entidades están seguras sabiendo que no se les puede culpar, el comportamiento irresponsable es inevitable. Están amenazados los principios establecidos de evaluación, equidad, proporcionalidad, toma de decisiones basas en la evidencia y la capacidad de impugnar las decisiones[21].

Además de esto, muchos algoritmos están protegidos por patentes de propiedad intelectual e industrial, como apunta Azuajede acuerdo con la Organización Mundial de la Propiedad Intelectual (OMPI), para el año 2019 se contabilizaron más de 340.000 solicitudes de patente relacionadas con la IA[22], esta protección sin duda genera una tensión entre el derecho de propiedad derivado del secreto empresarial y el derecho a la transparencia y acceso a la información de los particulares ante la Administración.

Otro problema asociado al desafío de asegurar la transparencia en las actuaciones en que opere una IA, tiene que ver con los conflictos que se presentarán entre el derecho de acceso a la información que consten en registros públicos y el derecho a la protección de datos personales que consten en esos registros, pues en la medida que la Administración enfatice la tutela del segundo ante el primero de los mencionados derechos, también podrían surgir problemas de transparencia, que deberán ser debidamente atendidos a través de fórmulas que impidan o reduzcan al máximo la opacidad[23].

Teniendo en cuenta lo dicho, cabe preguntarse ¿De qué manera puede la Administración expresar en un lenguaje compresible para todos cómo funciona la IA y los procesos llevados a cabo a través de esta?, es más, ¿existe realmente algo como un lenguaje “comprensible para todos” cuando se trata de IA? Pareciera muy cuesta arriba para la administración poder cumplir con la transparencia y derecho a la información respecto de los particulares. Entonces, también cabe preguntarse ¿la solución sería no incorporar IA en la Administración?

Evidentemente la respuesta es no, primero porque es ingenuo pensar que la era digital no abarcará al sector público como ya ha abarcado al sector privado, y segundo porque sería contrario al propio beneficio de las personas, pues la incorporación de la IA puede suponer grandes avances en eficiencia y eficacia de la Administración, siempre que se acoja con el debido cuidado. Se debe entonces apuntar a un objetivo primordial, esto es, que la Administración incorpore IA que cumpla los máximos estándares de calidad y éticos, tanto en el procesamiento y uso de la información para decidir como la atención al ciudadano al momento de hacer de su conocimiento lo decidido, ya disponibles, por ejemplo, en propuestas de organizaciones especializadas en materia de IA[24]. Tal medida contribuirá a reducir el impacto de la opacidad de los algoritmos y a generar mayor confianza en las personas respecto del impacto de la IA en sus relaciones con la autoridad administrativa[25].

B.   La dificultad en el control de los actos dictados por IA

Como sabemos, toda la actividad de la Administración está sujeta a control; sin embargo, cuando se trate de actividad derivada de IA este control no necesariamente puede ejercerse aun y cuando el acto en sí mismo, por regla general, pueda ser impugnable. Ello así, porque los elementos que se necesitarían para ejercer un control adecuado no estarían al alcance de los jueces o de quien corresponda en un momento dado el control del acto.

No solo correspondería al afectado por el acto poder conocer la lógica con que se ha tomado una decisión (lo que Tomás de La Quadra llama el derecho a “explicación”[26]), sino que corresponde también a quien toma la decisión poder conocer cómo la IA ha tomado tal decisión en nombre de la Administración y en definitiva el nombre del funcionario a cargo de tomarla (ya que hasta el momento no hay un reemplazo definitivo de los funcionarios que emiten decisiones por IA).

En tal sentido, expone Valero Torrijos que:

…ahora bien, dicha persona [el funcionario público] debería ser capaz de asumir –y, por tanto, de comprender– el alcance y las razones del resultado que arrojen los algoritmos, ya que, de lo contrario, no podría hacerse responsable de la decisión que se adopte y, en particular, difícilmente se podrían cumplir las exigencias legales de motivación[27].

Si no se tiene acceso a la información de cómo funciona una IA y bajo qué parámetros ha dictado tal o cual decisión ¿será posible impugnar un acto dictado por IA?, ¿qué es lo que se debería impugnar?, ¿basta con mantener los métodos tradicionales de impugnación del acto?, ¿estarán los jueces preparados para conocer controversias en que esté presente la acción de una IA?

Son preguntas a partir de las cuales se deben formular oportunas y útiles respuestas, ya que la tendencia será a que entre la Administración y el ciudadano cada vez más medie una máquina y no una persona humana. Ante ello, la posibilidad de cuestionar la validez de un acto debe ratificarse como parte del derecho a la defensa y a la tutela judicial de toda persona frente Administración el cual mal puede resultar debilitado o menoscabado por la incorporación de nuevas tecnologías, que entonces vendrían a reforzar las prerrogativas de que ya disfruta la autoridad administrativa.

C.   La falta de motivación del acto

Un elemento esencial de todo acto administrativo es la motivación, de allí que la Administración pueda exteriorizar las razones de sus decisiones y de allí que el particular pueda impugnar dichas razones cuando las mismas no se ajustan a los hechos o al derecho. Sin embargo, si nos encontramos frente a una IA que esencialmente toma decisiones a través de algoritmos que son en sí mismo opacos (no transparentes) entonces estamos frente a un problema que va a la concepción del acto mismo, pues “la máquina no puede argumentar. No argumenta, o lo hace sólo aparentemente, en el output, en forma de motivación que no es razonamiento sino una secreción del programa que sirve de acompañamiento, de cobertura, para respaldar una operación, para ‘justificarla’[28].

Siendo cada vez más común la existencia de procedimientos o etapas de procedimientos administrativos automatizados, cabe prever que en un futuro cercano dichos trámites estarán delegados a sistemas de IA con autonomía. Si bien hoy en día no hay procedimientos administrativos cuyas decisiones estén totalmente delegadas a una máquina, el futuro promete una mayor despersonalización en la atención a los ciudadanos. Lo vemos cada vez más en el sector privado y es solo cuestión de tiempo para que tal experiencia llegue al sector público.

Se trata de una oportunidad de oro para abandonar malas prácticas dentro de la Administración, como por ejemplo el uso de formatos preestablecidos para tomar decisiones en casos que pueden ser similares, pero en los que muchas veces se omiten cuestiones relevantes que terminan por perjudicar a los particulares, o directamente la muy cuestionable técnica del “copiar y pegar” al producir actos administrativos.

La apuesta es derrotar lo advertido por Martínez García en la cita previa de su análisis. Si bien la máquina no razona, sí puede entregar mejor y más información a los particulares al hacer de su conocimiento las decisiones tomadas en los asuntos de su interés. A fin de cuentas, una máquina no tiene las limitantes de horario, capacidad mental y falta de adecuados incentivos que una persona natural tiene. Por tanto, uno de los objetivos debe ser que la IA que se incorpore en la Administración lejos de convertirse en un elemento adicional de perjuicio al ciudadano, sea desde el principio un instrumento idóneo para estudiar de forma más rápida y mejor cualquier caso que se le plantee, superando la capacidad de los funcionarios de hoy y generando en lo posible decisiones mejor motivadas y más justas para todos.

D.   La imprecisión en el establecimiento de la responsabilidad por los daños

Sabemos que la Administración debe responder por los daños que causa. Sin embargo, cuando la Administración causa daños por una decisión tomada a través de IA, podrían considerarse elementos externos (de programación, desarrollo o comercialización de la IA) que podrían generar serias trabas para los particulares en el establecimiento de la responsabilidad de la Administración.

En efecto, si se tiene en cuenta que la Administración, en general, usa tecnologías como la IA que no produce ella misma sino que adquiere de terceros, cabe anticipar que cuando una IA usada en un organismo administrativo genere daños por un problema de diseño o por un mal funcionamiento no vinculado con su uso indebido, de aceptarse evaluar la responsabilidad patrimonial de la Administración desde una perspectiva civilista o de la culpa, existiría el riesgo de que aquélla alegue no tener legitimación pasiva para ser demandada al carecer de culpa en el mal diseño o mal funcionamiento de la IA, correspondiendo en tal caso al afectado la carga de identificar al proveedor de la tecnología para accionar en su contra, en un nuevo juicio que, además, estaría sujeto a las complejas y costosas reglas del proceso civil ordinario.

Lo razonable en tal caso es adoptar una perspectiva publicista y objetiva de la responsabilidad patrimonial de la Administración[29], para la cual lo relevante es la verificación del daño y la existencia de causalidad entre éste y la conducta imputable a la autoridad administrativa, de modo que ante el particular afectado en su persona o patrimonio sea la Administración la que responda cuando la IA que ella utiliza cause daños, sin perjuicio de que luego de ser condenada pueda y deba incluso la Administración repetir contra el proveedor de la tecnología defectuosa, para que sea éste el que en última instancia asuma el costo de la reparación, y que incluso, dependiendo la gravedad del caso, se apliquen sanciones administrativas previo derecho a la defensa, que le impidan a ese proveedor contratar de nuevo con la Administración durante un tiempo determinado al menos.

2.    En cuanto a los sesgos en el tratamiento y procesamiento de datos

La segunda característica examinada, los sesgos en el tratamiento y procesamiento de datos, pueden generar varios problemas, sin embargo, nos limitaremos a mencionar un problema de gran envergadura como sería: la discriminación arbitraria y violación del principio de igualdad ante la ley:

Si, por ejemplo, en el marco de un concurso público o la aplicación de una sanción, un programa que analiza diversos tipos de personas tiene en cuenta sus características particulares y, en función de ellas toma unas decisiones y no otras, esas decisiones podrían en muchas ocasiones estar basadas en discriminaciones arbitrarias.

Según el artículo 1 de la Declaración Universal de Derechos Humanos de 1948 “Todos los seres humanos nacen libres e iguales en dignidad y derechos…”. En tal sentido, toda autoridad incluida la Administración, debe respetar el derecho a un trato igual para todas las personas en resguardo de las diferencias particulares de cada caso[30].

Dar un trato distinto a personas que se encuentran en una misma situación sería un claro caso de discriminación arbitraria[31]. Como hemos expuesto arriba, tanto los sesgos en el procesamiento de datos como la opacidad de los algoritmos, pueden llevar a que una IA emita decisiones discriminatorias tal como se denunció en Estados Unidos y Reino Unido en los casos mencionados.

Por lo dicho, merece especial atención algo que es muy común actualmente en el ámbito de la gestión privada, como lo es la elaboración de perfiles:

La problemática de los perfiles debe ser examinada también con el prisma del derecho fundamental a la igualdad. Hasta ahora el derecho a la igualdad se concretaba en no sufrir discriminación por razón de nacimiento, raza, sexo, religión, opinión o cualquier otra condición o circunstancia personal o social (…) lo cierto es que el perfil (…) crea una nueva categoría o condición que hasta ahora no está claro si era personal o social, pero que desempeña los mismos efectos o consecuencias, estigmatizando a la persona que encaja en el perfil (…) son numerosos los expertos que han denunciado los sesgos y errores de todo tipo en que incurren muchos de esos algoritmos. Ello suscita la demanda creciente de regular un derecho a explicación que obligue a desvelar la lógica del algoritmo, tanto el modelo del que se partía como de otros aspectos del procedimiento de suministro de datos a la computadora[32].

La elaboración de perfiles, de acuerdo a los datos que una persona aporta, desde su nombre, lugar de nacimiento, edad, hasta sus preferencias más íntimas, desde hace varios años está generando una nueva manera de comprender el mundo y de canalizar el marketing y más especialmente en influenciar la toma de decisiones de las personas, tal como se evidenció en el conocido caso Cambrige Analytica[33] en el cual se reveló cómo el tratamiento de datos y elaboración de perfiles influyó para que Donald Trump se posicionara y finalmente ganara las elecciones presidenciales en Estados Unidos.

Con todo lo dicho, no puede negarse que el sesgo en el tratamiento y procesamiento de datos puede generar discriminación arbitraria y vulneración del principio de igualdad ante la ley. Estos son problemas que no podrían admitirse con la puesta en marcha de la IA en la Administración, imaginemos que en un futuro no muy lejano la selección de personal, selección de contratistas, prestación de servicios públicos, entre otros, estén delegados a la IA y esta actúe de manera sesgada, tomando decisiones arbitrarias que vulneren derechos individuales y generen responsabilidad en la Administración.

A modo de reflexión, lo primero que podemos apuntar es que el tratamiento de datos desde el sector público podría ser mucho más peligroso que en el caso del sector privado, pues la Administración además de contar con todas las herramientas tecnológicas aplicadas en estos casos, puede ejercer coacción legítima sobre los particulares, cosa que no le está dada a los privados.

En tal sentido, el objetivo respecto de este punto es que la Administración lleve a cabo los más rigurosos procedimientos de selección de prestadores de servicios de IA u oferentes de productos de IA. La adquisición de estas tecnologías debería pasar por procedimientos licitatorios que en definitiva permitan determinar que se elige al mejor prestador u oferente y que los riesgos de causar daños son mínimos. Ya hemos visto cómo los gobiernos de Estados Unidos y Reino Unido se han visto afectados por elecciones erróneas al adquirir IA que se ha desarrollado con sesgos causando daños a las personas, en estos casos como también se indicó arriba la responsabilidad de la Administración debe ser objetiva.

Sin embargo, como ciudadanos no nos interesa una Administración Pública que constantemente pueda causar daños y a la cual haya que demandar con frecuencia para que repare. Más bien nos interesa que la Administración funcione de manera óptima y cause los menores daños posibles, para lo cual es indispensable al incorporar IA que se elija a los mejores proveedores e incluso se exija verificación de procesos bajo estándares éticos y de transparencia, como ocurre en la Unión Europea donde criterios en ese sentido se están adoptando con creciente celeridad.

3.    En cuanto a la velocidad en el desarrollo de nuevas tecnologías

La tercera característica examinada, la velocidad en el desarrollo de nuevas tecnologías incluida la IA, plantea los siguientes problemas:

A.   La inseguridad jurídica

En un mundo cambiante como es el de la tecnología el derecho encuentra un caos para sí ¿cómo poder regular algo que está en constante cambio? El derecho es sinónimo de certeza, estabilidad, lo que nos produce seguridad jurídica como ciudadanos es saber que ante una conducta “A” tendremos un resultado “B”. El derecho trata de ser preciso, de abarcar cuanto puede. Y, sin embargo, a veces la ley presenta lagunas o vacíos, que el mismo derecho a través de técnicas como la analogía, la interpretación, el precedente, entre otros, trata de corregir.

Todo esto parece insuficiente cuando se habla de nuevas tecnologías. Como hemos dicho antes, no solo es que la ley puede quedar obsoleta, es que a veces no se acerca a la realidad de estas tecnologías, es insuficiente y sobre todo débil para controlar lo que éstas vienen a proponer.

Si hay algo que nos ha hecho evolucionar como especie, es el derecho y la concreción de este en leyes justas. Que nuestras conductas puedan ser reguladas por normas ciertas y universales –de igual aplicación para todos– y que nuestros conflictos se diriman de acuerdo con preceptos previamente establecidos ha pacificado nuestras vidas en los últimos siglos.

Pero ahora nos encontramos ante un mundo digital, online, escasamente regulado y cuyos intríngulis son altamente desconocidos por el común de las personas. Códigos binarios, algoritmos, big data, machine learning, deep learning, inteligencia artificial, son términos que se leen y se oyen cada vez más ¿pero conocemos su alcance, significado y lógica de funcionamiento?

Estos modelos disruptivos[34] requieren habilidades desconocidas, no podemos pretender que el derecho y el proceso de formación de la ley positiva puedan regular con éxito algo que nos desborda en el tiempo. Se deben asumir nuevas formas de regulación que vayan a la par de los cambios radicales que las nuevas tecnologías y en especial la IA en sí mismas representan. Mientras no encontremos esas nuevas formas de controlar la IA, estaremos como sociedad –y como humanidad– asumiendo altos riesgos de ser dañados sin consecuencias, viviendo en la incerteza, en la inseguridad jurídica.

Hoy en día en Estados Unidos y sobre todo en la Unión Europea, se está trabajando fuertemente con principios éticos y soft law para poder de alguna manera hacer frente a los cambios bruscos que supone la IA y que no pueden ser atacados inmediatamente con una ley, que por muy avanzada que sea en regulación de IA no puede pretender prever lo infinitamente cambiante de las tecnologías.

B.   Las asimetrías y brechas

El problema de las asimetrías y brechas está directamente conectado con nuestra condición social, nuestro nivel de educación, nuestra edad e incluso con el mucho o poco interés que las nuevas tecnologías nos genera. Las asimetrías definirán a las personas que entiendan y se adapten mejor a las nuevas tecnologías y aquellas que no lo hagan –por las diferentes razones que sean–, esto creará necesariamente una brecha entre unas y otras. Como apunta una de las más connotadas ingenieras de España, Nuria Oliver:

Todos y todas, como ciudadanos y ciudadanas del mundo, deberíamos tener el derecho de decidir hacia dónde queremos ir como especie y cómo queremos usar los avances tecnológicos que estamos desarrollando. El primer paso para eso es conocer de qué estamos hablando y, desgraciadamente, la brecha entre el estado de desarrollo tecnológico y el conocimiento del ciudadano medio es inmensa[35].

Si trasladamos este problema a la Administración pública, podemos encontrar que uno de los ámbitos en que las asimetrías y brechas señaladas podrían impactar de forma muy negativa, sería en la organización interna de la Administración con impacto directo en la situación subjetiva de las personas, pensemos por ejemplo, en el nivel de actualización y capacitación en uso de IA que pueda observarse en el nivel nacional de gobierno, frente al que se pueda apreciar a nivel estadal y a nivel municipal. Sería un reto lograr un equilibrio y que ninguno de los niveles territoriales se imponga en el beneficio o uso de IA.

Dado que la forma federal y sobre todo descentralizada de muchos Estados exige que un importante número de asuntos y servicios administrativos sean prestados a los particulares por autoridades estadales, regionales y locales, no se puede permitir que entre la Administración nacional, estadal y local surjan excesivas brechas y asimetrías desde el punto de vista, por ejemplo, del uso de IA, ya que ello se traducirá en una desigual atención y servicio a los ciudadanos, manteniendo así una atención de mala calidad en los niveles estadal y local, que son los más usados en muchas áreas por los ciudadanos.

En definitiva, la IA debe alinearse con la descentralización y potenciarla, y en ningún caso debilitarla o convertirse en un obstáculo para profundizarla en favor de las personas.

C.   La dificultad en la oportuna actualización

La Administración Pública al empezar a utilizar IA dentro de sus procesos habituales, necesariamente tendrá que estar preparada a nivel organizacional y presupuestario para actualizar esos sistemas de IA, pero también para capacitar y conservar al personal que se ocupe de estos, así como para informar y en lo posible asistir a la ciudadanía que interactúa con servicios prestados a través de IA, en cuanto a los cambios operados en la forma de ejercer su derecho de petición, supervisar la tramitación de su procedimiento y obtener respuesta expresa y fundada a su solicitud.

En este punto vale citar a Ramió:

El modelo general propuesto de cara al futuro es una Administración pública refinada institucionalmente e inteligente. Este modelo abarcaría dos ingredientes: por una parte, mayor calidad institucional (sistemas meritocráticos fluidos para el acceso y la carrera, dirección pública profesional, transparencia, rendición de cuentas y evaluación de políticas y servicios públicos y, finalmente, un renovado sistema de gestión de recursos humanos) (…) El segundo ingrediente de este modelo de futuro es la inteligencia institucional para poder dirigir públicamente los sistemas complejos de gobernanza. Este ítem hace referencia a una Administración pública que posea buenos sistemas de información[36].

El objetivo en este punto es claro, se debe procurar una Administración capaz de asumir con la mayor calidad institucional los retos que supone la incorporación de IA, esto pasa por asegurar que dichos sistemas no se queden obsoletos, que la gente pueda entenderlos, que los funcionarios estén capacitados para esta interacción tecnológica y que los riesgos sean mínimos. Sería inadmisible una Administración que se vea impedida de lograr sus cometidos, porque los sistemas de IA no estén debidamente actualizados, el personal no esté suficientemente capacitado o los usuarios resulten discriminados o excluidos por desconocer las reglas del servicio digital.

D.   La inadecuada fiscalización y el déficit de interoperabilidad

Por último, y dejando ahora de lado otros problemas adicionales vinculados con la IA y su utilización en el derecho administrativo, es importante considerar los retos que supone regular adecuadamente las innovaciones, para no inhibir su desarrollo y los beneficios que pueden brindar a las personas, y lograr la interoperabilidad entre organismos de la propia Administración, que no es otra cosa que cumplir, en el ámbito digital, con los principios de coordinación y cooperación de la organización administrativa, indispensables para el buen ejercicio de la función administrativa y efectiva prestación de servicios a los particulares.

Con relación a la adecuada fiscalización es importante que desde el derecho administrativo y el derecho regulatorio se discuta qué principios y parámetros deberán seguir los órganos administrativos competentes para fiscalizar la producción y uso por privados de innovaciones tecnológicas, incluida la IA, para actuar con la capacidad de proteger a terceros de usos indebidos o efectos indeseados derivados de esas innovaciones, sin que ello implique obstaculizar por razones más bien burocráticas o políticas la producción de nuevas tecnologías que den soluciones a las personas ante diferentes problemáticas.

Ante las recientes investigaciones hechas por las autoridades de los EEUU a ciertas innovaciones y prácticas comerciales de gigantes tecnológicos como Google, Amazon, Apple y Facebook[37], a fin de establecer si las mismas estaban o no generando afectación de derechos fundamentales o vulnerando normas relevantes para actividades electorales, entre otras materias, se impone que desde el derecho administrativo se plantee si, por ejemplo, será necesario contar con autorización administrativa previa para comercializar ciertas invenciones que puedan incidir peligrosamente en derechos fundamentales de las personas, como ya ocurre en materia de medicamentos, si deberán adoptarse criterios como el principio precautorio del derecho ambiental, para en forma preventiva, aun no teniendo toda la evidencia científica relevante, la autoridad fiscalizadora pueda suspender el uso de una innovación específica en resguardo de derechos de los usuarios, o si por el contrario han de ser otro tipo de criterios los que habrá de seguir la autoridad[38].

Con relación a la interoperabilidad, cabe destacar que en áreas como la seguridad ciudadana y la inteligencia para enfrentar formas sofisticadas de delincuencia organizada tanto internas como internacionales, es prioritario que además de existir simetría y las mínimas brechas de capacitación y uso de la IA entre las diferentes unidades de la Administración dedicadas a esas temáticas, existan mecanismos institucionales idóneos, esto es, seguros, oportunos y ajustados a derecho, de comunicación, intercambio de información y coordinación de decisiones complejas, que permitan no solo que la Administración falle en su obligación de proteger el interés público por descoordinación y fallas en la planificación interna, previa a la actuación, sino que más bien permita, por la rapidez, certeza y precisión en las acciones a ejecutar, que ella logre con solvencia servir o tutelar oportunamente el interés público en juego.

Por tanto, es mucho lo que el derecho de la organización administrativa necesita evaluar, adaptar y evolucionar para fortalecer indispensables técnicas y principios básicos en esa área, como la coordinación, la cooperación, la desconcentración, la descentralización administrativa y la lealtad institucional, entre otros.

Conclusiones

La IA llegó para quedarse y extenderse a un creciente número de procesos productivos y de prestación de servicios, tanto en el sector privado como en el sector público, aunque su incorporación a este último se esté desarrollando con menor rapidez que en el primero.

La adopción de IA en los procesos organizativos y la actividad de la Administración es una oportunidad para que diferentes situaciones que afectan su buen desempeño y funcionamiento sean definitivamente superadas en beneficio de los particulares al interior de las relaciones jurídicas que mantienen con las autoridades de gobierno.

Para que lo anterior sea posible es indispensable identificar, comprender y analizar los desafíos y problemas que la incorporación de la IA está generando y seguirá produciendo por un tiempo en las organizaciones administrativas estatales, ante lo cual es al derecho administrativo, primariamente, la disciplina jurídica a la que toca examinar estas situaciones y generar oportunas y efectivas soluciones.

A partir de principios, figuras e instituciones propias del derecho administrativo es posible generar respuestas efectivas a los desafíos y problemas que la IA genera en su incorporación a la organización y la actividad administrativa, examinados algunos de ellos en este ensayo, pero siempre y cuando se adapten exitosamente al cambio que supone migrar de una realidad presencial a una realidad digital.

Dificultades y peligros como la opacidad de los algoritmos, las asimetrías en el uso de la IA, las dificultades para el control de las decisiones administrativas de la IA, la insuficiente motivación, la responsabilidad por daños generados por la IA al actuar desde la Administración y el logro de una adecuada fiscalización sobre la producción de nuevas tecnologías como la IA, entre otros, solo pueden ser superadas con apoyo en el derecho administrativo.

Pero no de cualquier derecho administrativo, sino de uno capaz de superar sus propios dogmas, de dialogar con el conocimiento tecnológico y de garantizar estándares técnicos y éticos apropiados para asegurar que la modernización que genere la adopción de la IA efectivamente genere beneficios a las personas, y en modo alguno nuevos y peores perjuicios.



*           Abogada y Especialista en Derecho Administrativo por la Universidad Católica Andrés Bello, Venezuela. mayerlin.matheus@uautonoma.cl

[1]           Cerrillo Martínez, Agustí (2019):El impacto de la inteligencia artificial en el derecho administrativo ¿nuevos conceptos para nuevas realidades técnicas?, Revista General de Derecho Administrativo, N° 50, p. 3.

[2]           Vega Iracelay, Jorge (2018): “Inteligencia Artificial y derecho: principios y propuestas para una gobernanza eficaz”, Revista Iberoamericana de Derecho Informático, Nº 5, p. 16.

[3]           Cabe señalar que el pasado 29-08-2020 el primer carro volador alzó vuelo de manera exitosa en Japón. Ver https://bit.ly/2EKwzjJ

[4]           Con relación al impacto de la IA en el ejercicio de la profesión de abogado, véase Oppenheimer, Andrés (2019): ¡Sálvese Quien Pueda! (Santiago, Debate), pp. 149 y ss.

[5]           Traducción libre. WorldEconomicForum (2019): Annual Report 20182019. En https://bit.ly/36D5wPe, p. 52.

[6]           Traducción libre. Clarke, Roger (2019): “Why the world wants controls over Artificial Intelligence”, Computer Law & Security Review, Nº 35, p. 423.

[7]           Ibid., p. 424.

[8]           Peirano, Marta (2019): El enemigo conoce el sistema. Manipulación de ideas, personas e influencias después de la Economía de la Atención (Santiago, Debate). La autora analiza lo que causa y puede causar el uso de tecnologías como la IA en el sector público, cuando ello ocurre en contextos autoritarios como el de Rusia y China.

[9]           Véase Ponce Solé, Juli (2019): “Inteligencia artificial, derecho administrativo y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnológico”, Revista General de Derecho Administrativo, Nº 50, pp. 263-264: “La IA llevada al campo de las Administraciones Públicas, como decíamos, puede ayudar al procesamiento rápido de ingentes cantidades de datos y a la toma de decisiones (…) En tal sentido la actividad administrativa automatizada es definida por el anexo de la Ley 11/2007, de 22 de junio, de acceso electrónico de los ciudadanos a los servicios públicos, como toda actuación administrativa producida por un sistema de información adecuadamente programada sin necesidad de intervención de una persona física en cada caso singular. Incluye la producción de actos de trámite o resolutorios de procedimientos, así como de meros actos de comunicación”.

[10]          Traducción libre. Cerrillo Martínez, Agustí (2019): “How can we open the black box of public administration?Transparency and accountability in the use of algorithms, Revista Catalana de Dret Públic, N° 58, p. 17.

[11]          Ibid.

[12]          Ya se apuntaba así en la década de los 70. Ver Fernández, Tomás Ramón (1971): “Jurisprudencia y computadores”, Revista de Derecho Administrativo, Nº 64, p. 331.

[13]          Martínez Martínez, Ricard (2018): “Inteligencia artificial, derecho y derechos fundamentales” en De La Quadra-Salcedo, Tomás y Piñar Mañas, José (directores), Sociedad Digital y Derecho (Madrid, Boletín Oficial del Estado, Ministerio de Industria y comercio y Red.Es), p. 269.

[14]          Vida Fernández, José (2018): “Los retos de la regulación de la inteligencia artificial: Algunas aportaciones desde la perspectiva europea” en De La Quadra-Salcedo, Tomás y Piñar Mañas, José (directores), Sociedad Digital y Derecho (Madrid, Boletín Oficial del Estado, Ministerio de Industria y Comercio y Red.Es), p. 219.

[15]          Ver este y otros casos en Martínez Martínez, Ricard (2019): “Inteligencia artificial desde el diseño. Retos y estrategias para el cumplimiento normativo”, Revista Catalana de Dret Públic, Nº 58, p. 69.

[16]          Ver Diario Constitucional (2020): “F*** The Algorithm!: Los peligros de la Dictadura de los Algoritmos”. Enhttps://bit.ly/3hHUcrN

[17]          Vega Iracelay: Inteligencia artificial y derecho…, ob. cit., p. 22.

[18]          Martín Delgado, Isaac (2019): “Hacia un modelo de Administración digital auténticamente innovador. Cinco tesis y una ‘anti-tesis’ sobre los derechos de los ciudadanos en sus relaciones con la Administración por medios electrónicos en el contexto del procedimiento administrativo”, en Belandria García, José (coordinador),Transformación digital, modernización e innovación en la Administración Pública (Caracas, Centro para la Integración y el Derecho Público y Fundación de Estudios de Derecho Administrativo), pp. 216-217.

[19]          Esteve Pardo, José (2018): Lecciones de Derecho Administrativo (Madrid, Marcial Pons), pp. 222-223.

[20]          Según la Comisión Interamericana de Derechos Humanos (2007): Estudio especial sobre el Derecho de Acceso a la Información, en https://bit.ly/2U7EJZ6, p. 31: ”el artículo 13 de la Convención, al estipular expresamente los derechos a ‘buscar’ y a ‘recibir’ ‘informaciones’, protege el derecho que tiene toda persona a solicitar el acceso a la información bajo el control del Estado” y “dicho artículo ampara el derecho de las personas a recibir dicha información y la obligación positiva del Estado de suministrarla, de forma tal que la persona pueda tener acceso a conocer esa información o reciba una respuesta fundamentada cuando por algún motivo permitido por la Convención el Estado pueda limitar el acceso a la misma para el caso concreto. Dicha información debe ser entregada sin necesidad de acreditar un interés directo para su obtención o una afectación personal, salvo en los casos en que se aplique una legítima restricción. Su entrega a una persona puede permitir a su vez que ésta circule en la sociedad de manera que pueda conocerla, acceder a ella y valorarla. De esta forma, el derecho a la libertad de pensamiento y de expresión contempla la protección del derecho de acceso a la información bajo el control del Estado, el cual también contiene de manera clara las dos dimensiones, individual y social, del derecho a la libertad de pensamiento y de expresión, las cuales deben ser garantizadas por el Estado de forma simultánea”.

[21]          Traducción libre. Clarke, ob. cit., p. 428.

[22]          Ver Adefinitivas (2020): El dilema de la transparencia algorítmica y los secretos empresariales. A cargo de Michelle Azuaje, en https://bit.ly/3bcimbu

[23]          Para profundizar sobre este tema ver Belandria García, José (2019): “Expediente administrativo electrónico, protección de datos de carácter personal y transparencia administrativa”, en Belandria García, José (coordinador),Transformación digital, modernización e innovación en la Administración Pública (Caracas: Centro para la Integración y el Derecho Público y Fundación de Estudios de Derecho Administrativo), pp. 103 y ss.

[24]          Propuestas realizadas por Association for Computing Machinery ver en Ponce, ob. cit., p. 265: “1. Conciencia; 2. Acceso y corrección; 3. Responsabilidad; 4. Explicación; 5. Procedencia de los datos; 6. Auditoría; 7. Validación y testeo”.

[25]          Traducción libre. D’aloia, Antonio (2019): “Il diritto verso ‘il mondo nuovo’. Le sfide dell’Intelligenza Artificiale”, Rivista di BioDiritto, Nº 1, pp. 16-17: “Obviamente, existe un tema muy importante de capacitación ética (y de promover una cultura de cooperación y transparencia) de los programadores y desarrolladores de sistemas o agentes IA, para anticipar conflictos y distancias; y, al mismo tiempo, capacitación tecnológica en las facultades jurídicas y en las oficinas de apoyo de los órganos institucionales y administrativos”.

[26]          De La Quadra-Salcedo, Tomás (2018): “Retos, Riesgos y Oportunidades de la Sociedad Digital” en De La Quadra-Salcedo, Tomás y Piñar Mañas, José (directores), Sociedad Digital y Derecho (Madrid, Boletín Oficial del Estado, Ministerio de Industria y comercio y Red.Es), p. 58.

[27]          Valero Torrijos, Julián (2019): “Las garantías jurídicas de la inteligencia artificial en la actividad administrativa desde la perspectiva de la buena administración”, Revista Catalana de Dret Públic, Nº 58, pp. 82-96.

[28]          Martínez García, Jesús (2019): “Inteligencia y derechos humanos en la sociedad digital”, Cuadernos Electrónicos de Filosofía del Derecho, Nº 40, p. 184.

[29]          Sobre la responsabilidad objetiva en el derecho administrativo, ver SotoKloss, Eduardo (2010):Derecho Administrativo. Temas fundamentales (Santiago: Editorial Abeledo Perrot y Thomson Reuters), pp. 909 y ss.

[30]          Sobre igualdad y no discriminación arbitraria ver Navarro, Enrique y Carmona, Carlos (2015): Recopilación de Jurisprudencia del Tribunal Constitucional (1981-2015). Nº 59 (Santiago, Cuadernos del Tribunal Constitucional), pp. 97 y 114.

[31]          Véase Sancho López, Marina, “Internet, Big data y nuevas tecnologías: repercusiones y respuestas del ordenamiento jurídico”, Cuadernos Electrónicos de Filosofía del Derecho, Nº 39, p. 313: “Si bien los algoritmos se atienen a una lógica científica-matemática, la forma en que éstos son proyectados al estudio de los procesos sociales responde indudablemente a unas coordenadas ideológicas concretas y, por tanto, existe cierto riesgo de que se produzca un proceso reduccionista y simplificador de etiquetaje respecto de determinados colectivos, a partir de prácticas discriminatorias de tipo social o económico que pueden determinar una segregación excluyente de los grupos afectados. La consumación usual de estos procesos da lugar, según ciertos autores, a la creación de una sociedad de clases digital”.

[32]          De La Quadra-Salcedo, ob. cit., pp. 56 y 58.

[33]          Para detalles del caso ver documental de Netflix denominado “The Great Hack” (2019).

[34]          Martínez Martínez: Inteligencia artificial desde el diseño…, ob. cit., pp. 66-67.

[35]          Ver Paniagua, Esther (2019): Llevo 20 años investigando la inteligencia artificial: esto es lo que he aprendido y estos serán sus desafíos futuros, en https://bit.ly/3BOR3zx

[36]          Ramió Matas, Carles (2018): “Inteligencia artificial, robótica y modelos de Administración pública”, Revista del CLAD Reforma y Democracia, Nº 72, p. 22.

[37]          Ver CNN (2020): “5 conclusiones del interrogatorio a los poderosos de Amazon, Apple, Facebook y Google”, en https://cnn.it/2ERSO7n

[38]          Ver El País (2020): ”Sundar Pichai: No albergo dudas de que la inteligencia artificial ha de ser regulada; la cuestión es cómo” e INFOBAE (2019): “Inteligencia artificial: el debate sobre regular o no regular un campo en el que chocan el comercio y la ética”, en https://bit.ly/30Rg7oH y https://bit.ly/2RpwSnC, respectivamente.