Gobernanza ética de la inteligencia artificial

Mario D. Adaro

Ministro de la Suprema Corte de Justicia de Mendoza desde mayo de 2011. Magíster en Derecho Digital y Nuevas Tecnologías por la Universidad de Salamanca, España; y en Derecho y Magistratura Judicial, por la Universidad Austral. Presidente del Instituto de Innovación, Tecnología y Justicia de la Junta Federal de Cortes y Superiores Tribunales de las Provincias Argentinas y Ciudad Autónoma de Buenos Aires.

 

INTRODUCCIÓN

La era digital ha transformado la manera de actuar y relacionarse de las personas, los Estados y las organizaciones. La tecnología nos atraviesa en todas las áreas de la vida, incluidas la profesional y la laboral. Surgen así nuevos intereses, conflictos, relaciones jurídicas, obligaciones, responsabilidades y derechos.

En los últimos años, la inteligencia artificial (IA) representa una de las transformaciones más fuertes que ha vivido el mundo global y se encamina a alterar las estructuras de la sociedad actual. Es decir, es una tecnología transformadora, disruptiva y emergente. Sin perjuicio que ya se avizora una nueva era, la cuántica y las tecnologías emergentes cuánticas que en ella se desarrollan.

Sumado a que mundialmente la situación de pandemia por Covid-19 ha acelerado y profundizado la incorporación de tecnologías en todos los ámbitos de la persona humana y de las organizaciones, tanto públicas como privadas, realidad que no es sólo local sino global.

La finalidad del presente trabajo es indagar, brevemente, qué alcance y significado tiene la relación o interrelación entre la IA, los algoritmos y la ética. Es decir, cómo generar un ecosistema digital de abordaje mundial, regional o nacional a la preocupación o debate por la ética en la IA, cuáles son los valores y principios fundamentales que deben contener los desarrollos, aplicación y ejecución de los sistemas de IA.

 

INTEL IGENCIA ARTIFICIAL Y ÉTICA

Primeramente, partir del concepto de IA que otorga Naciones Unidas donde se expresa que “no es una sola cosa, sino más bien una ‘constelación’ de procesos y tecnologías que permiten que las computadoras complementen o reemplacen tareas específicas que de otro modo serían ejecutadas por seres humanos, como tomar decisiones y resolver problemas”.1

El 8 de abril de 2019, la Comisión Europea publicó las Directrices éticas para una IA fiable, en la que el grupo de expertos describe los riesgos de la inteligencia artificial y hace hincapié en siete requisitos que deben respetarse como marco jurídico para obtener una IA fiable en todas las fases del ciclo de vida del sistema. Dichas fases son: la recogida de datos (dataset), el diseño, modelos, objetivos y procesamiento de los datos; la verificación, comprobación y validación de éstos; el despliegue, operación, funcionamiento y monitoreo. A estas fases, en mi opinión hay que sumar la etapa de auditoría, como medio o mecanismo de validez y certificación que permita también el seguimiento y evaluación constante en el diseño, despliegue, uso e implementación de los algoritmos y desarrollos de IA.

La ética son los valores en acción, ello implica que hay un valor (subjetivo) que se prioriza, es decir, se puede elegir qué valor incluir y cómo actuar. En este sentido denominamos ciberética a la ética aplicada al ecosistema digital de las tecnologías emergentes.

La ética en la IA, es un subcampo de ética y tecnología aplicada, y se centra en los problemas éticos planteados en, por y para el diseño, desarrollo, implementación y uso de IA.

 

DIMENSIONES DE LA ÉTICA Y LA IA

Encontramos tres grandes dimensiones de la ética y la IA. María Jesús González Espejo, autoridad europea en la materia, es quien ilumina en la sistematización de esta temática, donde contextualiza la vinculación entre la IA y la ética de la siguiente manera: a) ética por el diseño; b) ética en el diseño; c) ética para el diseño.

a. Ética por el diseño, Ethic for design, hace específicamente a los desarrollos de los algoritmos, si existen o no sesgos en los mismos, es decir, la ética de los algoritmos y de las máquinas.

Estos sesgos se pueden producir en alguna de las etapas del desarrollo algorítmico en las redes neuronales. El MIT Technology Review, en 2009, alertaba sobre estos momentos en el desarrollo del software del algoritmo. Dichas etapas son: la formulación del problema o del sistema que vamos a desarrollar. Es decir, el objetivo funcional de dicho desarrollo. La otra etapa es la recolección y construcción del dataset, teniendo en cuenta que la inteligencia artificial se nutre y se interrelaciona con la big data. Es decir, hace a la recogida de datos. Al respecto, el efecto Mathew nos indica que el sistema algorítmico con mejor robustez en la predicción es aquel que posea mayor cantidad de datos, aunque el software en el que se sustenta sea primitivo o precario.

La última etapa es la de preparación de los datos, es decir, la arquitectura de estos y qué peso (weights) o definición le voy a dar a determinados datos o indicadores, o qué peso le asigno a las diversas conexiones entre sus capas.

A su vez, los sesgos que un modelo puede adquirir en relación con los datos se clasifican, siguiendo a Amunátegui Perelló y Madrid (2020), en sesgo de interacción (interaction bias), sesgo latente (latent bias) y sesgo de selección (selection bias). El primero es cuando el propio usuario, programador o desarrollador introduce el sesgo; el segundo se da cuando el modelo realiza correlaciones inapropiadas, generalmente al establecer falsos nexos entre puntos de datos, y el tercero, o sesgo de selección, aparece cuando el dataset no es representativo de la realidad. El gran ejemplo es Google, en 2015, cuando etiquetaba imágenes, en su programa de reconocimiento facial, identificando a una pareja de jóvenes afroamericanos con una pareja de gorilas. El dataset, indudablemente, contenía muy pocos datos sobre jóvenes afroamericanos, haciendo el modelo correlaciones inapropiadas, lo que constituyó un gran problema para Google a la hora de describir y explicar lo ocurrido.

Cabe mencionar que el 21 de abril pasado, la Comisión Europea presentó su propuesta de reglamentación para un marco legal de IA. Lo sobresaliente se encuentra en la clasificación de los riesgos en el uso de la IA, siendo la categoría de riesgo inadmisible cuando afecta la seguridad y derechos fundamentales; de alto riesgo califica a los sistemas de estructura crítica, en los que incluye actividades como salud, educación, administración de justicia y procesos democráticos; en riesgo limitado, hace referencia a sistemas utilizados para detectar emociones, y riesgo mínimo, permite el uso de videojuegos o correos spam que utilicen IA.

 

b. Ética para el diseño, Ethic by design, está orientada a cómo los principios, desarrollados en la dimensión de la ética en el diseño, impactan en los diseñadores, empresas y usuarios, básicamente es lo que aparece o conocemos como códigos de ética, hoy llamadas pautas de compliance, protocolos, estándares, para el desarrollo de la profesión del desarrollador de tecnología.

Aquí hacemos referencia a la Declaración de Barcelona, del 8 de marzo de 2017, donde se concluye que la IA puede ser una fuerza para el bien de la sociedad, pero también existe la preocupación por el uso inapropiado, prematuro o malicioso. Allí se propone contar con un código de conducta para los profesionales de IA (tanto desarrolladores como usuarios de IA) en Europa donde deberán respetarse los principios de prudencia, fiabilidad, explicabilidad o transparencia, responsabilidad, autonomía limitada y papel humano.

Recientemente, la temática del diseño de la IA ha generado un abierto debate. The New York Times anunció, el 19 de febrero de 2021, que Margaret Mitchell, quien fue una de las líderes del equipo de IA ética de Google, fue despedida,2 a lo que ella alega que dicho suceso se debió a su crítica en la forma en que se abordan los sesgos y la toxicidad en su inteligencia artificial. Sin embargo, dicho suceso se presenta como una práctica reiterada de Google, ya que dos meses antes, Timnit Gebru, otra líder del equipo de IA ética de la misma compañía, fue despedida por correo electrónico mientras se encontraba de vacaciones. Grebru acusó a la empresa que su despido se realizó después de criticar su enfoque de la contratación de las minorías y el trato que se le dispensaba en la empresa.

 

c. Ética en el diseño, Ethic in design, hace referencia a los principios, directrices, recomendaciones y modelos que construyen el ecosistema y la gobernanza de la tecnología y la IA.

La preocupación por fomentar estrategias de impacto positivo de la IA ha favorecido la aparición de numerosas iniciativas, manifiestos, compromisos, declaraciones y cartas que tienen por objeto elaborar principios destinados a orientar el cambio tecnológico. El Observatorio Algoritm Watch, ha realizado un Inventario global que rastrea ya más de mil 295 documentos que contienen principios rectores para el despliegue, uso y aplicación de la IA.

En enero de 2020, el Berkman Klein Center for Internet & Society at Harvard University, publicó un documento técnico-académico, titulado el Mapeo del Consenso en los enfoques éticos y basados en los derechos sobre los principios de IA, donde se enuncia el consenso creciente en torno a ocho tendencias temáticas clave: privacidad, responsabilidad, seguridad, transparencia y explicabilidad, equidad y no discriminación, control humano de la tecnología, responsabilidad profesional y promoción de los valores humanos.

 

En mi opinión se debe avanzar en tener principios que respondan a las perspectivas y características latinoamericanas en el diseño, implementación y uso de la IA, esto es, por ejemplo, el principio de cohesión social. Lo que significa que no sólo es tener un algoritmo que no discrimine, que incluya, sino algoritmos que mejoren y fortalezcan las estructuras sociales, en distribución y equidad social. Sumado al principio de protección de los valores democráticos y, por último, el principio de participación y capacitación ciudadana, como convención del algoritmo, como contrato social entre la sociedad y la ética en el diseño, desarrollo y aplicación de los sistemas algorítmicos y la IA.

 

GOBERNANZA EN EL ECOSISTEMA DIGITAL GLOBAL

Respecto a contar con un ecosistema digital global de gobernanza y regulación, se propone mirar como antecedentes en cuanto a su difusión, cohesión y práctica, el Convenio sobre la Ciberdelincuencia,3 firmado en Budapest, el 23 de noviembre de 2001, rescatando, en particular, el valor de la cooperación internacional entre los Estados y el sector privado.

Sobre una posible estructura institucional, el modelo a sugerir es el conformado por la ICANN (Internet Corporation For Assigned Names and Numbers, Corporación de Internet para la Asignación de Nombres y Números), ejemplo de que la diversidad e intereses divergentes pueden garantizar la gobernanza de una internet global, unificada y estable. Dicho modelo se puede transpolar a la gobernanza de la IA bajo parámetros éticos.

También el modelo de estructura que plantea la Convención que llevó a la creación de la Organización Europea para la Investigación Nuclear (en inglés, CERN). Durante 60 años, la CERN ha reunido a científicos de todo el mundo y ha proporcionado a la sociedad muchos beneficios mediante la investigación, la innovación y la educación.

 

CONCLUSIÓN, DESAFÍOS

Se avizora una necesidad de generar un ecosistema normativo y de gobernanza global digital, basado en el consenso y el reconocimiento de Derechos Humanos, donde converjan el sector privado o empresarial, los organismos públicos estatales, organizaciones no gubernamentales, las universidades, el sector científico, entre otros actores mundiales.

Sin embargo, se considera que en el desarrollo, uso y proliferación de la inteligencia artificial la persona humana debe ser el centro del debate. Como expresara Stefano Rodotá: “La persona se hace digital, comparece el homus numericus, entramos en la dimensión del poshumano”.4

Asimismo, debe haber una exhortación a la comunidad internacional y a los gobiernos nacionales a legislar desde la interdisciplinariedad en la elaboración de normas y la construcción de un sistema de gobernanza que permita formular, aplicar y controlar los principios éticos que debe gobernar a los desarrollos de IA. Sin embargo, claramente debe surgir del consenso y participación ciudadana, del sector privado, de los desarrolladores y diseñadores de programas y de las organizaciones sociales.

Las regulaciones basadas en enfoque de riesgos permiten tener mayor confianza, certidumbre, veracidad y robustez en el desarrollo e implementación de IA, tal como lo ha expresado la Comisión Europea en el Libro Blanco de la IA (febrero de 2020) y con la Propuesta de Reglamento de la IA, del 21 de abril.

Finalmente, dejar abierto el debate respecto a si todo lo tecnológicamente posible es socialmente aceptable, jurídicamente legítimo y éticamente admisible.

 


1  https://undocs.org/es/A/73/348, (3 de julio de 2019), p. 3

2  Metz, Cade, Un segundo investigador de inteligencia artificial de Google dice que la empresa la despidió, The New York Times, Tecnología, 19 de febrero de 2021, ver: https://www.nytimes.com/2021/02/19/technology/google-ethical-artificial-intelligence-team.html (consultado 28/03/2021)

3  https://www.oas.org/juridico/english/cyb_pry_convenio.pdf (consultado 12 de noviembre de 2018)

4  Rodotá, Stefano, El derecho a tener derechos, Ed. Trotta, Italia, 2014, p. 184

 


BIBLIOGRAFÍA

  • Adaro, Mario. D, 2019. Ciber-ética y la necesidad de un ecosistema de gobernanza digital, tesis del Máster en Abogacía Digital y Nuevas Tecnologías, Universidad de Salamanca.
  • Amunátegui Perelló, Carlos. Madrid, Raúl. Sesgo e Inferencia en Redes Neuronales ante el Derecho, En C. Aguerre, (Ed.). Inteligencia Artificial en América Latina y el Caribe. Ética, Gobernanza y Políticas. Buenos Aires: CETyS Universidad de San Andrés, 2020.
  • Convenio sobre la Ciberdelincuencia de Budapest, https://www.oas.org/juridico/english/cyb_pry_convenio.pdf (consultado 12 de noviembre de 2018).
  • Metz, Cade. Un segundo investigador de inteligencia artificial de Google dice que la empresa la despidió, The New York Times, Tecnología, 19 de febrero de 2021, ver: https://www.nytimes.com/2021/02/19/technology/google-ethical-artificial-intelligence-team.html (consultado 28/03/2021).