La discusión ética, en el control de la IA

Jaime Rodríguez Alba

Doctor en Filosofía por la Universidad Nacional de Educación a Distancia. Magíster en Sociología por la Universidad Complutense de Madrid. Profesor de Transparencia y buen gobierno, Máster en Dirección de la Gestión Pública de la Universidad Internacional de la Rioja, España. Director de la Licenciatura en Administración Pública, Universidad Siglo 21, Argentina.

 

El modo como se piensa la ética de la inteligencia artificial (en adelante IA) viene signado por el lugar que la agencia humana tiene en la misma. De tal modo (Marín García, 2019) para una IA débil –más automatización de procesos que inteligencia en un sentido cognitivo fuerte, esto es, una inteligencia artificial local– las cuestiones éticas se aproximan al paradigma de la responsabilidad humana en el diseño e implementación de la misma. En cambio, una IA fuerte –lo que algunos autores denominan IA general, aquella que puede sustituir y superar las capacidades humanas, al menos en procesos cognitivos vinculados al manejo de datos– involucra otro tipo de tematizaciones éticas, más ligadas al estatus del sujeto moral, a las temáticas de la vincularidad, las interacciones entre seres humanos y robots, la emergencia de un paradigma transhumano, etc.

Resumiendo mucho, mientras la ética en el primer sentido (IA débil) puede comprenderse desde el paradigma de la responsabilidad social –asociada al impacto de los procesos y diseños tecnológicos–, la ética en el segundo sentido remite a nociones filosóficas más amplias. Lo que no obsta para que los últimos avances –superpotencias de la IA como China nos traen a la luz el manejo masivo de datos y la construcción de redes neuronales más sofisticadas– nos urjan a problematizar la ética en una suerte de fusión de ambas dimensiones. Aún cuando la IA general esté lejos y no sepamos cuándo pueda ser una realidad (Kai-Fu Lee, 2020), podríamos, sin lugar a dudas, plantear una suerte de premisa filosófica al estilo de Carlos Marx: el modo como se construyen las IA débiles está sin duda vinculado a como se imaginan las IA generales. Esto es, la construcción de una IA general presupone ciertas nociones de inteligencia en la que la dimensión ética –la famosa inteligencia ética que señalaba la corriente aristotélica y tantas otras– no resulta venial.

Así como la noción misma de inteligencia ética remite a la de pluralidad, la racionalización ética de las problemáticas involucradas, tanto en las IA débiles como en las fuertes, exige un horizonte de pluralidad e interacción. Por esto, cuando se considera la necesidad –como están haciendo la Unión Europea y diversos países en el mundo en sus diseños de planes de economía del conocimiento, inteligencia artificial, etc.– de gobernanza de estas tecnologías no debiera olvidarse, a mi entender, el adjetivo ético: apuntar hacia una gobernanza ética.

 

QUÉ ES GOBERNANZA

La noción de gobernanza surge durante los años 70 en el terreno de las ciencias del gobierno y la administración pública, impulsada por la crisis de los modelos de bienestar ante los procesos de globalización. La capacidad de gobernar desbordaba las estructuras tradicionales del gobierno y la gubernamentalidad. A esto se añade que las sociedades exigían cada vez más presencia en los procesos de autogobierno. Los procesos de gestión que definen los estados mutan así hacia nuevas problemáticas multidimensionales en las que lo ético devine central, situándose junto al dominio técnico un dominio ético-político de corte deliberativo (Aguilar Villanueva, 2013).

Gobernanza remite (Kooiman, 2003) a las interacciones de actores varios –públicos, privados, del tercer sector, del mundo académico, etc.– para a resolver problemas o crear oportunidades sociales, considerando las instituciones involucradas como contextos para las interacciones orientadas al proceso de gobernar y generando fundamentos normativos al efecto.

QUÉ ES GOBERNANZA ÉTICA

Desde el momento que la gobernanza dice interacción, nos situamos en el terreno de ciertas características éticas que se han de satisfacer para contemplarla como buena gobernanza. En el caso de la gobernanza de los fenómenos tecnológicos, signados por la complejidad y el dinamismo, se hace especialmente relevante la consideración no sólo de la dimensión técnica, sino también ética. De un lado considerar los impactos –lo que remite a principios dialógicos de inclusión, simetría y reciprocidad entre interlocutores, así como veracidad–, por otro profundizar en la comprensión de la naturaleza del sujeto moral. De tal modo, la gobernanza de la IA y la robótica, antes que acogerse a un paradigma reductivo o sin tematización suficiente de la ética, debería al tiempo problematizar la misma ética que está considerada en el proceso de gobernanza.

Cuando revisamos tematizaciones éticas de la IA se observa una cierta reducción a tópicos como los sesgos morales, prejuicios, afectación de Derechos Humanos, etc., sin duda problemáticas que desde una ética de principios o una ética deontológica son más que relevantes. En algunos casos, como, por el ejemplo, los asociados a la valoración de la responsabilidad implícita en los automóviles autónomos, se aprecia una hegemonía de enfoques utilitaristas. Tal es el caso del experimento Moral Machine (Awad, et al, 2018), que a escala global ha rastreado las decisiones trágicas –salvar una vida o varias, según sean vidas de niños, ancianos, mujeres, etc.–, pretende instaurar una suerte de aritmética moral según la cual el común denominador de las valoraciones decisionales tomadas –que el mayor número considere como lo menos malo determinada opción– pudiera considerarse como una suerte de criterio moral a enseñar a un automóvil automático.

Estos casos, al igual que el uso de ciencia de datos en redes sociales, política, etc., permiten afirmar ciertos rasgos éticos imperantes (Calvo, 2020): positivismo digital, el dato moral como dato masivo sin problematizar la construcción social de los datos; consecuencialismo, enfoque utilitario centrado en el cálculo de las consecuencias de la acción; convencionalismo, consideración de la corrección con base en la mayor disposición a la corrección de la misma, por grupo humano; o paternalismo, estimación según la cual la IA puede arrojar mejores decisiones y en ese modo orientar la acción humana.

Muchas de las problemáticas asociadas a la IA –sesgos, discriminación, usos de vigilancia, negación de derechos personalísimos, etc.– vienen por no desnaturalizar las aplicaciones y diseños tecnológicos. Considerar que una IA puede ser más justa, por ejemplo, que un juez, o gobernar mejor que un político, está en consonancia con los procesos de artificialización (Nurock, 2020) mediante los que los sesgos, discriminaciones, abusos, etc., que caracterizan las interacciones sociales, pasan a ser ejecutados por las tecnologías, con el agravante que en las mismas se invisibilizan o naturalizan.

En lo político y social (Calvo, 2019) la IA implica sin duda retos como: el jaque a la autonomía moral y del sujeto-político por la autonomización del complejo tecno-científico; la sustitución de la democracia por administración tecnocrática, o las perturbaciones en las interacciones sociales que producen sentido para la existencia de la persona.

Desde un punto de vista ético, si bien caben diversas posturas, no se trata empero de una visión tecnopesimista que se oriente a la limitación de las posibilidades tecnológicas. La ambivalencia constitutiva de las tecnologías nos conduce a considerar que, así como pueden abrir grandes riesgos (morales, políticos, sociales, etc.), también pueden generar impactos muy beneficiosos. Por eso, para ciertas visiones, como la de Vallès-Peris (2021), se ha de superar la dicotomía humano-máquina y considerar nuevas vincularidades que superen la lógica del sistema económico imperante, mediada por una visión utilitarista de las interacciones humanas. Superar la instrumentalización de la relación entre entidades humanas y maquínicas, apuntalar los pilares de la heterogeneidad y superación de la lógica mercantilista del sistema económico imperante.

La gobernanza ética exige innovación e investigación responsable complementando los enfoques principalistas, deontológicos y utiliaristas hegemónicos, con otros como el de las éticas del cuidado. Por ejemplo, una robótica interactiva e inclusiva (Pons, 2020) supone principios y objetivos orientados a mejorar justicia y bienestar de las poblaciones, democratizar las prácticas del cuidado, fomentar la autonomía y el desarrollo de las personas. Todo ello en un marco axiológico orientado por la seguridad de las innovaciones –la reflexividad crítica y el control sobre los riesgos que suponen– y la gradualidad de las mismas, para garantizar la no exclusión, así como la conformación de nuevos espacios de interacción entre entidades humanas y no humanas que sean apropiadas y apropiables por las comunidades.

Considerada la IA y la robótica desde la ética del cuidado (Nurock, 2020), hemos de redefinir en qué sentido una máquina cuida, a partir de la vulnerabilidad implícita a la dimensión del sujeto moral, para así analizar cómo afecta a la identidad y desarrollo moral el uso de la IA y la robotización en los más variados ámbitos –robots en salud, ciencia de datos, internet de las cosas, etc. Por supuesto, considerar la salvaguarda de la autonomía, por la vía de los neuroderechos y la vigilancia epistemológica sobre los procesos tecnológicos, pero también apuntalar todas aquellas tecnologías orientadas a equilibrar autonomía y dependencia. Todo sujeto moral, considerado desde las éticas del cuidado, es un sujeto que se mueve en una tensión entre autonomía y dependencia, superando así visiones distorsivas que al reducir lo moral a la autonomía conducen a excluir una amplia gama de sujetos morales (niños, personas dependientes, con discapacidades, seres animales, etc.).

Si consideramos la incidencia de la IA en la conformación de subjetividad política, mediante la artificialización que induce sesgos, la sustitución de deliberación y juicio por la decisión técnica que minimiza el rol de la racionalidad de fines, o la manipulación de la decisión, sin duda precisamos definir marcos de abordaje para los riesgos de las democracias robotizadas (Moreno y Jiménez, 2018). Una vez más se precisa aquí superar los enfoques puramente principalistas y utilitaristas imperantes.

El uso de IA en los procesos de gestión pública –big data en el ciclo de las políticas públicas, por ejemplo– sin duda generará impactos positivos, siempre que se establezcan marcos de gobernanza ética para considerar riesgos y oportunidades. La reducción deontológica del problema inducirá un exceso de organismos de control, la utilitarista conducirá a desestimar elementos fundamentales como el reconocimiento y actuación cuidadosa con el daño moral, y el principalista correrá el riesgo de ocultar todo un ámbito de problemas que sólo pueden emerger en la consideración prudencial y deliberativa de la situación concreta, contando con todos los actores (inclusividad) y permitiendo todas las narraciones de los mismos (simetría y reciprocidad) para garantizar la orientación hacia los bienes comunes.

Las tecnologías exponenciales (López Portillo Romano, 2018) permiten posibilidades inmensas respecto de los bienes comunes –por ejemplo, los Objetivos de Desarrollo Sostenible (ODS). Evaluar los impactos de las mismas será tarea ética a desarrollar colaborativamente por actores diversos. Supondrá también una nueva concepción del espacio público y su garante, el Estado. Si han de mutar las capacidades y competencias laborales de las personas, prestando creciente atención a dimensiones como el pensamiento crítico o la flexibilidad (Kai-Fu Lee, 2019), no es menos cierto que la robotización y aplicación masiva de la IA supondrá un profundo cambio del mercado de trabajo. Para esto, soluciones como la renta básica parecen ser insuficientes, puesto que no logran atinar en la médula misma de las mutaciones de la subjetividad moral y política de la persona, en tanto siguen de algún modo pensando al sujeto moral bajo el paradigma del individualismo liberal (Kai-Fu Lee, 2020). Una gobernanza ética sí permitiría al menos cristalizar horizontes de desarrollo estratégico para poner la IA y la robótica al servicio de las comunidades humanas.

El Estado resultará en este proceso un actor central y ejemplar, aunque no único. Pero se atisban falencias importantes, en especial en los países en desarrollo o subdesarrollados (Oszlak, 2020). Las propias dinámicas de la gestión pública inducen la imperiosa necesidad de superar los silos organizacionales (Oszlak, 2020) que hacen complicado desarrollar una visión estratégica y colaborativa del fenómeno tecnológico en sus usos e impactos públicos. La cuarta revolución industrial está ya en marcha situando una serie de problemáticas en la agenda de los diseños institucionales para el sector público, mostrando estos, empero, dinámicas y resistencias complejas (Pardo Beneyto y Abellán López, 2020).

Frente a las tecnologías exponenciales se precisa un Estado exponencial (Oszlak, 2020) que oriente las innovaciones tecnológicas hacia los bienes comunes. Esto requiere, entre otras cosas, (Oszlak, 2020): desarrollar enfoques abiertos y flexibles; la experimentación, innovación, evaluación e interacción permanente y, en especial, la producción de confianza (transparencia, inclusión, eficacia, ejemplaridad pública, Estado amigable, etc.). Exige también nuevos valores públicos (Ramió, 2020). Valores como el fomento del aprendizaje continuo, big data para el bien común, la sostenibilidad intergeneracional, etc. Valores que se unirán a los tradicionales de equidad, igualdad de género, respeto a la privacidad, etc., sin duda también modificados por las tecnologías exponenciales.

Finalmente, y en el escenario geopolítico, que la IA –y en general las tecnologías exponenciales– no se convierta en la última amenaza para nuestra especie requiere superar los enfoques de competencia y beligerancia entre potencias de la IA (Kai-Fu, Lee, 2020), apostando por construcciones interculturales que consideren los diversos escenarios de producción de IA conforme a valores específicos (Ortega Klein, 2020), así como reforzar el lugar de los organismos multilaterales y el derecho internacional (Robles Carrillo, 2020). Desde las propias organizaciones técnicas ya se está apostando por enfoques dinámicos, abiertos y multisakeholder, como sucede con el IEEE (Instituto de Ingeniería Eléctrica y Electrónica) y su modelo FERE (Fundamental Ethical Responsability of Engeniers); el IGF (Internet Governance Forum), con su apuesta por la deliberación en torno a prácticas, o la UIT (Unión Internacional de las Telecomunicaciones), que propone anclar gobernanza a ODS.

En todos estos espacios de deliberación debiera también sumarse a los enfoques éticos hegemónicos –deontológico, principalista o utilitarista– nuevos enfoques, como el de las éticas del cuidado. El fundamento para pensar la gobernanza como gobernanza ética es autoevidente: los desarrollos tecnológicos inducen (Coeckelberg, 2020) una mutación de las nociones éticas fundamentales (autonomía, responsabilidad, etc.) afectando a los modos de toma de decisión, así como a las narrativas que conforman la subjetividad humana. Las tecnologías exponenciales pueden mejorar sustancialmente las condiciones de vida del ser humano si se controlan democrática y deliberativamente (Hughes, 2004) o, por el contrario, dar pie a una suerte de escenario neofeudal (Moreno y Jiménez, 2018) marcado por la exclusión creciente y la pugna entre feudos geopolíticos de producción de IA.

La gobernanza ética de la IA y la robótica habrá de trabajar en la construcción, para estas tecnologías exponenciales y disruptivas, de un “ecosistema ciberético” (Calvo, 2021: 38). Comenzando por el gobierno de datos –petróleo del que se nutren las IA–, creando infraestructuras éticas (códigos, comités, líneas éticas, procesos participativos, etc.) orientadas a la gestión, monitorización y cumplimiento de todo lo involucrado en la producción y uso de datos masivos. Esta infraestructura se apoyará en un “entorno comunicativo y afectivo” (Calvo, 2021: 38).

 


BIBLIOGRAFÍA

  • Aguilar Villanueva, L. F. (2013) El gobierno del gobierno. México: INAP.
  • Awad, E. et al. (2018) “The Moral Machine experiment”. Nature 563, 59–64
  • Calvo, P. (2019) “Democracia algorítmica: consideraciones éticas sobre la dataficación de la esfera pública”. Revista CLAD Reforma y Democracia, nº 70, pág. 5-30
  • Calvo, P. (2020). “Etificación”. En Pizzi, J. y Cenci, M. (coord.), Global Observatory for Social Pathologies. Pelotas: Federal University of Pelotas.
  • Calvo, P. (2021) “El gobierno ético de los datos masivos”, en Jon Rueda (ed.): , nº 34, 31-49
  • Coeckelberg, M. (2020) AI Ethics. Cambridge: MIT Press
  • Hughes, J. (2004) Citizen Cyborg. Why Democratic Societies Must REspond to Redesigned Human of the Future. Cambridge: Westview Press
  • Kai-Fu Lee (2019) “La inteligencia artificial y el futuro del trabajo: una perspectiva china”. En El trabajo en la era de los datos. Madrid: BBVA
  • Kai-Fu Lee (2020) Superpotencias de la inteligencia artificial. Barcelona: Planeta
  • Kooiman, J. (2003) Governing as Governance. Nueva Delhi: Sage Publications
  • López-Portillo Romano, J. R. (2018) La gran transición. Retos y oportunidades del cambio tecnológico exponencial. México: FCE
  • Marín García, S. (2019) “Ética e inteligencia artificial”. Cuadernos de la Cátedra CaixaBank de Responsabilidad social corporativa, nº 42
  • Moreno, L. y Jiménez, R. (2018) Democracias robotizadas. Madrid: La Catarata
  • Nurock, V. (2020) “¿Puede prestar cuidados la Inteligencia artificial?”. Cuadernos de relaciones laborales. 38 (2), pág. 217-229
  • Ortega Klein, A. (2020) Geopolítica de la ética en la Inteligencia artificial. Madrid: Real Instituto El Cano
  • Oszlak, O. (2020) El estado en la era exponencial. Buenos Aires: INAP
  • Pardo Beneyto, G. y Abellán López, M. A. (2020) “Tecnologías de la información y comunicación e innovación institucional”. En Aldeguer Cerdá, B. y Pastar Albaladejo, G. Democracia, gobierno y administración pública. Madrid: Tecnos
  • Pons, J. L. (ed.) (2020) Inclusive Robotics for a Better Society. Springer Natura Switzerland
  • Ramió. C. (2020) “Los valores públicos del futuro en el contexto de la Administración 4.0”. En Vicher, D. Códigos y preceptos éticos. México: INAP
  • Robles Carrillo, M. (2020) “La gobernanza de la inteligencia artificial: contexto y parámetros generales”. REEI (Revista Electrónica de Estudios Internacionales), núm. 39
  • Vallès-Peris, N (2021) “Repensar la robótica y la inteligencia artificial desde la ética de los cuidados”. Teknokultura. Revista de Cultura Digital y Movimien[1]tos Sociales. 18(2), 137-146. http://dx.doi.org/10.5209/TEKN.73983