Algorética: la ética del algoritmo

Algoretics: the ethics of algorithm

RONALD CÁRDENAS KRENZ [1]


[Resumen]

La presente investigación, teniendo en cuenta el desarrollo de la inteligencia artificial, busca explicar en forma didáctica el concepto de algoritmo para poner en evidencia la necesidad de una ética en la programación y aplicación del mismo. Con este objeto, se hace referencia a la noción de «algor-ética» o «algorética», concepción fundamental que debe inspirar el tratamiento legislativo y jurisprudencial de la materia.

Palabras clave: Algor, ética, algorética, ética del algoritmo, IA y ética


[Abstract]

The present research, taking into account the development of artificial intelligence, seeks to explain in a didactic way the concept of algorithm, to, from there, highlight the need for ethics in its programming and application, making reference to the concept of «algor-ethics» or «algoretics», fundamental concept which should inspire the legislative and jurisprudential treatment of the matter.

Key Words: Algor, ethics, algoretics, algorithm ethics, AI and ethics


Sumario:

I. INTRODUCCIÓN.

II. SOBRE LOS ALGORITMOS.

III. DISCRIMINACIÓN Y ALGORITMOS.

IV. OTROS PROBLEMAS VINCULADOS CON EL USO DE ALGORITMOS.

V. LA ALGORÉTICA SE HACE PRESENTE EN ESCENA.

VI. ¿QUÉ ÉTICA DEBE TENER LA ALGORÉTICA?


I. INTRODUCCIÓN

En la actualidad, la aplicación de la tecnología no se restringe a una —o más— de nuestras tareas específicas; al contrario, ahora tiene que ver con la forma en general como hacemos las cosas. Así, ya no es solo parte de nuestras vidas, sino que influye en ella y hasta la determina.

La inteligencia artificial (IA) ha cambiado nuestra realidad y la forma en que la entendemos —incluso de entendernos a nosotros mismos— (Pegoraro y Curzel, 2023, p. 325) al plantear importantes cuestiones en torno a nuestra identidad como seres humanos. Así, por ejemplo, la pregunta cada vez más recurrente de si debemos considerar a los robots como sujetos de derecho solo podemos contestarla teniendo claro qué significa ser un ser humano y qué es lo que nos distingue en nuestra esencia.

En esta materia, la cuestión semántica es esencial, de ahí la necesidad de partir de una definición de la IA, la cual puede entenderse por «la capacidad de las máquinas para simular la capacidad de entender, aprender, razonar y actuar para resolver situaciones específicas o interactuar con procesos y personas» (Miranda, 2021, p. 707).

Cabe mencionar que estas máquinas no solo están programadas con información, sino que algunas de ellas también pueden generar conocimiento propio y tomar —cada vez más— decisiones por sí mismas, a través del aprendizaje automático o «autoprogramación» (machine learning) y el llamado aprendizaje profundo (deep learning). Vale decir que el machine learning es un método de análisis de datos que hace que las máquinas puedan «aprender» por su cuenta, mediante la identificación de patrones, por lo que son capaces de «decidir» con una limitada o nula participación humana. Un dato a destacar es que este tipo de aprendizaje es hoy en día más la regla que la excepción (Kearns y Roth, 2020, p. 12).

Ahora bien, siendo que el presente artículo aborda el tema de la «algorética», es necesario detenernos previamente en el concepto de algoritmo. Como señala Orsoni, este puede definirse como «un conjunto de operaciones lógicas que, a partir de ciertos datos de entrada, proporciona a través de una sucesión finita de pasos, ciertos datos de salida» (Miranda, 2021: 730). Se trata de una cadena de instrucciones precisas que deben seguirse en forma lógica y detallada, las cuales guían a través de una serie de pasos para alcanzar un objetivo.

II. Sobre los algoritmos

Puede decirse que toda toma de decisiones termina por ser algorítmica (Kearns y Roth, 2020, pp. 215-216). Un ejemplo sencillo sería un libro de cocina, el cual contiene las instrucciones necesarias, a través de una serie de secuencias y pasos, para la preparación de determinadas recetas.

En nuestra vida diaria, los algoritmos se hacen presente de diversas maneras para auxiliarnos: nos dicen cómo llegar a nuestro destino (Waze), nos recomiendan series (Netflix), nos escogen música que podría gustarnos (Spotify), seleccionan noticias para nosotros (Google), ofrecen sugerencias de compras (Amazon), pueden ayudarnos a escribir un texto o una carta (ChatGPT) y hasta pueden ayudar a conseguir pareja (Tinder). Aún más, vale mencionar que los algoritmos ya no solo hacen predicciones colectivas sino también individuales. Asimismo, los algoritmos guían el funcionamiento de vehículos autónomos, ya son parte de la medicina, intervienen en la lucha contra el crimen y participan en la guerra. Si planteamos si estos deben usarse para salvar vidas, nadie dudaría de la respuesta afirmativa; si la pregunta fuera, en cambio, si deben usarse para eliminar vidas, entonces empiezan las discusiones.

Las interrogantes son varias, considerando, además, el desconocimiento de la técnica por parte de los abogados y el desconocimiento del derecho por parte de los técnicos. Podemos preguntarnos con Téllez (2021, p. 370): «¿Qué tanto conoce un diseñador de algoritmos sobre la protección de datos personales y del adecuado manejo de los mismos?, ¿cuáles son los límites en el entrenamiento de los algoritmos?, ¿cuáles deberían ser los principios que rijan el diseño de los algoritmos como base de la IA?».

Para poder aproximarnos más al tema, expliquemos en términos muy sencillos cómo funciona un algoritmo: supongamos que trabajamos en una universidad y nos encargan escoger cuatro alumnos para una campaña publicitaria; entonces, seguramente, le pediríamos a la computadora que escoja a los cuatro que tienen mejores notas.

Sin embargo, resulta que, casualmente, los 4 mejores alumnos son hombres. Por tanto, para evitar dar una imagen sexista en la publicidad, le decimos a la máquina que determine quiénes son los dos alumnos varones con las mejores notas y quiénes son las dos alumnas mujeres con las mejores notas.

La computadora hace consecuentemente una nueva selección, pero resulta que los cuatro seleccionados tienen todos el cabello verde. No tiene nada de malo, por cierto, tener el cabello de ese color, pero que todos los que salgan en la publicidad lo tengan podría verse extraño, así que le decimos a la máquina que escoja alumnos que no tengan el mismo color de cabello.

El ordenador hace una nueva selección y resulta que los cuatro seleccionados ahora son todos extranjeros. Entonces, programamos otra vez la máquina para que haga una nueva selección, indicándole que no más del 25 % de los alumnos seleccionados sean provenientes de otro país.

Resulta que ahora los cuatro seleccionados, por cosas del azar, finalmente, son todos alumnos que están en silla de ruedas. La universidad analiza la situación y considera que si en su publicidad los cuatro alumnos que salen están en silla de ruedas podría pensarse que la universidad es solo para personas con alguna discapacidad física; en consecuencia, se decide reprogramar nuevamente la computadora.

¿Qué ha ocurrido en este caso entonces? Tenemos una computadora que tiene la tarea de escoger a los mejores alumnos, y puede que Luis esté entre ellos, pero así y todo puede que no lo escojan ya sea por razones de sexo, raza, nacionalidad, capacidad de ejercicio restringida, contar con una discapacidad o tener el cabello verde.

Como vemos, parece que la computadora «selecciona» a los alumnos, pero ella solo obedece a los criterios con los que ha sido programada.

III. Discriminación y algoritmos

Es de observar que, contra lo que pudiera creerse, un algoritmo no es de por sí neutral. Se les ha definido con razón como «opiniones encerradas en matemáticas», pues son creados a partir de los criterios de selección de datos del programador, pudiendo ser afectados por sesgos o prejuicios de este. Con relación a ello, Goñi manifiesta: «Un modelo de algoritmo mal diseñado puede propagar sesgos a escala masiva y acelerada» (2019, p. 18).

Supongamos que a una empresa le ha ido mal cuando ha contratado a empleados procedentes de Macondo, pues eran todos muy flojos para el trabajo y la compañía tuvo que despedirlos; entonces, ante la necesidad de contratar a un empleado, la máquina «decide» excluir a los habitantes de Macondo con base en las experiencias anteriores. De modo que se ha configurado aquí un sesgo.

En consecuencia, puede afirmarse: «A pesar de considerar los algoritmos internos de un sistema basado en IA como elementos puramente objetivos y neutrales, éstos pueden heredar —y heredan— aspectos propios subjetivos de sus programadores y desarrolladores de forma que, en algunos casos, estas formas de interpretación de variables y parámetros dentro de la lógica interna de los propios algoritmos den paso a lo que se conoce como discriminación algorítmica» (Capellán, 2022, p. 88).

Es de notar que, a pesar de la importancia que tienen los algoritmos en nuestras vidas, poco o nada sabemos de cómo funcionan y por qué toman una determinada «decisión» pudiendo haber probado otras. Aquello es lo que se denomina efecto «caja negra». Así, por ejemplo, todos sabemos que Google tiene un algoritmo para seleccionar información en nuestras búsquedas, pero nadie sabe cómo funciona.

Es interesante mencionar que los algoritmos en materia laboral no solo pueden jugar un rol importante en la selección y evaluación de personal, sino que pueden imponer el ritmo de trabajo en una empresa y medir la eficiencia y la productividad de un trabajador.

En el caso de Amazon, la compañía da a sus empleados un dispositivo digital por el cual el trabajador es seguido y se controla el tiempo que demora llevando paquetes de un lugar a otro (Goñi, 2019, p. 8).

El uso de un algoritmo de aprendizaje profundo por parte de la misma empresa, el cual supuso un claro ejemplo de discriminación, se puso en evidencia hace unos años cuando se descubrió que, en sus procesos de selección de personal, «el algoritmo detectó que el porcentaje de mujeres que habían llegado a la fase final de entrevista en los procesos de contratación de la empresa era muy escaso, motivo por el cual comenzó a rechazar sistemáticamente los currículum presentados por estas» (Sánchez-Escribano, 2023, p. 3)2.

El algoritmo también puede ser proclive a discriminar por razones de raza, como en el caso Wisconsin vs. Loomis, en el que se reveló que el algoritmo Compass, que emplea la justicia norteamericana para determinar el riesgo de que una persona sea reincidente, arrojaba resultados más altos cuando se trataba de personas de raza negra.

Otro caso de discriminación es el del sistema Deliveroo, el cual, según determinó el Tribunal Ordinario de Bolonia (Italia) el 31 de diciembre del 2020, utilizaba un algoritmo de clasificación que discriminaba a los repartidores a la hora de distribuir los encargos 3. Se sabe también que, en lo económico, el sistema puede penalizar a los pobres precisamente por ser pobres.

Es de anotar, además, que los algoritmos tienen una dudosa capacidad predictiva. Como dice Gómez: «[…] el potencial de los sistemas de IA en el derecho, si bien son prometedores, siguen teniendo limitaciones relacionadas con las correlaciones de datos, lo que cuestiona la precisión de la predicción algorítmica» (2022, p. 102).

En el ámbito jurídico, un caso interesante es el ocurrido en setiembre de 2023 en Carolina del Norte (EE. UU.), cuando Philip Paxcon murió al caer con su auto por un puente; su familia ha demandado por ello a Google Maps, por no haber actualizado sus mapas, pues el puente se había caído nueve años antes, dato que no estaba registrado en dicha plataforma.

IV. Otros problemas vinculados con el uso de algoritmos

Los sistemas de IA pueden incurrir en errores producto de problemas de «aprendizaje» por la gestión incorrecta en la captación de los datos o de «discriminación estadística», es decir, de condicionamientos determinados por estadísticas anteriores (Miranda, 2021, pp. 719-720).

Caso distinto a las equivocaciones en las que el algoritmo puede «incurrir», es decir que el algoritmo puede ser engañado; a propósito de ello, en el año 2015, el Wall Street Journal publicó que había personas que brindaban a Waze información equivocada sobre accidentes con el fin de despejar algunas rutas y poder utilizarlas.

No obstante, las mayores inquietudes van por el lado de que la máquina pueda llegar a tomar decisiones. Es de notar que, en sentido estricto, el término «autónomo» para la IA no es exacto, pues hasta ahora ningún sistema inteligente puede dar cuenta de sus decisiones y actos como las personas (Villalba, 2020, p. 685), por ello, es preferible usar el término «automático» en vez de «autónomo» (Zabala, 2021).

Cabe recordar que, como ha mencionado Rafael López de Mantarás, lo que las IA tienen ahora no es inteligencia sino «habilidades sin comprensión» (un robot puede ganarle una partida al campeón mundial de ajedrez sin tener la más mínima idea de lo que ello significa ni tampoco sentir emoción alguna).

Por otro lado, los seres humanos, al tener la facultad de comprender las consecuencias de nuestros actos, somos capaces de hacer excepciones, en función del contexto, a diferencia de los algoritmos. En adición a ello, el desarrollo mental depende de la interacción con el entorno; las máquinas, en cambio, no siguen procesos de socialización y culturización.

A pesar de que una IA fuerte parezca impracticable actualmente, es cierto que ya existen aplicaciones con la capacidad de tomar decisiones escogiendo entre diversos cursos de acción, con los riesgos que ello puede implicar. Claro que, como dice Villalba (2020: 687), incluso en estos sistemas la capacidad de toma de decisiones es solo aparente, pero puede que estemos ante un nuevo concepto de decisiones, como sostiene Martínez Mercadal4.

V. La algorética aparece en escena

Según la encuesta global de Salesfore sobre el estado de las tecnologías, difundida en noviembre de 2023, el 64 % de los responsables de la TI (Tecnología de la información) desconfía de las implicaciones éticas de la tecnología 5. Como advierten Kearns y Roth, «los modernos algoritmos pueden llevarse por delante algunos de nuestros más preciosos valores sociales» (2020, p. 21).

Pero aquí vale recordar que detrás de cada robot está, de una u otra manera, la acción de un ser humano. Si bien la IA tiene cierta capacidad cognitiva, carece de conciencia y razón (Zabala, 2021: s/p), al menos por ahora.

Frente a los riesgos éticos de la IA, surge la algorética. El llamamiento a una algorética (o ética del algoritmo) viene de la «Convocatoria de Roma por la Ética de la IA», realizada en febrero de 2020 por la Pontificia Academia para la Vida, debiéndose el origen del término al italiano Paolo Benanti 6.

La algorética no es un instrumento de restricción sino más bien de dirección y orientación (Pegoraro y Curzel, 2023, p. 325), que puede ser un excelente aliado en la lucha contra la discriminación. Así, puede hablarse de Gendertech, que puede entenderse como «el uso, desarrollo e implementación de herramientas tecnológicas que promueven la igualdad de género en el ámbito social, económico y laboral» (Ariñez, 2023, p. 170).

Existen ya softwares que detectan la discriminación en entornos laborales, el ciberacoso o el uso de lenguaje sexista en las ofertas de empleo, siendo interesante mencionar que la empresa Google cuenta con un algoritmo para la detección de las diferencias de retribuciones entre género (Ariñez, 2023, p. 172).

Empero, hay mucho por hacer todavía, siendo de anotar que la IA puede generar nuevas formas de vulnerabilidad (Navas, 2021, p. 195). Así, si una persona que ve Netflix desea ocultar su orientación sexual, ella podría ser descubierta solo sabiendo qué películas ha visto.

A pesar de la juventud del término, la algorética tiene ya algunos principios orientadores:

a) Transparencia: Comprensibilidad de los sistemas, posibilidad de poder trazar el camino del «razonamiento» seguido por la máquina.

b) Autonomía: Respeto a la autonomía y los derechos de las personas.

c) Inclusión: La IA debe desarrollarse considerando las necesidades de todas las personas.

d) Responsabilidad: Establecimiento de indemnizaciones u otras medidas ante casos en los que se hayan generado daños y perjuicios.

e) Imparcialidad: Debe evitarse los prejuicios en los sistemas, debiendo promoverse que estos actúen con equidad.

f) Fiabilidad: Los sistemas deben generar confianza.

g) No exclusividad de la decisión algorítmica: La palabra final debe tenerla un ser humano. De allí que se hable, en el ambiente académico, acerca de la necesidad de incorporar el derecho al contacto humano significativo (Navas, 2021, pp. 208-209).

h) Justicia distributiva: Evitar discriminaciones (Villalba, 2020, pp. 689-690).

i) Seguridad, integridad y privacidad: Los algoritmos deben ser seguros y viables, aun cuando haya que tener presente que «la intersección entre avance tecnológico y privacidad será cada vez más difícil de gestionar» (Castellanos, 2020, p. 78).

VI. ¿Qué ética debe tener la algorética?

Cuanta más autonomía demos a los sistemas de IA, más responsabilidad ética debemos exigir a sus diseñadores. Si algo sale mal, la culpa es de nosotros, los seres humanos, no del algoritmo.

Según un estudio publicado por la revista Science, en Estados Unidos, la mayoría de las personas prefiere comprar un automóvil autónomo que actúe en forma utilitarista si se trata de salvar a los suyos, pero en general no les parece que el algoritmo de un automóvil sea programado para actuar utilitaristamente.

En palabras de Goñi: «El espejismo tecnoutópico, sin unos valores y principios éticos que protejan a los individuos y a los grupos potencialmente vulnerables, nos puede llevar a una sociedad indeseable en sí misma» (2019, p. 27). De ahí se desprende la necesidad de que la técnica vaya acompañada de la ética.

Entonces, la preocupación moral por la creación de nuevas formas de inteligencia requiere de un exquisito criterio moral de sus diseñadores, como señala Villalba, y «al ser mayor el grado de automatización, la reflexión ética ha de tener en cuenta principios de diseño más específicos, como la trazabilidad de los algoritmos, la explicabilidad, la rendición de cuentas o la supervisión humana» (Villalba, 2020, pp. 684 y 688), llamado este último también «gobernanza de la autonomía».

La algorética —como lo ha afirmado con acierto el Papa Francisco— «podrá ser un puente para que los principios se inscriban concretamente en las tecnologías digitales, mediante un diálogo transdisciplinario eficaz».

Debido a que la IA ofrece estupendas posibilidades de desarrollo, pero también implica riesgos, debemos preguntarnos, de acuerdo con Bujosa: ¿Cómo aterrizar en términos jurídicos los principios éticos? ¿Cómo transformar los principios éticos en normas jurídicas exigibles? (2023, p. 47).

Una alternativa interesante, entre otras, puede ser enfrentar los problemas de la tecnología con tecnología. De esta manera, podemos programar los algoritmos para que propicien determinadas propiedades socialmente deseables:

a) La eficiencia: (lo que hace Waze al indicarnos la mejor ruta para llegar a un lugar).

b) La apertura: (programas que eviten los sesgos en las noticias).

c) La sociabilidad: (plataformas para propiciar las relaciones sociales).

Ahora bien, dentro de las exigencias para la aplicación de la IA, puede considerarse la supervisión humana, la reserva y debida gestión de los datos, la facilitación del acceso, etc.

Hay mucho por hacer, sin duda, pero todo parte de tener presente que el ser humano creó la tecnología para ponerla a su servicio y no a la inversa. Actualmente, pareciera ser que no somos nosotros los que poseemos la tecnología, sino que es ella la que nos posee a nosotros. Y ello debemos cambiarlo desde la ética y el derecho, retomando el rumbo de nuestras vidas, desde un humanismo tecnológico o, mejor todavía, desde una tecnología humanista.


1. Decano de la Facultad de Derecho de la Universidad de Lima. Magíster en Derecho Civil y Comercial. Magíster en Bioética y Biojurídica. Cofundador de la Cátedra Unesco en Bioética y Biojurídica en el Perú. Doctorando en Derecho por la Universidad Pública de Navarra y la Universidad de Salamanca. Miembro de la Academia de Derecho y Ciencias Sociales de Córdoba. Miembro de la Pontificia Academia para la Vida.

2. Otro caso de la citada empresa es que se descubrió que su algoritmo penalizaba explícitamente aquellos currículos que incluían la palabra «femenino» (Kearns y Roth, 2020: 72).

3. Para ver la sentencia completa: Ver sentencia completa.

4. «Nadie puede desconocer que nos encontramos inmersos en un gran proceso revolucionario en el cual existe la amenaza que el propio hombre deba comenzar a luchar por su propia existencia ante la irrupción de mecanismos de inteligencia artificial […] basados en algoritmos que son capaces de provocar reacciones (o quizás un nuevo concepto de «decisiones») de forma autónoma e independiente».

5. Diario El Peruano. Lima, edición del 22 de noviembre de 2023, p. 15.

6. «The social and ethical implications of AI and algorithms necessitate as much an algor-ethics as a governance of these invisible structures that increasingly regulate our world to avoid inhumane forms of what we might call an algo-cracy.» (Benanti, 2018).

7. «El responsable del tratamiento debe utilizar procedimientos matemáticos o estadísticos adecuados para la elaboración de perfiles, poniendo en práctica las medidas técnicas y organizativas adecuadas para garantizar, en particular, la rectificación de los factores que puedan dar lugar a inexactitudes en los datos y que se minimice el riesgo de errores.» (Miranda, 2021, p. 728).

BIBLIOGRAFÍA

Ariñez Vera, M. (2023). Gendertech: tecnología que promueve la igualdad de género en el sector jurídico. Actualidad Jurídica, (61), 168-172. https://dialnet.unirioja.es/servlet/artículo?codigo=8967035

Benanti, P. (2018). Oracoli. Tra algoretica e algocrazia. Luca Sossella Editore.

Bujosa Vadell, L. (2023). ChatGPT y proceso. En D. Guerra Moreno (Coord.), Constitución y prototipos de inteligencia artificial en el proceso. Grupo Editorial Ibañez.

Castellanos Claramunt, J. (2020). La gestión de la información en el paradigma algorítmico: inteligencia artificial y protección de datos. Métodos de Información, 11(21), 42-58. https://dialnet.unirioja.es/servlet/artículo?codigo=7966054

Gómez Rodríguez, J. M. (2022). Inteligencia artificial y neuroderechos. Retos y perspectivas. Cuestiones Constitucionales. Revista Mexicana de Derecho Constitucional, 1(46), 93-119. https://doi.org/10.22201/iij.24484881e.2022.46.17049

Goñi Sein, J. (2019). Defendiendo los derechos fundamentales frente a la inteligencia artificial. Lección inaugural del curso académico 2019-2020. Universidad Pública de Navarra.

Hadibi, Z. (2022). Refugiados y/o estudiantes extranjeros en la enseñanza superior en Argelia: ¿qué estatuto para qué integración? Revista Electrónica de Derecho de la Universidad de la Rioja (REDUR), (20), 119-146. https://doi.org/10.18172/redur.5647

Kearns, M., y Roth, A. (2020). El algoritmo ético. La ciencia del diseño de algoritmos socialmente responsables. La Ley-Wolters Kluwer.

Martínez Mercadal, J. J. (2018). Vehículos autónomos y derecho de daños. La estructura clásica de la responsabilidad civil frente al avance de la inteligencia artificial. Revista de la Facultad de Ciencias Económicas, (20), 55-73. https://doi.org/10.30972/rfce.0203267

Miranda Bonilla, H. (2021). Algoritmos y derechos humanos. Revista de la Facultad de Derecho de México, 71(280), 705-732. https://revistas.unam.mx/index.php/rfdm/article/download/79666/70622

Navas, O. (2021). En el umbral de una nueva era: el derecho privado ante la robótica y la inteligencia artificial. Revista Facultad de Jurisprudencia, (9), 178-219. https://scholar.archive.org/work/3zl67bdka5b3hjxz7225vbpgji/access/wayback/ http://www.revistarfjpuce.edu.ec/index.php/rfj/article/download/309/184

Pegoraro, R. y Curzel, E. (2023). Convocatoria de Roma por la Ética de la IA: el nacimiento de un movimiento. Medicina y Ética, 34(2), 315-349. https://doi.org/10.36105/mye.2023v34n2.01

Sánchez-Escribano, M. I. M. (2023). Los retos jurídicos de la inteligencia artificial a través de seis casos reales. The Conversation. https://theconversation.com/los-retos-juridicos-de-la-inteligencia-artificial-a-traves-de-seis-casos-reales-200850

Téllez Carbajal, E. (2021). Derechos humanos, ética y transparencia algorítmica. Ius et Scientia, 7(1), 370-386. http://doi.org/10.12795/IESTSCIENTIA.2021.i01.19

Villalba, J. F. (2020). Algor-ética: la ética en la inteligencia artificial. Anales. Revista científica, 17(50), 679-698. https://doi.org/10.24215/25916386e062

Zabala Leal, T. D. (2021). La ética en inteligencia artificial desde la perspectiva del derecho. Via Inveniendi Et Iudicandi, 16(2). https://doi.org/10.15332/19090528.6785