EDWIN FIGUEROA GUTARRA [1]
[Resumen]
El desarrollo de la inteligencia artificial (IA) a pasos agigantados en los últimos lustros es una verdad innegable. Sus efectos en la función jurisdiccional son igualmente importantes. La aparición del ChatGPT como un modelo coloquial de conversación que puede analizar, inclusive casos judiciales, demanda nuestro interés, nuevamente, por dilucidar cuál puede ser el alcance de la IA en relación con el trabajo judicial. La propuesta a construir es de una relación de complementariedad de la IA respecto a la labor de los jueces, y no la sustitución de los mismos. La complejidad de la función del juez hace necesaria e indispensable la labor de este.
Palabras clave: Inteligencia artificial, ChatGPT, jueces, función jurisdiccional, conflictos máquinas-jueces
[Abstract]
The development of Artificial Intelligence (AI) by leaps and bounds in the last decades is an undeniable truth. Its effects on the jurisdictional function are equally important. The appearance of the ChatGPT as a colloquial model of conversation that can even analyze judicial cases, demands our interest, once again, in elucidating what the scope of AI can be in relation to judicial work, and the proposal to build is a relationship of complementarity of the AI with respect to the work of judges, and not their replacement. The complexity of the function of the judge makes his work necessary and indispensable.
Key Words: Artificial Intelligence, ChatGPT, judges, jurisdictional function, machine-judge conflicts
I. INTRODUCCIÓN.
II. INTELIGENCIA ARTIFICIAL, CHATGPT Y FUNCIONALIDADES.
III. HABILIDADES COGNITIVAS PARA EL TRABAJO JUDICIAL. ¿EXISTE INDISPENSABILIDAD?
IV. LA IA COMO COMPLEMENTO DE LA FUNCIÓN JURISDICCIONAL.
V. MÁQUINAS Y JUECES: ¿RELACIÓN DE CONFLICTO?
VI. GLOSARIO DE CRITERIOS PARA UNA BUENA RELACIÓN IA-JUECES.
VII. IDEAS A TÍTULO DE CONCLUSIÓN.
La asistencia humana en el desarrollo, implementación y afianzamiento de las herramientas tecnológicas de apoyo a la función jurisdiccional ha sido moneda corriente, convencional y ordinaria. Es la inteligencia humana la esencia que consolida la funcionalidad, eficacia y utilidad de diversos instrumentos como expedientes judiciales electrónicos, sistemas integrados judiciales de toda la data de procesos, audiencias virtuales, notificaciones electrónicas, entre muchos otros recursos. La premisa de la cual parte toda esta construcción piramidal de datos es la indispensabilidad de la mente humana para la ejecución y buen desempeño de estos medios de apoyo.
Sin perjuicio de lo esbozado supra, y sobre la base de las reflexiones que anteceden, es cuestión de este estudio preguntarnos, a raíz de la reconocida herramienta ChatGPT —un audaz sistema de respuestas contextuales bien construidas dentro de sistemas de inteligencia artificial (IA)—, si esa acotada y tradicional dependencia humana hacia la tecnología seguirá siendo la misma o no a partir de este sistema inteligente de respuestas coloquiales suficientemente argumentadas frente a problemas planteados.
Ciertamente, la herramienta que aludimos aún se encuentra en fase de implementación, pero hasta donde se registra avances de la data obtenida sin duda hemos de poner espacios entre paréntesis respecto a la necesidad ineludible de los humanos en cuanto a la construcción de respuestas inteligentes frente a problemas determinados. Estonia ya es un buen ejemplo de referencia sobre lo que acotamos, pues un caso judicial que no supere los 7 000 euros, en materia de daños y perjuicios, es íntegramente solucionado por un sistema de IA.
Seamos más directos en la cuestión que planteamos: ¿se afianzarán de modo tan eficiente ChatGPT u otros programas parecidos que ya no será indispensable, en su totalidad, la fiscalización humana? Somos los humanos quienes hemos construido ese software, así como somos nosotros, prevalentemente, quienes asignamos las funcionalidades de esos sistemas y, sin embargo, ¿será tan eficiente nuestro trabajo en esa materia que el alumno producto puede superar al maestro creador?
Sin duda, la respuesta merece las más diversas tentativas de esbozo, pero una cuestión ya es muy cierta: la IA avanza a pasos veloces e inconmensurables, casi inconcebibles, de tal forma que no sería incongruente pensar en la posibilidad de que una máquina haga tan eficientemente su trabajo que, aunque no compartimos este juicio, pudiera prescindirse del juez mismo. Somos contrarios a esta alternativa pero su escrutinio es parte de este estudio.
Es un escenario cuasi irreal, pero es menester preguntarnos si no sería aquello una posibilidad a barajar más en el largo plazo que en el mediano plazo, y ni qué decir del corto plazo, pues la indispensabilidad de nosotros para la tecnología y, por ende, la IA, hoy es manifiesta, ineludible e incontestable.
Parafraseando a Galileo Galilei, nos preguntamos si no será que el mundo se mueve más rápido de lo que pensamos, mientras los jueces nos regocijamos de que somos absoluta y realmente necesarios cuando, en realidad, el futuro apunta hacia una consolidación aun mayor de la IA y una probable restricción, muy lenta pero progresiva, de ocupaciones respecto a las cuales imaginamos no sufrirán menoscabo alguno, pero que podrían, tras un crecimiento potencial de la IA, resultar prescindibles.
Redactar una sentencia o un fallo judicial es una tarea de alta complejidad, requiere baremos de diverso orden: habilidades cognitivas, capacidad de razonamiento jurídico, estudio integral del caso, buena redacción, destrezas argumentativas, entre otras exigencias de valor.
La pregunta clave es si ChatGPT estará en la posibilidad de alcanzar parte o muchas de esas competencias, de tal forma que, en algún momento, la profesión de juez pudiera ser de aquellas ocupaciones que podrían, antes que ser reemplazadas, ser aminoradas en su indispensabilidad.
Ciertamente, lo esbozado en estas líneas tiene un matiz de especulación considerable. Yo mismo sigo pensando, como juez e investigador, que el rol del juez es indispensable en el Estado de derecho y que su tarea es imprescindible. Y, sin embargo, llegó un día la Revolución Industrial y produjo una enorme desocupación.
De igual forma, un día apareció el automóvil y los caballos y las carretas debieron ser desplazadas, asimismo, un día aparecieron las computadoras y el trabajo humano se tecnificó de tal manera que muchas labores manuales desparecieron. Y a pesar de todo esto, el mundo siempre se recompuso, con una capacidad de adaptación que en buenas cuentas demostró la adaptabilidad del ser humano a los nuevos contextos.
Asumimos que lo mismo pasará con ChatGPT, pues si llega a desempeñar un trabajo de suma eficiencia, deberá recomponerse la función jurisdiccional y esta se adaptará a los nuevos entornos. Y de consuno, habremos de asignarle a la IA su rol de elemento coadyuvante en la impartición de justicia. Eso esperamos.
La aparición de la computadora y el acceso abierto a internet marcaron para el ser humano —ya en la segunda mitad del siglo XX— una especie de Cuarta Revolución Industrial. Desde entonces, la IA que busca imitar la inteligencia humana usando algoritmos y sistemas ha desarrollado incesantemente —y hoy está, prácticamente, en todas las facetas de nuestras vidas— desde la función básica de acceder a nuestro correo electrónico a través del celular hasta la interacción intensiva con una serie de aplicaciones, como acceder a un expediente electrónico o acceder en función de segundos a bases de datos de jurisprudencia nacional y extranjera, así como a documentos en línea que coadyuvan al trabajo judicial. De esta manera, la IA se ha convertido en un elemento indispensable de nuestro día a día.
El ChatGPT (Generative Pre-trained Transformer), creado por la empresa OpenAI, es un chatbot, esto es, una herramienta que usa algoritmos de IA, capaz de conversar, con cierto nivel de solvencia, con la persona con la que interactúa. Utiliza un lenguaje natural que se basa en el uso de una gran cantidad de datos previos, a fin de construir respuestas precisas. Se trata de imitar el lenguaje humano con la mayor eficiencia posible. Puede crear textos, redactar cartas, componer poemas, letras de canciones y artículos periodísticos (SOMOS, p. 37), aunque ciertamente sin distinguir, todavía, información verdadera de aquella falsa, de tal manera que he aquí, por ahora, una debilidad de este sistema. En propiedad, se trata de «sistemas de procesamiento de lenguaje natural […] diseñados para entender e interpretar el lenguaje humano» (Boza, 2023, p. 26).
Sobre lo afirmado supra, observemos que «la sorpresa no es la IA misma […] sino las habilidades de la aplicación y lo extenso de sus campos de uso (y abuso)» (García, 2023, p. 23). En ese orden de ideas, la IA puede desarrollar facetas utilitarias, aunque ciertamente sea otro rango en el que pueda producirse un indebido uso de la misma, rompiendo principios éticos.
Sin embargo, he aquí dos aspectos a tener en cuenta: por un lado, es el hombre quien alimenta de información el programa de IA; y, por otro lado, la aplicación a la que aludimos es finalmente una obra del ingenio humano. Esto puede acarrear la natural consecuencia de que las fallas del ChatGPT, en esencia, sean atribuibles a los errores del programador humano. Pero en adición a lo expresado, una buena alimentación de información —diríamos confiable, basada en evidencia razonable y además seriamente trabajada— sin duda logrará un resultado beneficioso.
El quid de nuestro debate, no obstante, escala a otro nivel: sobre la base de esa información confiable bien diseñada, ¿cuál es el nivel de eficiencia que puede alcanzar el ChatGPT? Nos referimos a que, si este programa elabora con solvencia, a partir de un lenguaje bien utilizado, una respuesta a un problema, en nuestro caso, una decisión judicial, ¿cuál será el alcance de eficiencia de esa decisión?, ¿podríamos pensar en que la función del juez sea reemplazable?
La respuesta convencional, congruente y lógica, por ahora, asume un sentido negativo, y en ello estamos plenamente de acuerdo. Entonces, sin perjuicio de lo expresado, ¿podrá esta respuesta tener el mismo nivel de eficiencia en 50 años? Quizá sigamos enfáticamente asegurando la prevalencia del género humano. ¿Y, en 100 años, seguirá siendo nuestra respuesta contundentemente negativa? He ahí una cuestión fundamental.
OpenAI, la empresa creadora de este programa, diseña este instrumento a partir de la recopilación de inmensas bases de datos, las cuales conjuga inteligentemente. De ahí que, ante un cuestionamiento, sea capaz de contestar, con lenguaje natural, las interrogantes que se presenten para ser esclarecidas.
Si asumimos que un caso pueda ser planteado a ChatGPT 4, una versión muy avanzada, es de corroborarse que el programa va a analizar la información que se le solicite esclarecer a partir de varias plataformas de información, principalmente del contexto normativo del problema, esto es la base de legalidad necesaria; del soporte jurisprudencial de la decisión, para lo cual podrá acceder muy rápidamente a miles de bases de datos jurisprudenciales, y del respaldo incluso doctrinario del caso.
Entonces, claramente hay una ventaja sobre lo humano en cuanto a velocidad de acceso a la información, aunque el lado humano ciertamente aún conserva una ventaja incomparable: su capacidad de abstracción para analizar cuestiones de alta complejidad.
Sin embargo, si ChatGPT 4 mejora y escala a versiones más acabadas, ¿se hace prescindible el concurso humano? Nuestra apuesta tentativa es que no. La base de esa respuesta, en concreto, reside en que la mente humana es creadora de las funcionalidades de la IA y que esta depende de la función cognitiva humana para su desarrollo. Es el hombre el creador de la IA y no al revés, de tal forma que aquí reside una ventaja comparativa de valor.
En forma complementaria a lo expresado sobre las potencialidades de la IA, García señala que «CHAT GPT ya aprobó exámenes para ser médico en EE. UU.» (2023, p. 23), lo cual conduce a reflexiones complementarias que el mismo autor acota: «¿Puede diagnosticarme? ¿Puede ser mi representante legal en un juicio?». Sin duda, hay un aspecto evolutivo de la IA que merece ser evaluado: ¿cuánto puede crecer? Las respuestas, por ahora, solo son tentativas. Además, a nivel judicial, los esbozos incluso son claroscuros, mas procuremos escrutar algunos de estos planteamientos.
La indispensabilidad del trabajo cognitivo del juez se sustenta en su capacidad de examen de cuestiones sumamente complejas, para las cuales la IA, por ahora, no tiene discernimiento intuitivo y prevemos que no lo tendrá aún por mucho tiempo. El asunto en debate es ¿por cuánto tiempo?
La labor cognitiva del juez parte de varios supuestos que son importantes de enunciar:
Examen racional de los jueces: Al resolver problemas de relevancia jurídica, se basa en la capacidad de conjugar alternativas normativas, esto es, el conocimiento de la ley y de la Constitución, en modo solvente, es una condición necesaria para abordar cualquier problema jurídico. El juez dirimirá si es aplicable la ley A o la B al caso que se le presenta. Y de ser el caso, incluso deberá aplicar principios, lo cual es de por sí una exigencia de mayor abstracción.
El cerebro humano posee miles de millones de neuronas que, al hacer sinapsis —esto es, un ejercicio de conexión—, produce una idea o conclusión respecto a un problema determinado. Por lo tanto, la inferencia de la aplicación de reglas y sobre todo de principios, cuando estos representan mandatos morales, aún está lejos de la IA. Esta aún no puede sentir la conmoción humana de examinar el derecho a la dignidad, o ver los alcances axiomáticos del derecho a la verdad, o examinar la ética material del derecho al honor.
Examen racional de la jurisprudencia: Comprende una capacidad de escrutinio de la jurisprudencia como fuente de derecho. La IA realiza un examen expositivo y descriptivo de la jurisprudencia vinculada al caso que se pretende resolver. Por el contrario, el juez desarrolla un discernimiento para realizar ejercicios de correlación entre una ejecutoria vinculada al caso que le ocupa, así como determina su vinculación o exclusión respecto de la materia que analiza. Este ejercicio es complejo en varios aspectos, pues se trata de realizar contrastaciones que la IA, creemos, aún no puede desarrollar.
Base doctrinaria: Vinculada al caso, igualmente demanda un ejercicio de correlación, abstracción y comparación. El examen a profundidad de las ideas aún es patrimonio humano y la IA, por más entrenada que pueda estar, aún no saldría de una visión descriptiva de las nociones de la doctrina. En este ámbito, el juez conserva una importante ventaja frente a la IA.
Contexto de descubrimiento y justificación: El trabajo judicial requiere diferenciar el contexto de descubrimiento, entendido como un ejercicio de toma de posición que puede asumir un matiz idiosincrásico del contexto de justificación.
¿Podría la IA ser machista y racista? Asumimos que, si la misma IA recoge una inmensidad de datos de internet y aún no puede diferenciar lo moral de lo inmoral, lo ético de lo no ético, puede incurrir en estereotipos y prejuicios, dos elementos negativos para la formación de un correcto juicio jurídico.
A su vez, el contexto de justificación implica el aporte de razones debidamente sustentadas para arribar a una conclusión correcta. La IA aún debe afinar sus estándares para justificar suficientemente una conclusión correcta.
Justificaciones internas y externas: El juez elabora una justificación interna, así como una justificación externa, cuyos baremos, secuencia lógica en el primer caso, y corrección material de las premisas, en el segundo, completan un juicio técnico de alta complejidad.
La lógica del caso puede ser satisfecha por la IA, convenimos en ello, pero nos asiste la duda de que la IA pueda desarrollar eficientemente este trabajo, por cuanto representa un ejercicio muy complejo de conexión de ideas para determinar la validez y legitimidad de una conclusión.
Razonabilidad y proporcionalidad: El juez aplica estos estándares como base de justificación de su decisión. Ambos elementos recalan en nociones de justicia, equidad y aceptabilidad de las premisas que sustentan una decisión.
Examinar el concepto de justicia representó una tarea emotivista para Kelsen y, por tanto, el mismo pensador austriaco daba ya cuenta de la complejidad del concepto, acercándolo a la irracionalidad. Por su lado, la equidad es un ideal enteramente humano, que involucra un profundo examen ético del problema. A su turno, la aceptabilidad implica un ejercicio de discernimiento de suyo complejo. La IA aún no entra con éxito a estos ítems de ejercicio judicial.
A tenor de lo expuesto, la indispensabilidad a la que aludimos puede ser entendida y percibida como una necesidad ineludible de la persona real del juez respecto a la función jurisdiccional misma y, sin embargo, parte de nuestra reflexión debe abordar, igualmente, el eje de análisis de qué debemos percibir por la persona del juez.
El concepto tradicional alude a la figura del juez como una persona que físicamente conoce directamente un caso y resuelve esa controversia en función de las competencias que le asignan la Constitución y las leyes. Esa ha sido la percepción per secula seculorum, esto es, por siempre.
El otro punto de debate, aquí en juego, es qué rol puede desempeñar la IA respecto a esa indispensabilidad a la que aludimos y, en definitiva, jugamos con la variable, por ahora negada, de que un trabajo sumamente eficiente de la IA pudiera abrir el debate o la idea de relativizar esa indispensabilidad a la que nos referimos.
En razón de lo expuesto líneas arriba, volvemos a sostener la premisa de la complementariedad de la IA respecto al trabajo judicial. Esa debe ser la insignia del debate, pero somos conscientes de que aquí se abre un espacio de análisis que requiere mayor escrutinio: ¿por cuánto tiempo más se sostendrá incólume esa indispensabilidad?
Lo descrito en líneas supra nos conduce a un importante propósito: la IA debe ser complemento de la función jurisdiccional y no constituir un peligro para la labor del juez en términos de sustitución. La IA llega a nuestras vidas como un complemento que apunta a hacer más eficiente la labor humana y no a excluir esta de los fines de realización del género humano.
Las políticas públicas con base en la IA, entonces, requieren de elementos de sustento que no persigan una concepción economicista del problema, en el sentido de que se puede ahorrar mano de obra si la IA logra desarrollar, con más eficiencia, el trabajo humano.
Una base material de complementariedad de la IA, por tanto, partiría de los siguientes supuestos a considerar:
La IA está al servicio del hombre y no el hombre al servicio de la IA. En el caso de los jueces, la IA debe funcionar y ser preconcebida como herramienta de trabajo, a fin de optimizar la función jurisdiccional. Sin embargo, aquí cabe una digresión de no menor interés: ¿podrá avanzar la IA a tal punto que pueda generar sus propios códigos de desarrollo y con ello hacer cada vez menos prescindible la supervisión humana? No podemos emitir una respuesta categóricamente negativa.
ChatGPT ha dado muestras suficientes de poder desarrollar un lenguaje coloquial, hasta cierto punto muy organizado, que incluso evita el plagio, situación que a futuro no permitirá distinguir, con nitidez adecuada, qué fue obra del ser humano y cuál fue el aporte de la IA.
Aun así, e incluso bajo las pautas de desarrollo de principios éticos en cuanto al manejo de la IA, es un aspecto incontrastable la premisa que proponemos, puesto que la IA debe estar al servicio, en el caso que nos ocupa, de la impartición de justicia y no al revés, en cuanto, incluso, pueda esbozarse la idea de que requiriéramos mejores softwares de análisis de casos y menos jueces para este efecto.
La IA puede ser un eficiente complemento del trabajo jurisdiccional, asumiendo que esta representa celeridad en las tareas humanas. Si nos atenemos a que la IA puede leer millones de páginas en cuestión de segundos, así como puede organizar una respuesta para un problema determinado en muy poco tiempo, es de inferir que nuestras capacidades humanas de análisis se ven ampliamente rebasadas.
Supongamos, en vía de ejemplo, la exigencia de revisar la jurisprudencia comparada a nivel interamericano en materia de libertad de expresión y derecho al honor. La IA podría en muy poco tiempo aportarnos elementos base de juicio suficientes para asumir una visión panorámica muy completa de cuál ha sido la evolución del pensamiento jurídico de la Corte Interamericana de Derechos Humanos sobre la materia.
La IA nos proporcionaría elementos de juicio suficientes, lo creemos así, para emitir una decisión. Si el trabajo fuera enteramente humano, de seguro habría que conocer, de inicio, las principales decisiones de la Corte sobre la materia. En ese sentido, la IA supera sin dudas, en términos de rapidez de acceso a la información y de construcción de facetas descriptivas, nuestra capacidad de análisis.
La eficiencia de la IA optimiza la convivencia social. De suyo, las relaciones humanas mejoran cuando nuestras necesidades son satisfechas de manera más óptima. A mayor eficiencia de la IA, menor exigencia de un trabajo humano mecanizado, reservándose la función del juez para tareas de complejidad o, en su caso, de supervisión del esbozo del problema que pueda plantear la IA.
Con esto aludimos simplemente a que las horas-hombre necesitadas para determinadas labores se van a reducir en su aspecto mecánico, así como se van a optimizar de acuerdo a sus fines o su significado material. En relación con el trabajo de los jueces, es necesario destacar que una justicia eficiente cumple un fin social, en tanto que una justicia morosa, por falta de medios virtuales adecuados para el cumplimiento de sus fines, sería objeto de reprobación social.
En esa línea de reflexión, creemos que la IA puede lograr optimizar el trabajo de los jueces ante la sociedad y, de seguro, mejorar los estándares de aprobación del trabajo judicial, los cuales, dicho sea de paso, no suelen lograr índices de aceptación regulares, óptimos y satisfactorios por parte de la sociedad civil, dados los medios insuficientes que muchas veces acusan los Poderes Judiciales en general.
Nuestro glosario de reflexiones para consolidar la IA como un complemento de la función jurisdiccional de seguro se ampliaría al abordar más ejes de discusión, no obstante, todas estas reflexiones tienen la peculiaridad de destacar un aspecto sustantivo: la IA no debe ejercer un rol de sustitución del trabajo jurisdiccional —riesgo que el futuro no descarta por completo— sino una función de apoyo para la optimización del trabajo de los jueces. Y de seguro esa evolución de opciones habrá de cuidar que no se lesione alguno de los derechos sustantivos de las partes, como el derecho a la tutela jurisdiccional efectiva.
Respecto a ello, como referencia de las limitaciones de la IA, podría servirnos el ejemplo de una audiencia virtual que de suyo tendría restricciones para un contrainterrogatorio en materia penal, lo cual la tecnología aún no puede hacer; o bien no serían suficientes las facultades de la IA para lograr un careo idóneo entre las partes y, sin embargo, la idea es latente: habrá que seguir optimizando el sistema de impartición de justicia, siendo la IA una necesaria herramienta para ajustar, cada vez más, manifestaciones virtuales como audiencias, expedientes electrónicos, firmas digitales, sistemas integrados judiciales, entre otras muchas opciones que los Poderes Judiciales vienen desarrollando en todos los ámbitos geográficos.
Es parte neurálgica de nuestro análisis examinar y desarrollar algunas reflexiones sobre la relación de conflicto que podría generarse —aseveración hecha en tiempo condicional— entre máquinas y jueces o, para efectos de los términos que usamos más recurrentemente, entre IA y jueces, y a tenor de lo esbozado supra, entre ChatGPT y jueces. Si bien es cierto que debemos tener en cuenta que «las posibles aplicaciones de la inteligencia artificial parecen ilimitadas», (Boza, 2023, p. 26), igualmente habrá que considerar que ese desarrollo no debe generar conflictos.
La reflexión que antecede parte de una cuestión muy puntual esbozada anteriormente, que ahora merece un poco más de espacio: si la IA desarrolla su trabajo de forma eficiente en el ámbito jurisdiccional, y lo hace alguna vez a futuro, incluso de modo más óptimo que el juez, entonces este último sería —nuevamente usamos el tiempo condicional— en algún momento prescindible. La frase antes aludida puede resultar dura desde un contexto de posiciones institucionales, por cuanto el rol del juez es imprescindible, y creemos que siempre lo será, en un Estado de derecho.
Y sin perjuicio de lo expresado, pues en tiempos de valoración hiperlativa de la productividad jurisdiccional y de la preocupación manifiesta por la descarga procesal, esa posición de imprescindibilidad vuelve a ser materia de debate, dado que desde el momento en que un software avanzado, como ChatGPT, puede superar ampliamente la mera tarea de recopilación de datos como la que desarrolla Google y otros buscadores jurisprudenciales de raigambre jurídica y, más aún, logra un nivel de eficiencia interesante para construir respuestas coloquialmente aceptables, entonces resulta claro que allí existe un conjunto de situaciones, en mayor o menor grado, que es importante advertir.
En primer lugar, la cuestión de si la IA pudiera acaso desplazar la labor humana es una reflexión, necesariamente, para el tiempo futuro. No debería suceder aquello, ni creemos que suceda en muchas décadas más, pero no podemos negar, en este análisis, que la IA avanza a pasos tan agigantados que ya no podemos descartar, con total seguridad, que ella progrese incluso mucho más en sus estándares de eficiencia y que se pudiera —frase que no nos agrada— confiarse más en una máquina que en la labor del juez.
¿Cuánto más puede desarrollarse la IA? Paredes señala que «si quisiéramos hacer una analogía con el desarrollo humano, podríamos decir que hoy la inteligencia artificial se encuentra en la Edad de Bronce» (2023, p. 21). La revelación que antecede es de utilidad: de seguro aún puede desarrollar muchísimo más la IA, pero no debemos perder la perspectiva más importante y esta es, a juicio nuestro, que su evolución debe tener en cuenta, insoslayablemente, el recurso humano.
En adición a lo expresado, es importante destacar que la supervisión humana siempre será una tarea necesaria. La IA evoluciona en función de la asignación de valores y competencia que el ser humano le asigna a la propia IA. Esta última funciona con un eje de acción que proviene de los estándares que fija el ingenio humano. De ahí que una prescindencia de la labor cognitiva humana sería una exigencia a considerar, que no se puede ni se debe excluir.
Será importante, por ese propósito, reforzar las exigencias éticas de los principios de desarrollo de la IA en relación con el trabajo humano en general y el trabajo judicial en particular, pues las controversias judiciales tienden a ser complejas y su dilucidación requiere de la competencia de los jueces, quienes resultan actores centrales de las controversias, así como les compete la dilucidación última de la discusión sobre derechos que las partes pudieran plantear.
Al respecto, es cuestionable lo siguiente: «¿Promoverá la inteligencia artificial el bien o, más bien, el mal? ¿Y exige la creación de una nueva ética?» (Villarán, 2023, p. 23). Consideramos que, aun cuando se trata de situaciones difíciles de esclarecer, ciertamente hay un norte claro: los principios éticos deben conducir el desarrollo de la IA.
Y en esta misma ruta de ideas, si la ética no va de la mano con la IA, entonces facetas humanas tradicionalmente exigentes pueden verse afectadas a tal punto que, como señala Villarán, es «otro ejemplo de su mal uso: el uso del ChatGPT para el fraude académico» (2023, p. 23). La premisa es directa: si ChatGPT construye con total originalidad un argumento, es difícil prever, lo entendemos así, que una IA haya creado un raciocinio coloquial bien desarrollado.
A esto se suma que «el asunto se vuelve bastante más delicado si la inteligencia artificial gana autonomía moral; es decir, si es creada de manera tal que no solo distingan entre el bien y el mal, sino que tenga la libertad de elegir el mal. Acá sí surgiría un riesgo existencial: el del sometimiento o la extinción humana». (Villarán, 2023, p. 23) ¿Existe un riesgo al respecto? La solidez de la reflexión no nos conduce a descartarla de inmediato. Una IA con autonomía decisoria no sería, en ningún caso, un escenario óptimo.
De ahí que es necesario reforzar la idea de complementariedad de la IA, reservándole un lugar de valiosa herramienta para la optimización del trabajo de los jueces, mas no por su imposibilidad directa, que pueda constituirse en un sustituto de la labor judicial.
La relación IA-jueces puede siempre mejorar. Tentativamente podemos considerar algunas cuestiones de relevancia:
En ese orden de ideas, la enorme información que año tras año generan los corpus iuris judiciales exige políticas de sistematización muy avanzadas, que a su vez permitan a la ciudadanía acceder con solvencia a esa información.
Las reflexiones que anteceden son convergentes y, por ende, tienen varios puntos en común. Uno de ellos es el escrutinio respecto a que la IA pueda avanzar tan velozmente, como hemos esbozado supra, que supere el trabajo humano del juez.
En relación con ello, cobra actualidad la reflexión de Ortiz, quien acota una preocupación latente: «¿Es que la idea de que los robots nos dejen sin trabajo ahora sí cobra más sentido? […] Desde la construcción del sirviente automático de Filón de Bizancio hace más de 2200 años, ya los griegos se empezaban a hacer la misma pregunta». (2023, p. 18)
El asunto esbozado presenta complejidad, pero abre espacio para remitirnos a que ratifiquemos el matiz utilitario de la IA. Los jueces no se pueden quedar sin trabajo, lo entendemos así, si se refuerza una idea de complementariedad de la IA respecto al trabajo judicial.
Sobre ello, es de acotarse, adicionalmente, que «por más desarrollada que sea una IA, sigue siendo una construcción humana […] la visión protecnología se olvida de que dicha tecnología fue hecha por personas con sus propias dimensiones, realidades, prejuicios y miedos». (Iriarte, 2023, p. 18)
La esencia de la IA, reiteramos, es su carácter de construcción humana y por aquí discurre nuestra reflexión. Si el hombre construyó la IA, es el hombre quien debe señalar los límites al respecto, ineludiblemente.
La IA, entonces, nos deja varias lecciones. Además, un reto como supone ChatGPT incluso complejiza el debate. Señala Vizcarra que «esta IA es capaz de generar textos o resúmenes a partir de una palabra o contexto, pudiéndole exigir el número de palabras exacto». (2023, p. 22)
De esa forma sería si lo vemos como una ventaja comparativa, un alto nivel de eficiencia para el trabajo judicial. Por tanto, observemos el lado potencialmente beneficioso: ¿mejorarían esas manifestaciones operativas el quehacer jurisdiccional? Sin duda la respuesta es positiva.
Tampoco se trata de que la IA elimine plazas de trabajo si ella avanza exponencialmente. Los jueces han de adaptarse, de seguro, a las nuevas circunstancias. Bedoya explica que la IA «supone una revolución tecnológica que probablemente acabe con algunos trabajos y genere otros. Podría ser el futuro copiloto de la inteligencia humana» (2023, p. 27). Observemos el lado potencial positivo, pues la función jurisdiccional debe adaptarse a los nuevos retos tecnológicos que plantee la IA.
Planas acota que «la llegada de las nuevas tecnologías consiguió hace años que los lectores busquen y participen, reciban y aporten. Un periodista cultural ya no tiene el poder de antaño para imponer criterios» (2023, p. 19). Esta reflexión permite que construyamos algunas conclusiones, a partir de la idea de que la IA implica nuevos retos, nuevos contextos, nuevas realidades.
La IA, ciertamente, ha cambiado muchos patrones de comportamiento humano y ha transformado, como se señala, incluso la inveterada costumbre de un aprendizaje tradicional a través de liderazgos de opinión. Hoy la IA tiene omnipresencia en las redes sociales y es parte integral de nuestras vidas. No lo podemos negar.
En cuanto a nuestro estudio, hemos querido desarrollar, en este análisis, algunos lineamientos de valor en la relación IA, ChatGPT y las funcionalidades de estos sistemas. Resulta de gran importancia enfatizar que el desarrollo de habilidades cognitivas respecto al trabajo judicial es una cuestión que atañe a la mente humana y, por lo tanto, la presencia del juzgador en los conflictos es indispensable, debiéndose destacar, sobre este particular, el rol de la IA como complemento, jamás como sustituto, de la función jurisdiccional.
Desde otra perspectiva, ciertos matices de desarrollo de la IA han promovido la idea de que entre máquinas y jueces hay una relación de conflicto. Desde nuestro punto de vista, esa relación, volvemos a acotar, es de complementariedad, dado el fin utilitario que debe tener, inevitablemente, la IA.
Cerramos nuestros planteamientos con un glosario de criterios para una buena relación IA-jueces, a modo de ideas, pautas y lineamientos que deben tenerse en cuenta a propósito del ámbito de conflicto que supone una tesis de sustitución del trabajo jurisdiccional por parte de la IA.
En función de lo expuesto, es verdad que parece haber transcurrido mucho tiempo desde las manifestaciones primeras del hombre, en tiempos de las cavernas, cuando aquel contempló la inmensidad de los cielos y seguramente se imaginó acaso algún día surcar velozmente, de alguna forma, esos espacios para él lejanos.
Ese tiempo parece remotísimo si hoy aludimos a un desarrollo exponencial de la IA y, sin embargo, siempre existe espacio para el asombro de la mente humana. De manera que esto es lo que la IA puede finalmente lograr a través de herramientas de máxima utilidad como ChatGPT.
Veamos pues, entonces, que ese desarrollo sea siempre mesurado, controlado y guiado por estándares éticos, de modo que la IA no se nos vaya de las manos. Más aún, es un deber ético para la humanidad que la IA y sus diversas manifestaciones como el ChatGPT no se nos vayan de las manos. El futuro debe ser confiable, lo cual depende mucho de nosotros.
Boza, P. (2023, 12 de marzo). Avances y desafíos de la Inteligencia Artificial. El Comercio, 26.
Bedoya, J. (2023, 26 de febrero). Conversación en la catedral artificial. El Comercio, 27.
García, J. (2023, 4 de marzo). Inteligencia artificial vs. «natural». El Comercio, 23.
García, O. (2023). La rebelión de las máquinas. Somos. Año XXXV (1893). Edición de 18 de marzo de 2023, 35-40.
Iriarte, E. (2023, 3 de febrero). ¿Leyes para la inteligencia artificial? El Comercio, 18.
Ortiz, B. (2023, 3 de febrero). El reto de no dejar de ser inteligentes. El Comercio, 18.
Palacio, A. (2023, 17 de enero). Valor humano para la inteligencia artificial. El Comercio, 22.
Paredes, J. (2023, 12 de marzo). La vida después del ChatGPT. El Comercio, 21.
Planas, E. (2023, 16 de marzo). Elogio de la inteligencia artificial. El Comercio, 19.
Villarán, A. (2023, 20 de marzo). ChatGPT: ¿Algo nuevo bajo el sol? El Comercio, 23.
Vizcarra, M. (2023, 23 de febrero). El chatbot de cada día. El Comercio, 22.