viernes, 15 noviembre, 2024
InicioSociedadInteligencia Artificial en la justicia:un algoritmo puede definir culpables o inocentes?

Inteligencia Artificial en la justicia:un algoritmo puede definir culpables o inocentes?

«Se que a vos te gusta la Inteligencia Artificial (a mí también me gusta mucho) y ya que en unos días te vas a EEUU y lo vas a ver a Elon Musk, ¿por qué no le preguntas cómo podemos hacer para crear un Poder Judicial con Inteligencia Artificial? ¿Te imaginás la guita que se ahorraría el Estado y todos los argentinos?».

Cristina Fernández de Kirchner puso sobre la mesa una pregunta clave. Mientras el país entero debate el fallo de la Cámara de Casación Penal que ratificó la condena en su contra, la expresidenta se cuestionó qué pasaría si se le brindaba a una inteligencia artificial la responsabilidad de definir culpabilidad o inocencia. Esta pregunta, más que disruptiva en ese nivel de la política local, no es nueva. La revolución tecnológica de la IA irrumpió con toda velocidad en los últimos años y vivió una feroz aceleración cuando los modelos de lenguaje, como el ChatGPT o Gemini, se establecieron a un click de distancia. Como Cristina, muchos expertos de distintos ámbitos vinculados al Poder Judicial se preguntan qué pasaría si el algoritmo tomara el mazo y dictara sentencias.

En la actualidad no hay una regulación en Argentina que diga en qué procesos del Poder Judicial se puede o no usar un sistema de inteligencia artificial. Pero, en la práctica, como pasa con cualquier otro ámbito laboral, ya hay trabajadores que empiezan a experimentar con estas herramientas para agilizar su labor del día a día. En tanto, algunos fueros, como el Contencioso Administrativo, Tributario y de Relaciones de Consumo de CABA, están haciendo pruebas piloto con sistemas que, por ejemplo, agilizan la detección de caducidades en los procesos de ejecución fiscal. Pero hay más, porque funcionarios judiciales, trabajadores y abogados pretenden avanzar con un marco regulatorio en esta dirección.

La irrupción de la IA en el Poder Judicial

En octubre de este año el abogado constitucionalista Andrés Gil Domínguez presentó un amparo colectivo contra el Consejo de la Magistratura de la Nación para que “en un plazo razonable, diseñe, apruebe y ejecute un “Programa de incorporación de innovación tecnológica en el ámbito del Poder Judicial de la Nación”. Consultado por Página|12, explicó que no hay tiempo que perder y que hoy en día “la inteligencia artificial tiene que ocupar el rol de lo que se llama el hombre en el bucle, con tareas de automatización, sorteo y asignación de causas, las 24 horas del día”.

“Las IA pueden trabajar en proyectar todo aquello que, en última instancia, va a decidir un fiscal o un juez”, Andrés Gil Domínguez.

“Puede trabajar en la emisión de determinados despachos que no decidan. Y después puede trabajar en proyectar todo aquello que, en última instancia, va a decidir un fiscal o un juez. O sea, hacer toda la tarea de relatoría previa que hoy hacen seres humanos, donde lo que tarda tres meses, se puede hacer en cinco minutos. Y después, obviamente, someterlo al control del ser humano”, enfatizó, a la par que afirmó que primero hay que estudiar cómo gestionar la IA y luego cómo se regula si causa algún efecto nocivo.

Quien también trabaja sobre este tema es la consejera de la Magistratura por el Colegio Público de Abogados, Jimena de la Torre, quien piensa cómo impulsar este tipo de tecnologías en el día a día del Poder Judicial. Mientras prepara un mate en su despacho de la calle Paraná, señala que hay una pregunta clara: si ya hay juzgados en los que este tipo de tecnología se implementa de manera informal y una evolución en esta dirección parece casi imposible de evitar cómo se puede hacer de la forma más segura posible, ya sea implementando manuales éticos, como pensando qué sistemas se van a utilizar, quiénes lo van a hacer y qué pasará con toda la información que se le brinde.

“¿Puede la inteligencia artificial reemplazar a un juez? No, de ninguna manera”, Jimena de la Torre.

“Creo que no debería regularse de la misma forma que en Europa. Limitar el uso de la inteligencia artificial en un país que genera economía del conocimiento sería un error. Debemos fomentar el avance tecnológico y convertirnos en proveedores de innovación. Por supuesto, se deben seguir normas éticas y protocolos de uso. Creo que cada área de gobierno y el sector privado tienen la oportunidad de crear manuales de buenas prácticas y estándares éticos para su uso”, afirmó.

Pero también lanzó una advertencia: “¿Puede la inteligencia artificial reemplazar a un juez? No, de ninguna manera. Cuando delegás en una herramienta o en cualquier otra función que no sea la del juez, estás violando la garantía del juez natural. No sería el juez quien dicta la Justicia, sino la IA, lo que hace que nunca se pueda delegar esa función. Se puede usar la tecnología para acelerar, beneficiar o automatizar procesos, pero no reemplazar al juez”.

Velocidad y tecnoestrés

Semanas atrás, Tania D’Andrea, militante sindical judicial, recorría auditorios en el marco de un Seminario Internacional de Salud y Trabajo organizado por el sindicato de trabajadores judiciales de Santa Catarina, en Brasil, cuando  se topó con una charla que llamó particularmente su atención, con un concepto clave: el tecnoestrés. Ahora, sentada al otro lado de un escritorio prestado, entre pilas de papeles, una Constitución del 94 y una bandera argentina, explica qué se está haciendo desde el sector de los trabajadores ante la ola artificial que ya se ve desde la costa y advierte que no siempre “más rápido es mejor”.

“Si solo se trata de acelerar los procesos, no tendría sentido”, Tania D’Andrea.

D’Andrea explicó a Página|12 que para responder cómo se usa la IA primero hay que definir de qué se trata: “Hay una idea de que la inteligencia artificial es solo herramientas como ChatGPT o Gemini, pero existe desde hace mucho tiempo y se ha estado implementando en muchas cosas de nuestra vida”.

Además, agregó sobre los usos de estos modelos de lenguaje más populares: “No creo que haya una tensión inherente entre tecnología y trabajadores. La tensión, en todo caso, siempre está presente en la disputa sobre los modos de trabajo, las herramientas y el objeto de trabajo. Como organización sindical, siempre estamos discutiendo qué tipo de justicia queremos ofrecer. Entonces, ¿la tecnología, la inteligencia artificial, va a mejorar el acceso a la justicia? No estoy segura. Si solo se trata de acelerar los procesos, no tendría sentido. A veces, acelerar implica que entren muchas denuncias que luego se archivan y saturar de tareas a los trabajadores”.

En este contexto, dice D’Andrea, desde el Sindicato de Trabajadores Judiciales Ciudad de Buenos Aires (Sitraju CABA) desarrollaron una serie de capacitaciones tecnológicas «para que nadie se quede sin funciones» ante el avance de la tecnología —impulsada en el Poder Judicial de manera inevitable en la pandemia— por ejemplo, cómo se reconvierte el trabajo de los empleados de las mesas de entrada con la irrupción de la digitalización.

La advertencia de especialistas

Resulta evidente que en todos los sectores del Poder Judicial se está trabajando para ver de qué manera se puede adaptar el cuerpo al nuevo traje de la IA o, al revés, construir un traje nuevo a la medida del cuerpo. Pero en un tema con tanta potencialidad —recordando que la inteligencia artificial es la primera tecnología de la historia que puede tomar decisiones y generar nuevas ideas por sí misma— cabe avanzar, si no con cautela, con algunas preguntas que deben servir de horizonte.

Una primera advertencia la lanzó a este medio Gil Domínguez, quien parece advertir una idea parecida a la de Cristina Fernández de Kirchner: cuando se habla con tono alarmista del avance de la IA en el Poder Judicial y del peligro del corrimiento humano en manos de una máquina que promete, y tan solo promete, objetividad, se habla como si todos los jueces fuesen probos y sentenciaran siempre libres de prejuicios, lo que a esta altura es claro que no sucede, no sólo en expedientes que ponen la lupa en dirigentes políticos, sino especialmente en causas que no son mediáticas. 

“Si no hay una intervención humana, es muy probable que la criminalización de ciertos grupos sociales sea mucho más amplia”, Ricardo Andrade.

Otra advertencia la puso sobre la mesa Ricardo Andrade, licenciado en Letras y filósofo de la tecnología (UNRN/CITECDE/CONICET): “Se corren muchos riesgos porque las decisiones justamente están atravesadas por sesgos. Si no hay una intervención humana, es muy probable que la criminalización de ciertos grupos sociales sea mucho más amplia. Es, de alguna manera, delegarle una falsa objetividad a la inteligencia artificial para seguir replicando violencias que en ética llamamos intergeneracionales”.

Quedan más preguntas por formular y responder: cajas negras, sesgos, qué se puede y qué no se puede hacer con los datos personales o la llegada de una nueva burocracia tecnologizada. Por ahora, todo parece indicar que se abre la puerta a ciertos cambios, personas que en todos lados alzan la vista a lo que se viene y piensan cuál es el próximo movimiento.

Más Noticias