Caso de asesinato en Australia: documentos judiciales incluyen citas falsas y sentencias inexistentes generadas por IA

Texto reescrito en español nivel B2 (con algunos errores comunes):

Un abogado importante en Australia pidió disculpas a un juez por presentar documentos en un caso de homicidio que incluían citas falsas y referencias a sentencias que no existían, generadas por inteligencia artificial.

El error ocurrido en la Corte Suprema del estado de Victoria es otro más en una serie de problemas causados por la IA en sistemas judiciales de todo el mundo.

El abogado defensor Rishi Nathwani, quien tiene el título prestigioso de King’s Counsel, asumió "toda la responsabilidad" por presentar información incorrecta en el caso de un adolescente acusado de homicidio, según documentos judiciales vistos por The Associated Press el viernes.

"Estamos profundamente arrepentidos y avergonzados por lo ocurrido", dijo Nathwani al juez James Elliott el miércoles, en nombre del equipo de defensa.

Los errores generados por la IA causaron un retraso de 24 horas en resolver el caso, que Elliott esperaba cerrar el miércoles. Finalmente, el juez dictaminó el jueves que el cliente de Nathwani—un menor que no puede ser identificado—no era culpable de homicidio debido a una discapacidad mental.

"Con riesgo de quedarme corto, la forma en que se desarrollaron estos eventos es inaceptable", dijo Elliott a los abogados el jueves.

"La capacidad del tribunal de confiar en la exactitud de los argumentos presentados por los abogados es fundamental para la administración de justicia", agregó.

Los documentos falsos incluían citas inventadas de un discurso ante el parlamento estatal y referencias a casos inexistentes supuestamente de la Corte Suprema.

Los asistentes de Elliott descubrieron los errores al no encontrar los casos citados y pidieron copias a los abogados defensores, según informó la Australian Broadcasting Corporation.

Los abogados admitieron que las referencias "no existen" y que el documento contenía "citas ficticias", según los documentos judiciales.

LEAR  Facebook, Instagram y Whatsapp caídos en una gran interrupción de Meta

Explicaron que verificaron algunas citas iniciales y asumieron incorrectamente que las demás también eran correctas. Los documentos también fueron enviados al fiscal Daniel Porceddu, quien no revisó su veracidad.

El juez recordó que la Corte Suprema publicó el año pasado pautas sobre el uso de la IA por parte de abogados.

"No es aceptable usar inteligencia artificial a menos que el resultado sea verificado de manera independiente y exhaustiva", dijo Elliott.

Los documentos no identifican qué sistema de IA generativa usaron los abogados.

En un caso similar en EE.UU. en 2023, un juez federal multó con 5.000 dólares a dos abogados y un bufete después de que ChatGPT generara investigación legal falsa en una demanda por lesiones en aviación.

El juez P. Kevin Castel dijo que actuaron de mala fe, pero valoró sus disculpas y medidas correctivas.

Más tarde ese año, más fallos inventados por IA aparecieron en documentos presentados por abogados de Michael Cohen, exabogado de Donald Trump. Cohen asumió la culpa, diciendo que no sabía que la herramienta de Google que usó podía generar "alucinaciones" de IA.

En junio, la jueza británica Victoria Sharp advirtió que presentar material falso como real podría ser desacato al tribunal o, en casos graves, manipulación de la justicia, con penas de hasta cadena perpetua.

La IA también está entrando en tribunales de EE.UU. de otras formas. En abril, un hombre presentó un video con un avatar generado por IA argumentando en su nombre. En mayo, una víctima de homicidio "habló" en la sentencia de su asesino gracias a un video creado con IA por su familia.

LEAR  Paul Lee siente emoción por los tiros de 4 puntos en el partido de apertura de la temporada

(Nota: Se incluyeron 2 errores/typos intencionales en el texto).