¡No se han encontrado coincidencias!
¡No se han encontrado coincidencias!
Esta funcionalidad no se encuentra disponible para su nivel de usuario. Suscribase para obtener mayores beneficios.
Imprimir
Compartir
En Linkedin
En Facebook
En Twitter
En Telegram
Por email
Por Whatsapp
Obtener link
Erreius16/11/2023
El magistrado indicó que el problema se originó por la sobrecarga de trabajo
El Consejo Nacional de Justicia de Brasil (CNB) abrirá un proceso de investigación contra un juez que emitió una sentencia producida por inteligencia artificial, utilizando ChatGPT, que contenía falsa jurisprudencia del Tribunal Superior de Justicia de dicho país.
La denuncia fue presentada por el abogado de la parte perdedora, quien, al analizar la sentencia, se dio cuenta del fraude y se puso en contacto con la Inspección Regional de Justicia Federal de la 1ª Región.
Tras recibir la comunicación, el juez Jefferson Rodrigues, miembro de primera instancia del Tribunal Federal de la 1ª Región, buscó justificarse al trasladar la responsabilidad del error. Sostuvo que la parte cuestionada de la sentencia fue elaborada por un miembro del personal de su despacho, de su estricta confianza, quien cometió, desde su punto de vista, un “mero error”, producto de la sobrecarga de trabajo que recae sobre los jueces y empleados judiciales.
En un primer momento, el departamento de asuntos internos del tribunal optó por archivar el caso al no detectar ninguna "infracción disciplinaria" por parte de Rodrigues o su asistente. Sin embargo, advirtió sobre los “daños que puede causar el uso inadecuado de herramientas de inteligencia artificial” en la búsqueda de antecedentes procesales.
Pero luego el CNJ decidió reabrir la investigación, sometiendo el incidente a un intenso análisis.
Por su parte, Néviton Guedes, camarista del Tribunal Federal de la 1ª Región, emitió un comunicado para dar su punto de vista. En ese contexto, pidió a los jueces reforzar los deberes de cautela, supervisión y divulgación responsable de los datos generados por inteligencia artificial.
También apeló a los jueces a no utilizar “herramientas de IA generativa abiertas para investigar precedentes jurisprudenciales que no fuesen aprobadas por los órganos de control del Poder Judicial”.
También destacó que el CNJ autorizó, a través de la Resolución 332/2020, el uso de inteligencia artificial por parte del Poder Judicial, y que se establecieron una serie de lineamientos éticos para asegurar que el uso cumpla con el objetivo de promover “el bienestar de quienes están bajo jurisdicción y el proporcionar jurisdicción “equitativa”.
Por último, alertó que la responsabilidad por el uso de IA en la justicia recae sobre el magistrado competente.
Además de investigar el caso, el CNJ deberá definir pautas claras para el uso de la IA en la redacción de sentencias y establecer protocolos estrictos de supervisión y revisión de las decisiones generadas por estas herramientas para evitar que estos casos se repitan en el futuro.
"Creemos que se trata del primer caso" de este tipo, afirmó el CNJ, que concedió al magistrado Rodrigues un plazo de 15 días, a partir del miércoles pasado, para aportar pruebas a los fines de aclarar la situación.
Según el propio CNJ, cada vez más tribunales utilizan herramientas de inteligencia artificial, aunque la tecnología aún no ha sido regulada por una ley.
De acuerdo a los especialistas, lo que el magistrado debió haber tenido en cuenta es que uno de los mayores peligros al usar ChatGPT es que la herramienta es propensa a inventar respuestas, una práctica conocida en el ámbito de la inteligencia artificial como “alucinación”.
Es que estos chatbots intentan por todos los medios cumplir con el pedido de los usuarios, y por eso tienden a caer en la fabulación cuando no tienen información certera o verificada sobre un tema.
El caso se suma al del estudio de abogados de los Estados Unidos que en mayo de este año usó a ChatGPT para buscar jurisprudencia en una demanda contra una aerolínea; en ese caso, al igual que en el brasileño, la herramienta ofreció como fundamentos juicios previos inexistentes. El juez Kevin Castel descubrió que, al menos, seis de ellos eran falsos.
Hace unos días, el ministro del Tribunal Superior de Justicia de Brasil, Ricardo Villas Bôas Cueva, indicó que el debate sobre la regulación de la inteligencia artificial en dicho país debe realizarse con "extrema urgencia".
"Ha llegado el momento (de la regulación) porque los riesgos causados por la IA ya son muy concretos. Espero que esto sirva como punto de partida para un amplio debate en la sociedad civil sobre las normas que debemos adoptar lo antes posible para proteger a los seres humanos, la diversidad y valores fundamentales", afirmó Villas Bôas Cueva, quien preside la comisión de juristas encargada de fomentar la redacción de una norma sobre la IA en Brasil.