En vivo

Viva la Radio

Raúl y Geo

Argentina

En vivo

Estadio 3

Claudio y Marcelo

Rosario

En vivo

Horario corrido

Flavia Dellamaggiore

En vivo

Los Populares

Colorete Gianola

En vivo

Lista manija

Radio

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Podcast

Francisco: los 10 años del Papa argentino

Podcast

Manual para transformar Argentina

Escuchá lo último

Elegí tu emisora

Innovación y Gadgets

'Hallucinated' cases impact lawyers: la necesidad de capacitación en IA

La inteligencia artificial generativa, aunque prometedora, ha llevado a errores en el ámbito legal. Abogados enfrentan sanciones por usar información falsa generada por IA, lo que resalta la urgencia de su capacitación.

29/10/2025 | 17:16Redacción Cadena 3

Desafíos de la IA en el ámbito legal

FOTO: Desafíos de la IA en el ámbito legal

La inteligencia artificial generativa ha sido aclamada como una herramienta revolucionaria para los abogados, facilitando tareas como la redacción de contratos y la síntesis de jurisprudencia. Sin embargo, su uso también ha revelado un lado oscuro en los tribunales ingleses, donde se han presentado casos fabricados, citas inventadas y referencias engañosas en documentos judiciales.

Un estudio reciente mostró que las herramientas de IA, como ChatGPT y Lexis+ AI, prometen velocidad y eficiencia, pero también han generado un alto porcentaje de errores. Se estima que las tasas de "hallucination" en consultas legales oscilan entre el 58% y el 88%, lo que plantea serias preocupaciones sobre la fiabilidad de la información generada.

El 6 de junio de 2025, un fallo histórico del tribunal alto abordó dos casos separados: Frederick Ayinde v The London Borough of Haringey y Hamad Al-Haroun v Qatar National Bank QPSC. En este fallo, se reprendió a un abogado en formación y a un solicitador por presentar jurisprudencia ficticia e inexacta. Los jueces afirmaron que "las herramientas de inteligencia artificial generativa... no son capaces de realizar una investigación legal fiable".

La responsabilidad recae completamente en los abogados, quienes deben verificar la información que presentan ante el tribunal. Esto plantea la pregunta de si los abogados en formación están siendo castigados demasiado severamente por errores que, en parte, son resultado de una falta de capacitación adecuada.

Las escuelas de derecho han enseñado métodos de investigación, ética y prácticas de citación durante mucho tiempo. Sin embargo, ahora es crucial enmarcar estas habilidades en torno a la IA generativa. Los estudiantes deben aprender a diseñar consultas de manera responsable, verificar los resultados contra bases de datos autorizadas y reconocer cuándo el uso de estas herramientas puede ser inapropiado.

La insistencia del tribunal alto en la responsabilidad es justificada, ya que la integridad de la justicia depende de citas precisas y una defensa honesta. Sin embargo, la solución no puede basarse únicamente en sanciones. Si la IA es parte de la práctica legal, entonces la capacitación y la alfabetización en IA deben ser parte de la formación legal.

En un caso reciente en Manchester, un litigante que se representaba a sí mismo admitió haber utilizado ChatGPT para generar autoridades legales en apoyo de su argumento. Al regresar al tribunal, presentó cuatro citas, una completamente fabricada y tres con nombres de casos genuinos pero con citas ficticias atribuidas. Aunque las presentaciones parecían legítimas, una inspección más cercana reveló que los párrafos no existían.

El mensaje de los casos de Ayinde y Al-Haroun es claro: el uso de IA generativa no disminuye el deber profesional de un abogado, sino que lo aumenta. Para los abogados en formación, esta responsabilidad comienza desde el primer día. El desafío para los educadores legales es preparar a los estudiantes para esta realidad, integrando la verificación de IA, la transparencia y el razonamiento ético en el currículo.

Lectura rápida

¿Qué está sucediendo con los abogados?
Los abogados enfrentan sanciones por presentar información falsa generada por IA en los tribunales.

¿Quién está involucrado?
Abogados, jueces y herramientas de IA como ChatGPT y Lexis+ AI.

¿Cuándo ocurrió esto?
El fallo histórico se emitió el 6 de junio de 2025.

¿Dónde se están viendo estos problemas?
En los tribunales de Inglaterra.

¿Cómo afecta esto a los abogados?
Los abogados son responsables de verificar la información presentada, lo que puede afectar su carrera.

¿Por qué es importante la capacitación en IA?
Para evitar errores y garantizar la integridad del sistema legal.

Lo más visto

Innovación y Gadgets

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Abrapalabra

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf

Podcast

Agenda económica

Podcast

Las Claves de Zucho