Desafíos de la IA en el ámbito legal

Desafíos en el uso de IA en el ámbito legal

'Hallucinated' cases impact lawyers: la necesidad de capacitación en IA

29/10/2025 | 17:16

La inteligencia artificial generativa, aunque prometedora, ha llevado a errores en el ámbito legal. Abogados enfrentan sanciones por usar información falsa generada por IA, lo que resalta la urgencia de su capacitación.

Redacción Cadena 3

La inteligencia artificial generativa ha sido aclamada como una herramienta revolucionaria para los abogados, facilitando tareas como la redacción de contratos y la síntesis de jurisprudencia. Sin embargo, su uso también ha revelado un lado oscuro en los tribunales ingleses, donde se han presentado casos fabricados, citas inventadas y referencias engañosas en documentos judiciales.

Un estudio reciente mostró que las herramientas de IA, como ChatGPT y Lexis+ AI, prometen velocidad y eficiencia, pero también han generado un alto porcentaje de errores. Se estima que las tasas de "hallucination" en consultas legales oscilan entre el 58% y el 88%, lo que plantea serias preocupaciones sobre la fiabilidad de la información generada.

El 6 de junio de 2025, un fallo histórico del tribunal alto abordó dos casos separados: Frederick Ayinde v The London Borough of Haringey y Hamad Al-Haroun v Qatar National Bank QPSC. En este fallo, se reprendió a un abogado en formación y a un solicitador por presentar jurisprudencia ficticia e inexacta. Los jueces afirmaron que "las herramientas de inteligencia artificial generativa... no son capaces de realizar una investigación legal fiable".

La responsabilidad recae completamente en los abogados, quienes deben verificar la información que presentan ante el tribunal. Esto plantea la pregunta de si los abogados en formación están siendo castigados demasiado severamente por errores que, en parte, son resultado de una falta de capacitación adecuada.

Las escuelas de derecho han enseñado métodos de investigación, ética y prácticas de citación durante mucho tiempo. Sin embargo, ahora es crucial enmarcar estas habilidades en torno a la IA generativa. Los estudiantes deben aprender a diseñar consultas de manera responsable, verificar los resultados contra bases de datos autorizadas y reconocer cuándo el uso de estas herramientas puede ser inapropiado.

La insistencia del tribunal alto en la responsabilidad es justificada, ya que la integridad de la justicia depende de citas precisas y una defensa honesta. Sin embargo, la solución no puede basarse únicamente en sanciones. Si la IA es parte de la práctica legal, entonces la capacitación y la alfabetización en IA deben ser parte de la formación legal.

En un caso reciente en Manchester, un litigante que se representaba a sí mismo admitió haber utilizado ChatGPT para generar autoridades legales en apoyo de su argumento. Al regresar al tribunal, presentó cuatro citas, una completamente fabricada y tres con nombres de casos genuinos pero con citas ficticias atribuidas. Aunque las presentaciones parecían legítimas, una inspección más cercana reveló que los párrafos no existían.

El mensaje de los casos de Ayinde y Al-Haroun es claro: el uso de IA generativa no disminuye el deber profesional de un abogado, sino que lo aumenta. Para los abogados en formación, esta responsabilidad comienza desde el primer día. El desafío para los educadores legales es preparar a los estudiantes para esta realidad, integrando la verificación de IA, la transparencia y el razonamiento ético en el currículo.

Lectura rápida

¿Qué está sucediendo con los abogados?
Los abogados enfrentan sanciones por presentar información falsa generada por IA en los tribunales.

¿Quién está involucrado?
Abogados, jueces y herramientas de IA como ChatGPT y Lexis+ AI.

¿Cuándo ocurrió esto?
El fallo histórico se emitió el 6 de junio de 2025.

¿Dónde se están viendo estos problemas?
En los tribunales de Inglaterra.

¿Cómo afecta esto a los abogados?
Los abogados son responsables de verificar la información presentada, lo que puede afectar su carrera.

¿Por qué es importante la capacitación en IA?
Para evitar errores y garantizar la integridad del sistema legal.

Te puede Interesar

Decisión tras tragedia juvenil

La startup Character.AI anunció que eliminará las capacidades de chat para usuarios menores de 18 años, tras el suicidio de un joven de 14 años que se había vinculado emocionalmente con un chatbot.

Investigación en Texas

Investigadores de la Universidad de Texas en Dallas desarrollaron un prototipo de computadora neuromórfica que aprende patrones con menos cálculos que la IA tradicional, abriendo nuevas posibilidades para dispositivos móviles.

© Copyright 2025 Cadena 3 Argentina