Los errores en documentos legales revelan los límites de la IA en el trabajo

Problemas legales por errores de IA

Los errores en documentos legales revelan los límites de la IA en el trabajo

30/10/2025 | 21:09

Los jueces enfrentan un creciente problema con documentos legales generados por IA que contienen errores, como citas a casos inexistentes. Expertos advierten sobre los riesgos de confiar en estas herramientas.

Redacción Cadena 3

Los jueces de todo el mundo enfrentaron un problema creciente: documentos legales generados con la ayuda de inteligencia artificial que fueron presentados con errores, como citas a casos que no existen, según abogados y documentos judiciales.

Esta tendencia se presenta como una advertencia para quienes están aprendiendo a utilizar herramientas de IA en el trabajo. Muchos empleadores buscan contratar trabajadores que puedan utilizar la tecnología para ayudar en tareas como la investigación y la redacción de informes. A medida que docentes, contadores y profesionales de marketing comienzan a interactuar con chatbots y asistentes de IA para generar ideas y mejorar la productividad, también descubren que los programas pueden cometer errores.

El científico de datos y abogado francés, Damien Charlotin, catalogó al menos 490 presentaciones judiciales en los últimos seis meses que contenían "alucinaciones", que son respuestas de IA que contienen información falsa o engañosa. El ritmo está acelerándose a medida que más personas utilizan IA, afirmó.

"Incluso los jugadores más sofisticados pueden tener problemas con esto", dijo Charlotin. "La IA puede ser una bendición. Es maravillosa, pero también hay trampas".

Charlotin, investigador senior en HEC París, una escuela de negocios ubicada justo afuera de la capital francesa, creó una base de datos para rastrear casos en los que un juez dictó que la IA generativa produjo contenido alucinado, como jurisprudencia fabricada y citas falsas. La mayoría de los fallos provienen de casos en EE. UU. en los que los demandantes se representaron a sí mismos sin un abogado, dijo. Si bien la mayoría de los jueces emitieron advertencias sobre los errores, algunos impusieron multas.

Sin embargo, incluso empresas de alto perfil han presentado documentos legales problemáticos. Un juez federal en Colorado dictó que un abogado de MyPillow Inc. presentó un escrito que contenía casi 30 citas defectuosas como parte de un caso de difamación contra la empresa y su fundador Michael Lindell.

La profesión legal no es la única que lidia con las fallas de la IA. Los resúmenes de IA que aparecen en la parte superior de las páginas de resultados de búsqueda en la web a menudo contienen errores.

Además, las herramientas de IA también plantean preocupaciones sobre la privacidad. Los trabajadores de todas las industrias deben ser cautelosos con los detalles que suben o introducen en los comandos para asegurarse de proteger la información confidencial de empleadores y clientes.

Expertos legales y laborales compartieron sus experiencias con los errores de la IA y describieron los peligros a evitar.

Considerar la IA como un asistente

No confiar en la IA para tomar decisiones importantes. Algunos usuarios de IA tratan la herramienta como un interno al que se le asignan tareas y cuyo trabajo terminado se espera que se revise.

"Piensa en la IA como un complemento para tu flujo de trabajo", dijo Maria Flynn, CEO de Jobs for the Future, una organización sin fines de lucro centrada en el desarrollo de la fuerza laboral. Puede actuar como asistente para tareas como redactar un correo electrónico o investigar un itinerario de viaje, pero no pensar en ella como un sustituto que puede hacer todo el trabajo, agregó.

Al prepararse para una reunión, Flynn experimentó con una herramienta de IA interna, pidiéndole que sugiriera preguntas de discusión basadas en un artículo que compartió con el equipo.

"Algunas de las preguntas que propuso no eran realmente del contexto adecuado para nuestra organización, así que pude darle algo de retroalimentación ... y volvió con cinco preguntas muy reflexivas", comentó.

Verificar la precisión

Flynn también encontró problemas en la salida de la herramienta de IA, que aún está en fase piloto. Una vez le pidió que compilara información sobre el trabajo que su organización había realizado en varios estados. Pero la herramienta de IA estaba tratando el trabajo completado y las propuestas de financiamiento como lo mismo.

"En ese caso, nuestra herramienta de IA no pudo identificar la diferencia entre algo que había sido propuesto y algo que había sido completado", dijo Flynn.

Afortunadamente, tenía el conocimiento institucional para reconocer los errores. "Si eres nuevo en una organización, pregunta a tus compañeros si los resultados parecen precisos", sugirió Flynn.

Si bien la IA puede ayudar con la lluvia de ideas, confiar en ella para proporcionar información fáctica es arriesgado. Tomar el tiempo para verificar la precisión de lo que genera la IA, incluso si es tentador omitir ese paso.

"Las personas están haciendo una suposición porque suena tan plausible que es correcto, y es conveniente", dijo Justin Daniels, un abogado de Atlanta y socio del bufete de abogados Baker Donelson. "Tener que volver y verificar todas las citas, o cuando miro un contrato que la IA ha resumido, tengo que volver a leer lo que dice el contrato, eso es un poco inconveniente y lleva tiempo, pero eso es lo que tienes que hacer. Por mucho que pienses que la IA puede sustituir eso, no puede".

Tener cuidado con los tomadores de notas

Puede ser tentador usar IA para grabar y tomar notas durante las reuniones. Algunas herramientas generan resúmenes útiles y esbozan pasos de acción basados en lo que se dijo.

Pero muchas jurisdicciones requieren el consentimiento de los participantes antes de grabar conversaciones. Antes de usar IA para tomar notas, pausar y considerar si la conversación debe mantenerse privilegiada y confidencial, dijo Danielle Kays, socia en el bufete de abogados Fisher Phillips.

Consultar con colegas en los departamentos legales o de recursos humanos antes de implementar un tomador de notas en situaciones de alto riesgo, como investigaciones, evaluaciones de desempeño o discusiones sobre estrategias legales, sugirió Kays.

"Las personas están afirmando que con el uso de la IA debería haber varios niveles de consentimiento, y eso es algo que se está tramitando en los tribunales", dijo Kays. "Ese es un problema que diría que las empresas deberían seguir observando a medida que se litiga".

Proteger la información confidencial

Si estás utilizando herramientas de IA gratuitas para redactar un memorando o una campaña de marketing, no revelar información identificativa o secretos corporativos. Una vez que hayas subido esa información, es posible que otros que utilicen la misma herramienta puedan encontrarla.

Eso se debe a que cuando otras personas hacen preguntas a una herramienta de IA, buscará información disponible, incluidos los detalles que revelaste, mientras construye su respuesta, dijo Flynn. "No distingue entre algo que es público o privado", agregó.

Buscar formación

Si tu empleador no ofrece capacitación en IA, intenta experimentar con herramientas gratuitas como ChatGPT o Microsoft Copilot. Algunas universidades y empresas tecnológicas ofrecen clases que pueden ayudarte a desarrollar tu comprensión de cómo funciona la IA y formas en que puede ser útil.

Un curso que enseña a las personas cómo construir los mejores comandos de IA o cursos prácticos que brindan oportunidades para practicar son valiosos, dijo Flynn.

A pesar de los problemas potenciales con las herramientas, aprender cómo funcionan puede ser beneficioso en un momento en que son omnipresentes.

"El mayor peligro potencial al aprender a usar la IA es no aprender a usarla en absoluto", dijo Flynn. "Todos vamos a necesitar ser fluidos en IA, y dar los primeros pasos para construir tu familiaridad, tu alfabetización, tu comodidad con la herramienta será críticamente importante".

Lectura rápida

¿Qué problema enfrentan los jueces?
Los jueces enfrentan un creciente problema con documentos legales generados por IA que contienen errores, como citas a casos inexistentes.

¿Quién es Damien Charlotin?
Es un científico de datos y abogado que ha catalogado al menos 490 presentaciones judiciales con errores en los últimos seis meses.

¿Qué advertencia se hace sobre la IA?
Se advierte que la IA puede ser útil, pero también presenta riesgos y errores que deben ser verificados.

¿Qué se debe considerar al usar IA en reuniones?
Es importante obtener el consentimiento de los participantes antes de grabar conversaciones y considerar la confidencialidad.

¿Cómo se puede proteger la información confidencial?
No se debe revelar información identificativa o secretos corporativos al usar herramientas de IA.

Te puede Interesar

Acuerdo entre Universal y Udio

Universal Music Group y la plataforma de generación de canciones AI Udio anunciaron un acuerdo legal y una nueva colaboración para crear una plataforma de música, lo que generó reacciones negativas entre los usuarios.

Investigación en Illinois

Un equipo de la Universidad de Illinois Urbana-Champaign desarrolló un método innovador para transformar residuos alimentarios en combustible de aviación sostenible que cumple con los estándares de la industria, contribuyendo a la reducción de emisiones de gases de efecto invernadero.

Temporada de descuentos en Australia

Un estudio revela que al hacer clic en anuncios durante las ventas, los consumidores entregan datos valiosos a los minoristas, quienes los utilizan para campañas publicitarias personalizadas.

Navegador de OpenAI

OpenAI lanzó ChatGPT Atlas, un navegador web que promete cambiar la forma en que interactuamos con Internet. Sin embargo, su diseño plantea preocupaciones sobre la seguridad y la privacidad de los usuarios.

© Copyright 2025 Cadena 3 Argentina