Un caso judicial en Sudáfrica
04/11/2025 | 20:08
Redacción Cadena 3
Un caso judicial en Sudáfrica acaparó la atención mediática por motivos poco halagüeños en enero de 2025. En el juicio Mavundla vs. MEC: Departamento de Gobierno Cooperativo y Asuntos Tradicionales de KwaZulu-Natal y Otros, el equipo legal presentó jurisprudencia que simplemente no existía. Esta información había sido generada por ChatGPT, un chatbot de inteligencia artificial desarrollado por OpenAI.
De los nueve precedentes legales que el equipo presentó ante el Tribunal Superior, solo dos eran auténticos. El resto resultó ser "alucinaciones" fabricadas por la IA. El tribunal calificó esta conducta como "irresponsable y poco profesional" y remitió el asunto al Consejo de Práctica Legal, el organismo encargado de regular a los profesionales del derecho en Sudáfrica, para su investigación.
No fue la primera vez que los tribunales sudafricanos se encontraron con un incidente similar. En el caso Parker vs. Forsyth en 2023, también se trató de jurisprudencia falsa producida por ChatGPT. Sin embargo, en esa ocasión, el juez fue más indulgente, ya que no encontró intención de engañar. La decisión en el caso Mavundla marca un punto de inflexión: los tribunales están perdiendo la paciencia con los profesionales del derecho que utilizan la IA de manera irresponsable.
Los autores de este artículo son académicos legales que han estado realizando investigaciones sobre el creciente uso de la IA, particularmente la IA generativa, en la investigación y educación legal. Si bien estas tecnologías ofrecen herramientas poderosas para mejorar la eficiencia y productividad, también presentan riesgos serios cuando se utilizan de manera irresponsable.
Los aspirantes a profesionales del derecho que malutilizan herramientas de IA sin la debida orientación o fundamento ético corren el riesgo de enfrentar graves consecuencias profesionales, incluso antes de que comiencen sus carreras. Las facultades de derecho deberían preparar a los estudiantes con las habilidades y el juicio necesarios para utilizar herramientas de IA de manera responsable. Sin embargo, la mayoría de las instituciones aún no están preparadas para el ritmo al que se está adoptando la IA.
Muy pocas universidades tienen políticas formales o capacitación sobre IA. Los estudiantes se encuentran sin una guía en este terreno en rápida evolución. Nuestro trabajo aboga por un enfoque proactivo y estructurado hacia la educación en IA en las facultades de derecho.
La abogada en el caso Mavundla admitió que no había verificado las citas y que, en cambio, había confiado en la investigación realizada por un colega junior. Ese colega, un abogado en formación, afirmó haber obtenido el material de una herramienta de investigación en línea. Aunque negó haber utilizado ChatGPT, el patrón coincidió con incidentes similares a nivel global donde los abogados presentaron sin saber juicios generados por IA.
En el caso estadounidense de 2024 Park vs. Kim, la abogada citó jurisprudencia inexistente en su respuesta, admitiendo que fue generada usando ChatGPT. En el caso canadiense de 2024 Zhang vs. Chen, el abogado presentó un aviso de solicitud que contenía dos autoridades de caso no existentes fabricadas por ChatGPT.
El tribunal en Mavundla fue contundente: no importa cuán avanzada se vuelva la tecnología, los abogados siguen siendo responsables de garantizar que cada fuente que presenten sea precisa. La presión de trabajo o la ignorancia sobre los riesgos de la IA no son defensas válidas.
El juez también criticó al abogado supervisor por no haber revisado los documentos antes de presentarlos. Este episodio subrayó un principio ético más amplio: los abogados senior deben capacitar y supervisar adecuadamente a sus colegas junior.
La lección aquí se extiende mucho más allá de un solo bufete de abogados. La integridad, la precisión y el pensamiento crítico no son extras opcionales en la profesión legal. Son valores fundamentales que deben enseñarse y practicarse desde el principio, durante la educación legal.
El caso Mavundla debería servir como advertencia para las universidades. Si los abogados experimentados pueden caer en trampas de IA en relación con la ley, los estudiantes que aún están aprendiendo a investigar y razonar también pueden hacerlo.
Las herramientas de IA generativa como ChatGPT pueden ser aliados poderosos: pueden resumir casos, redactar argumentos y analizar textos complejos en segundos. Pero también pueden fabricar información con confianza. Dado que los modelos de IA no siempre "saben" cuándo están equivocados, producen texto que parece autoritario pero que puede ser completamente falso.
Para los estudiantes, los peligros son dobles. Primero, la dependencia excesiva de la IA puede obstaculizar el desarrollo de habilidades críticas de investigación. Segundo, puede llevar a serios actos de mala conducta académica o profesional. Un estudiante que presente contenido fabricado por IA podría enfrentar acciones disciplinarias en la universidad y daños a su reputación que lo seguirán en su carrera legal.
En nuestro trabajo argumentamos que, en lugar de prohibir las herramientas de IA por completo, las facultades de derecho deberían enseñar a los estudiantes a utilizarlas de manera responsable. Esto significa desarrollar "alfabetización en IA": la capacidad de cuestionar, verificar y contextualizar la información generada por IA. Los estudiantes deberían aprender a tratar los sistemas de IA como asistentes, no como autoridades.
En la práctica legal sudafricana, la autoridad se refiere tradicionalmente a fuentes reconocidas como legislación, precedentes judiciales y comentarios académicos, que los abogados citan para respaldar sus argumentos. Estas fuentes se acceden a través de bases de datos legales establecidas y reportes judiciales, un proceso que, aunque consume tiempo, asegura precisión, responsabilidad y adherencia al estado de derecho.
Los educadores legales pueden incorporar la alfabetización en IA en los cursos existentes sobre metodología de investigación, ética profesional y redacción legal. Los ejercicios podrían incluir verificar resúmenes generados por IA contra fallos reales o analizar las implicaciones éticas de depender de argumentos producidos por máquinas.
Enseñar el uso responsable de la IA no se trata simplemente de evitar vergüenzas en el tribunal. Se trata de proteger la integridad del sistema de justicia en sí. Como se vio en Mavundla, el uso acrítico de la IA por parte de un abogado en formación llevó a una investigación profesional, escrutinio público y daños a la reputación del bufete.
Los riesgos financieros también son reales. Los tribunales pueden ordenar a los abogados que paguen costos de su propio bolsillo cuando ocurre una mala conducta profesional grave. En la era digital, donde los fallos judiciales y los informes de medios se difunden instantáneamente en línea, la reputación de un abogado puede colapsar de la noche a la mañana si se encuentra que ha confiado en material de IA falso o no verificado. También sería beneficioso que los tribunales recibieran capacitación para detectar casos falsos generados por IA.
Nuestro estudio concluye que la IA llegó para quedarse, y su uso en el derecho también. El desafío no es si la profesión legal debería usar IA, sino cómo. Las facultades de derecho tienen una oportunidad crítica y un deber ético de preparar a los futuros profesionales para un mundo donde la tecnología y el juicio humano deben trabajar codo a codo.
La velocidad y la conveniencia nunca pueden reemplazar la precisión y la integridad. A medida que la IA se convierte en una parte rutinaria de la investigación legal, los abogados del mañana deben ser capacitados no solo para solicitar, sino para pensar.
¿Qué ocurrió en el caso Mavundla?
Se presentó jurisprudencia falsa generada por ChatGPT, lo que llevó a sanciones por parte del tribunal.
¿Qué dijo el tribunal sobre el uso de IA?
El tribunal enfatizó que los abogados son responsables de verificar la precisión de las fuentes, independientemente de la tecnología utilizada.
¿Qué riesgos enfrentan los estudiantes de derecho?
Los estudiantes que usan IA irresponsablemente pueden enfrentar consecuencias profesionales graves y daños a su reputación.
¿Cómo deben las facultades de derecho abordar la IA?
Deberían enseñar a los estudiantes a utilizar herramientas de IA de manera responsable y desarrollar habilidades de verificación.
¿Cuál es el futuro del uso de IA en el derecho?
La IA seguirá siendo parte del ámbito legal, y es crucial que los futuros abogados sean capacitados para integrarla éticamente en su práctica.
Te puede Interesar
Navegador de OpenAI
OpenAI lanzó ChatGPT Atlas, un navegador web que promete cambiar la forma en que interactuamos con Internet. Sin embargo, su diseño plantea preocupaciones sobre la seguridad y la privacidad de los usuarios.
Investigación de la Universidad Aalto
Un estudio de la Universidad Aalto muestra que el uso de modelos de lenguaje como ChatGPT lleva a los usuarios a sobreestimar su rendimiento cognitivo, incluso aquellos con alta alfabetización en IA.
Panel de seguridad de OpenAI
Zico Kolter, profesor de Carnegie Mellon, preside el comité de seguridad de OpenAI, con poder para detener lanzamientos de IA considerados inseguros. Su rol se vuelve crucial tras nuevos acuerdos regulatorios.
Investigación en IA y comportamiento humano
Investigadores de universidades chinas desarrollaron un marco para evaluar la capacidad de los LLMs en simular rasgos humanos. Su estudio revela que la riqueza de los perfiles de personajes mejora la precisión de estas simulaciones.