El Tribunal Superior de Inglaterra y Gales advirtió a los abogados sobre los peligros de confiar en herramientas de IA como ChatGPT para la investigación legal. La jueza Victoria Sharp dictaminó que estas herramientas de IA generativa no podían realizar investigaciones legales confiables.
La jueza Sharp afirmó que las herramientas de IA podrían proporcionar respuestas aparentemente coherentes y plausibles, pero también ser completamente incorrectas. Aclaró que, si bien los abogados pueden usar IA en su investigación, tienen la obligación profesional de verificar la exactitud de dicha investigación haciendo referencia a fuentes autorizadas antes de usarla en su trabajo profesional.
Los comentarios de la jueza surgieron en medio de crecientes preocupaciones sobre los casos en los que los abogados citaron lo que parecía ser falsedades generadas por IA. La decisión de Dame Sharp citó dos casos recientes en los que se descubrió que los abogados habían citado casos falsos generados por IA en procedimientos judiciales. Dijo que su fallo se compartirá con organismos profesionales en el país, incluidos el Consejo de Abogados y la Sociedad de Abogados.
El abogado Hussain cita casos inexistentes en un caso de $120M
Abogados, tengan cuidado: Los peligros de usar IA para redactar presentaciones sin verificación
En el caso de Al-Haroun, el tribunal descubrió sorprendentes 45 citas que eran inexistentes o contenían citas inexactas. Sorprendentemente, estas citas falsas fueron generadas originalmente… pic.twitter.com/CbgNy1z7X1
— Lawpoint Uganda (@Lawpointuganda) 7 de junio de 2025
El abogado Abid Hussain citó casos inexistentes en una demanda de $120 millones (£89M) relacionada con un presunto incumplimiento de un acuerdo de financiación con el Banco Nacional de Qatar. Hussain presentó un documento con 45 citas, de las cuales 18 no existían, mientras que muchas otras no contenían las citas que se les atribuían.
El cliente, Hamad Al-Haroun, se disculpó por engañar involuntariamente al tribunal con datos falsos de herramientas de IA disponibles públicamente y dijo que él era el responsable en lugar de su abogado, Hussain. Pero Sharp dijo que era “extraordinario” que el abogado dependiera del cliente para la exactitud de su investigación legal en lugar de al revés.
La jueza Sharp, presidenta de la división de la corte del Rey, dijo que había serias implicaciones para la administración de justicia y la confianza pública en el sistema judicial si la IA se utilizaba de manera incorrecta. Agregó que los abogados que abusaran de la IA podrían enfrentar advertencias públicas y derivaciones a la policía. Hizo un llamado al Consejo de Abogados y a la Sociedad de Abogados para considerar pasos para frenar el problema “como una cuestión de urgencia”.
La jueza también pidió a los jefes de las cámaras de abogados y a los socios gerentes de los abogados que aseguraran que todos los abogados comprendieran sus deberes profesionales y éticos al usar IA.
“Las respuestas pueden hacer afirmaciones seguras que son simplemente falsas. Pueden citar fuentes que no existen. Pueden pretender citar pasajes de una fuente genuina que no aparecen en esa fuente.”
–Jueza Victoria Sharp, Presidenta de la División de la Corte del Rey
Ian Jeffery, el Director Ejecutivo de la Sociedad de Abogados de Inglaterra y Gales, dijo que la decisión expuso los peligros de usar IA en el trabajo legal. Agregó que las herramientas de IA se estaban utilizando cada vez más para apoyar la prestación de servicios legales. Sin embargo, el verdadero riesgo de salidas incorrectas producidas por IA generativa requiere que los abogados verifiquen, revisen y aseguren la exactitud de su trabajo.
La abogada Forey cita cinco casos falsos en una reclamación de vivienda de un inquilino
La abogada Sarah Forey citó cinco casos falsos en una reclamación de vivienda de un inquilino contra el municipio de Haringey en Londres. Forey negó haber utilizado IA, pero Sharp dijo que no había proporcionado al tribunal una explicación coherente de lo que ocurrió.
La jueza también advirtió que ofrecer material falso como genuino podría considerarse desacato al tribunal o, en “los casos más graves”, adulterar el curso de la justicia. Agregó que esto podría llevar a severas sanciones para los abogados que no cumplieran con sus obligaciones profesionales.
Sharp dijo que Forey mostró una preocupante falta de comprensión, añadiendo que el tribunal no aceptó que la falta de acceso a libros de texto o servicios de suscripción electrónica dentro de las cámaras, si esa era la situación, proporcionara algo más que una mitigación marginal.
Ella afirmó que Forey podría haber verificado los casos que citó buscando en el sitio web de jurisprudencia de los Archivos Nacionales o yendo a la biblioteca de leyes de su Inn de Court. Sharp observó que Forey debió haber incluido deliberadamente citas falsas o haber utilizado IA a pesar de negarlo en su declaración como testigo.
El mes pasado, el juez Ritchie dijo que, al citar cinco casos falsos, el comportamiento de Forey, entonces pasante en 3 Bolt Court, y los abogados del Centro de Leyes de Haringey en Londres era impropio, irrazonable y negligente. También ordenó a todos ellos pagar costos desperdiciados.
Academia Cryptopolitan: Pronto - Una nueva forma de generar ingresos pasivos con DeFi en 2025. Aprende más