El ChatGPT fue utilizada para inventarse precedentes legales inexistentes sobre un caso.
Un juez estadounidense ha condenado a dos abogados a pagar una multa de 5.000 dólares, unos 4.593 euros, por presentar un escrito judicial utilizando la popular herramienta de inteligencia artificial, ChatGPT, que se inventó una serie de precedentes legales inexistentes.
El juez Kevin Castel considera que el abogado Steven Schwartz y su compañero Peter LoDuca «obviaron conscientemente» las señales que apuntaban a que los casos que había incluido ChatGPT eran falsos, ofreciendo declaraciones «engañosas» al tribunal, por lo que considera que actuaron de mala fe.
El magistrado cree que, si bien no hay «nada inherentemente impropio en el uso de una herramienta de inteligencia artificial fiable como asistente», las normas «imponen a los abogados una función de control para garantizar la exactitud de sus declaraciones».
En la sentencia también se subraya que ambos «hicieron dejación de responsabilidades cuando presentaron las opiniones judiciales no existentes acompañadas de citas falsas creadas por la herramienta artificial de ChatGPT, y continuaron manteniendo esas opiniones falsas después de que las órdenes judiciales pusieran en duda su existencia».
Los dos abogados trabajaban concretamente en una demanda contra la aerolínea Avianca presentada por un pasajero que aseguraba haber sufrido una lesión al ser golpeado con un carrito de servicio durante un vuelo. Así, Schwartz, que representaba al demandante, utilizó ChatGPT para elaborar un escrito en el que se oponía a una solicitud de la defensa para que el caso fuese desestimado.
El abogado citaba el documento de diez páginas varias decisiones judiciales para apoyar sus tesis, pero no tardó en descubrirse que el conocido chatbot de la compañía OpenAI se las había inventado.
«La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar el caso está repleta de citas de casos inexistentes», escribió el juez Kevin Castel.
El propio abogado presentó después una declaración jurada en la que admitió haber usado ChatGPT para preparar el escrito y reconoció que la única verificación que había llevado a cabo era preguntar a la aplicación si los casos que citaba eran reales.
Schwartz se justificó asegurando que nunca antes había usado una herramienta de este tipo y que, por tanto, «no era consciente de la posibilidad de que su contenido pudiese ser falso».
Además, subrayó que no tenía ninguna intención de engañar al tribunal y exculpó totalmente a otro abogado del bufete que se expone también a posibles sanciones.