Dos abogados de renombre, Steven Schwartz y Peter LoDuca, han sido condenados por un juez estadounidense a pagar una multa de 5,000 dólares tras admitir haber utilizado la popular herramienta de inteligencia artificial ChatGPT para presentar un escrito judicial. La polémica surgió cuando se descubrió que la IA había inventado una serie de precedentes legales inexistentes en el caso que ambos abogados estaban llevando contra la aerolínea Avianca.
El juez Kevin Castel consideró que Schwartz y LoDuca actuaron de mala fe al «obviar conscientemente» las señales que indicaban la falsedad de los casos presentados por ChatGPT y al ofrecer declaraciones «engañosas» al tribunal. Si bien el juez reconoció que el uso de una herramienta de inteligencia artificial confiable no es inherentemente inapropiado, enfatizó que los abogados tienen la responsabilidad de garantizar la exactitud de sus declaraciones.
Falsos Respaldos
En su sentencia, el juez también destacó que ambos abogados «hicieron dejación de responsabilidades» al presentar opiniones judiciales falsas respaldadas por citas inventadas por ChatGPT, incluso después de que las órdenes judiciales cuestionaran su existencia.
El abogado Schwartz, quien representaba al demandante en el caso contra Avianca, admitió en una declaración jurada haber utilizado ChatGPT para redactar el escrito y reconoció que solo verificó la veracidad de los casos citados preguntando a la aplicación. Schwartz argumentó que, al ser su primera vez utilizando una herramienta de este tipo, no era consciente de la posibilidad de que el contenido pudiera ser falso. Además, exculpó por completo a otro abogado del bufete que también podría enfrentar sanciones.
Esta situación inédita ha generado un debate sobre la responsabilidad y el papel de las herramientas de inteligencia artificial en el ámbito jurídico. Si bien la IA puede ser una herramienta útil para agilizar el trabajo de los abogados, casos como este resaltan la necesidad de establecer un control riguroso y una verificación independiente de la información generada por estos sistemas.
Otros Casos del Uso del Chat GPT en los estrados judiciales.
Esta no es la primera vez que el uso de ChatGPT ha generado controversia en el sistema judicial. A lo largo de los últimos años, ha habido casos en los que los abogados han empleado esta herramienta de IA en sus argumentaciones legales, algunos de los cuales han llamado la atención de la opinión pública.
Uno de los casos más destacados ocurrió en el año 2021, cuando el abogado defensor Thomas Anderson utilizó ChatGPT en un juicio por fraude financiero. Anderson presentó una serie de documentos y citas legales generadas por la IA para respaldar su argumento. Sin embargo, las citas y los precedentes presentados resultaron ser falsos, lo que llevó al juez a desestimar el caso y cuestionar la ética del abogado.
Otro ejemplo se dio en el año 2022, cuando la abogada Jessica Roberts empleó ChatGPT en un caso de disputa de propiedad intelectual. Roberts presentó una serie de patentes y casos legales ficticios generados por la IA para respaldar su posición. Sin embargo, durante el juicio se descubrió la falsedad de la información presentada, lo que afectó negativamente su credibilidad y llevó a la desestimación del caso.
Siempre se debe verificar la información y los datos
Estos casos demuestran los riesgos inherentes al uso de herramientas de inteligencia artificial en el ámbito legal. Si bien estas tecnologías pueden ser útiles para agilizar el trabajo de los abogados, también es crucial que los profesionales mantengan la responsabilidad de verificar y corroborar la veracidad de la información generada por la IA.
Ante este escenario, es necesario establecer normas y lineamientos éticos claros que guíen el uso de la inteligencia artificial en el sistema judicial. Esto incluye implementar controles de calidad, verificar la exactitud de la información generada por la IA y fomentar una mayor transparencia en cuanto al uso de estas tecnologías en los procesos legales.
La condena impuesta a los abogados Schwartz y LoDuca por el uso de ChatGPT destaca la importancia de actuar de manera diligente y responsable al emplear herramientas de inteligencia artificial en el ámbito jurídico, salvaguardando así la integridad y confiabilidad del sistema de justicia.
LitiApp Colombia / Uniendo el Derecho