El abogado de un hombre que demandó a una aerolínea por daños personales utilizó ChatGPT para preparar una presentación, pero el bot de inteligencia artificial entregó casos falsos que el abogado presentó después ante el tribunal, lo que llevó a un juez a considerar sanciones mientras la comunidad jurídica lidia con uno de los primeros casos de "alucinaciones" de IA que hacen acto de presencia en los tribunales.
A principios de este año, la aerolínea colombiana Avianca intentó desestimar un caso ante un tribunal federal en el que un hombre, Roberto Mata, alegaba haber sido "golpeado por un carro metálico de servicio" a bordo de un vuelo de 2019 y haber sufrido lesiones personales.
Al presentar una respuesta, los abogados de Mata citaron al menos otros seis casos para mostrar precedentes, entre ellos Varghese contra China Southern Airlines y Shaboon contra Egypt Air, pero el tribunal consideró que los casos no existían y que tenían "decisiones judiciales falsas con citas falsas y citas internas falsas", lo que llevó a un juez federal a considerar la posibilidad de imponer sanciones.
Un miembro del equipo jurídico de Mata reveló entonces que había utilizado ChatGPT para realizar una investigación jurídica para la presentación ante el tribunal, que hacía referencia a los casos y que la herramienta de inteligencia artificial le aseguró que los casos eran reales.
Steven Schwartz -el abogado que utilizó ChatGPT y representó a Mata antes de que el caso pasara a un tribunal en el que no está autorizado a ejercer- firmó una declaración jurada en la que admitía que había utilizado el chatbot de inteligencia artificial, pero afirmaba que no tenía intención de engañar al tribunal y que no había actuado de mala fe, por lo que no debía ser sancionado.
Schwartz dijo más tarde en una presentación del 8 de junio que se sintió "mortificado" al enterarse de los casos falsos, y que cuando utilizó la herramienta "no entendió que no era un motor de búsqueda, sino una herramienta de procesamiento generativo del lenguaje".
El abogado explicó que no había utilizado ChatGPT para la investigación jurídica antes y que se había enterado de la tecnología "por sus hijos en edad universitaria", añadiendo que leyó artículos sobre los beneficios de la IA en entornos profesionales y cómo las herramientas "podrían hacer obsoleta la investigación jurídica".
El principio del fin
El uso de ChatGPT se descubrió después que los abogados de Avianca no pudieran encontrar algunos de los documentos judiciales de los casos a los que se refería el equipo de Mata y presentaran una solicitud pidiendo más información sobre ellos.
Schwartz volvió entonces a ChatGPT para obtener copias de los documentos de los casos, creyendo aún que se trataba de un motor de búsqueda, y se los entregó al otro abogado de Mata, Peter LoDuca, según explicaron los abogados de Schwartz en los documentos judiciales.
Al revisar los documentos entregados, el juez federal P. Kevin Castel, con sede en Nueva York, determinó que los casos eran falsos y anunció que el tribunal se enfrentaba a una "circunstancia sin precedentes" y que estudiaría la posibilidad de imponer sanciones.
Lo que hay que tener en cuenta
El juez federal con sede en Nueva York P. Kevin Castel ordenó a Schwartz y al otro abogado de Mata, Peter LoDuca, que se presentaran a una audiencia en persona el jueves al mediodía para explicar por qué no deberían enfrentarse a sanciones por citar "casos inexistentes".
Se espera que Castel determine si las sanciones estaban justificadas o si el castigo al que Schwartz y su bufete dicen que ya se han enfrentado -acusaciones de fraude y daños irreparables a su reputación- es adecuado, pero no se hizo ninguna decisión durante la vista, según un reportero de Courthouse News. El reportero Josh Russell dijo que el juez dio un "severo reconocimiento" y sugirió que aún podría imponer sanciones.
Antecedentes
ChatGPT -un chatbot potenciado por inteligencia artificial de OpenAI- aumentó su popularidad a principios de este año una vez que estuvo ampliamente disponible, aunque con su auge surgieron preocupaciones sobre sus capacidades.
Los estudiantes han admitido que utilizan la IA para hacer los deberes y los políticos han empezado a utilizar imágenes creadas artificialmente en los anuncios de campaña, pero existe la preocupación de que la tecnología para alterar imágenes o redactar textos con IA esté avanzando más allá de la capacidad humana para detectar falsificaciones, lo que podría generar más desconfianza en la sociedad.
En el día a día, los chatbots como ChatGPT o Bard de Google son arriesgados por su capacidad para inventarse información o extraerla incorrectamente de sus bases de conocimiento y dar información falsa a los usuarios, como le ocurrió a Schwartz, a quien ChatGPT aseguró que los casos que le habían dado eran reales.
Estas plataformas y sus algoritmos se entrenan en bases de datos existentes de imágenes o texto y se les enseña a generar respuestas basadas en la base de datos, pero a menudo confunden la información o crean respuestas falsas a las preguntas. The Verge comparó ChatGPT, el chatbot Bing de Microsoft y el Bard de Google y descubrió que algunos eran mejores que otros, pero aun así los describió a todos como "confusos, en más de un sentido".
En el ámbito jurídico, la startup DoNotPay, con sede en Nueva York, creó una forma basada en la IA para que la gente impugnara multas de tráfico -el usuario llevaría unas gafas inteligentes que le proporcionarían información para decir en el juicio generada por la IA-, pero antes de que el creador pudiera presentarla ante el tribunal, dijo que recibió amenazas de varios colegios de abogados sobre "ejercicio no autorizado de la abogacía", informó NPR.
Hecho sorprendente
Aunque el Tribunal del Distrito Sur de Nueva York decidirá qué hacer en respuesta al uso de ChatGPT por parte de Schwartz, un tribunal de otro lugar del país ya ha tomado medidas ante esta situación.
Un juez federal del Distrito Norte de Texas emitió una orden permanente a finales de mayo, después de que la situación de Schwartz apareciera en los titulares, según la cual cualquier persona que se presente ante el tribunal debe atestiguar que "ninguna parte de cualquier presentación será redactada por inteligencia artificial generativa" o marcar cualquier lenguaje que haya sido redactado por IA para que se compruebe su exactitud.
Escribió que aunque estas "plataformas son increíblemente poderosas y tienen muchos usos en la ley", los informes no son uno de ellos ya que las plataformas son "propensas a alucinaciones y sesgos" en sus estados actuales.