Alegan abogados que IA los engañó
Dos abogados manifestaron su arrepentimiento ante un furioso juez de una corte federal de Manhattan y culparon a ChatGPT por haberlos engañado de tal manera que incluyeron una investigación jurídica ficticia en un documento presentado ante la corte
- NUEVA YORK, NY
Los abogados Steven A. Schwartz y Peter LoDuca podrían ser sancionados debido al documento que incluyeron en una demanda contra una aerolínea, el cual hacía referencia a casos judiciales anteriores que Schwartz pensó eran verídicos, pero que en realidad fueron inventados por el chatbot con inteligencia artificial.
Schwartz explicó que utilizó el innovador programa para buscar precedentes jurídicos que apoyaran el caso de un cliente contra la aerolínea colombiana Avianca por una lesión sufrida durante un vuelo en 2019.
El chatbot, que ha fascinado al mundo con sus respuestas tipo ensayo a solicitudes de los usuarios, sugirió diversos casos sobre incidentes de aviación que Schwartz no había logrado encontrar mediante los métodos habituales de búsqueda utilizados por su firma jurídica.
El problema fue que varios de esos casos nunca sucedieron o implicaban a aerolíneas que no existían.
Schwartz manifestó al juez P. Kevin Castel que "actuó bajo la idea equivocada... de que este sitio web estaba obteniendo casos de alguna fuente a la que yo no tenía acceso".
Más de la sección
Schwartz dijo que "falló miserablemente" en hacer la respectiva investigación de seguimiento para garantizar que las referencias fueran correctas.
Advertidos
- El juez Castel parecía tanto desconcertado como molesto por el inusual incidente, y decepcionado de que los abogados no hubieran actuado rápidamente para corregir las falsas referencias jurídicas cuando sus contrapartes de Avianca y la corte les avisaron del problema por primera vez. Avianca expuso la falsa jurisprudencia en un documento presentado en marzo ante la corte.