Cuando ChatGPT “traicionó” al abogado, inventando jurisprudencia (citada en la demanda).

Es sábado, y es un buen momento para compartir esto.

El famoso caso del abogado Steven A. Schwartz que buscó jurisprudencia para su caso en…ChatGPT.

Tenía que demandar a la famosa aerolínea Avianca, porque su cliente (Roberto Mata) supuestamente se había lastimado cuando en un vuelo, el carrito donde transportan la comida y bebida, lo golpeó.

La traición de ChatGPT fue brutal, porque…citó jurisprudencia que no existía. Y el boga no tuvo mejor idea que ponerla en la demanda.

La joyita: el abogado antes de citar los casos en la demanda, le pidió a ChatGPT que verificara si los casos eran de verdad. Otra traición de ChatGPT que dijo que si.

Ya lo saben. Ojo con ChatGPT.

Mirá la resolución completa original del Tribunal de Distrito de los Estados Unidos para el Distrito Sur de Nueva York, que podes descargar en este enlace (con las sanciones al abogado, desde ya).

PD: a propósito del tema, no te olvides de mirar la publicación del juez que uso ChatGPT para la sentencia.

 

NOTA AL LECTOR/A. El blog esta hecho 100% a pulmón. Si te gusta lo que hago o te fue útil el post, una forma de colaborar con la página es invitarme un cafecito -o varios- en parisinestor | Cafecito

Dejá un comentario