Obogado utiliza ChatGPT para prepararse para una audiencia y termina en problemas

El chatbot le proporciono al abogado varios ejemplos de casos legales que en realidad nunca existieron.

Steven Schwartz, un abogado de EE.UU. con más de 30 años de experiencia, usó ChatGPT, el prototipo de chatbot de inteligencia artificial (IA) desarrollado por la compañía estadounidense OpenAI, para la investigación de un caso judicial.

Al ejercer de representante legal de Roberto Mata, quien acusó a una aerolínea por las lesiones que dice haber sufrido por culpa de un carrito de servicio, Schwartz decidió buscar casos anteriores similares para demostrar que la demanda debería seguir adelante.

Sin embargo, el juez Kevin Castel sostuvo que el tribunal se enfrentó a una «circunstancia sin precedentes», ya que seis de los ejemplos de casos legales presentados por el abogado parecían ser «decisiones judiciales falsas con citas falsas y citaciones internas falsas».

Al exigir explicaciones sobre lo sucedido, se descubrió que la investigación no había sido preparada explícitamente por el propio Schwartz, sino que recurrió a la ayuda de ChatGPT. Durante una audiencia, el abogado aseguró que antes nunca había usado esta tecnología y, por lo tanto, «no estaba al tanto de la posibilidad de que su contenido pudiera ser falso».

Asimismo, Schwartz dijo que «lamenta mucho haber utilizado inteligencia artificial generativa para complementar la investigación legal […] y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad». Al mismo tiempo, aceptó la responsabilidad por no confirmar las fuentes proporcionadas por el chatbot.

A consecuencia de sus actos, Schwartz recibió la orden de mostrar la causa por la cual no debería ser sancionado «por el uso de una certificación notarial falsa y fraudulenta». La audiencia pertinente se celebrará el próximo 8 de junio. Fuente: RT.

Diario Perú

Medio de comunicación sin fines de lucro.

Publicaciones relacionadas

Botón volver arriba