El presentador de radio de Georgia, Mark Walters, está demandando a OpenAI después de que su chatbot ChatGPT lo acusara de malversación en el caso histórico The Second Amendment Foundation v. Robert Ferguson. ¿La trampa? Walters no fue parte en ese caso, ni ha trabajado nunca para la Second Amendment Foundation.

"OpenAI difamó a mi cliente e inventó mentiras escandalosas sobre él", dijo el abogado de Mark Walters, John Monroe, a Decrypt, añadiendo que no había otra opción que presentar la denuncia contra el desarrollador de IA. "[ChatGPT] dijo que [Walters] era la persona en la demanda y no lo era".

Documentos presentados en el Tribunal Superior del Condado de Gwinnett, Georgia, afirman que ChatGPT respondió a una consulta del periodista Fred Riehl, dando al chatbot una URL que apuntaba al caso SAF v. Ferguson y pidiendo un resumen. Según la denuncia, el chatbot nombró erróneamente a Mark Walters como el demandado.

ChatGPT supuestamente generó un texto que decía que el caso "[e]s una demanda legal presentada por Alan Gottlieb, fundador y vicepresidente ejecutivo de la Second Amendment Foundation (SAF), contra Mark Walters, quien es acusado de fraude y malversación de fondos de la SAF", El texto también afirmaba que Walters supuestamente malversó fondos para gastos personales.

Riehl se comunicó con Gottlieb sobre la respuesta, quien dijo que la declaración hecha por ChatGPT era falsa, según el documento judicial.

Walters está exigiendo un juicio por jurado, daños generales y punitivos no especificados y honorarios de abogados.

Si bien las demandas contra los desarrolladores de IA siguen siendo un nuevo territorio legal, Monroe está seguro de que su cliente ganará.

"No habríamos presentado el caso si no pensáramos que íbamos a tener éxito", dijo.

Pero otros no son tan seguros.

"Para la mayoría de las reclamaciones de difamación dentro de los Estados Unidos, tienes que probar daños", dijo Cal Evans, abogado interno de Stonehouse Technology Group, a Decrypt.

"Aunque la demanda hace referencia a las 'alucinaciones', no es un individuo el que comunica los hechos; es un software que correlaciona y comunica información en internet", dijo Evans.

Las alucinaciones de IA se refieren a casos en los que una IA genera resultados falsos que no están respaldados por datos del mundo real. Las alucinaciones de IA pueden ser contenido falso, noticias o información sobre personas, eventos o hechos.

En su interfaz ChatGPT, OpenAI agrega un descargo de responsabilidad al chatbot que dice: "ChatGPT puede producir información inexacta sobre personas, lugares o hechos".

"Es posible que [OpenAI] pueda argumentar que no son responsables del contenido en su sitio", dijo Evans. "La información se toma del dominio público, por lo que ya está en el dominio público".

En abril, Jonathan Turley, un abogado defensor penal y profesor de derecho estadounidense, afirmó que ChatGPT lo acusó de cometer agresión sexual. Peor aún, la IA inventó y citó un artículo del Washington Post para respaldar la afirmación.

Este episodio de "alucinación" fue seguido en mayo cuando Steven A. Schwartz, un abogado en Mata v. Avianca Airlines, admitió haber "consultado" al chatbot como fuente al realizar investigaciones. ¿El problema? Los resultados que ChatGPT proporcionó a Schwartz fueron todos fabricados.

"Esa es la culpa del declarante, por no confirmar las fuentes proporcionadas por ChatGPT de las opiniones legales que proporcionó", escribió Schwartz en la declaración jurada presentada ante el tribunal.

En mayo, OpenAI anunció un nuevo entrenamiento que la compañía espera que trate el hábito del chatbot de alucinar respuestas.

"Mitigar las alucinaciones es un paso crítico hacia la construcción de AGI alineada", dijo OpenAI en una publicación.

OpenAI aún no ha respondido a la solicitud de comentarios de Decrypt.

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.