En Resumen

  • Pras Michel acusó a una IA de sabotear su caso de fraude multimillonario, lo cual Neil Katz de EyeLevel niega.
  • EyeLevel creó una IA entrenada en transcripciones judiciales para ayudar a los abogados en casos complejos.
  • La moción de un nuevo juicio fue presentada por el nuevo abogado de Michel debido a argumentos generados por IA que considera frívolos.

La inteligencia artificial se está abriendo camino en todos los aspectos de la vida, incluido el sistema legal estadounidense. Pero a medida que la tecnología se vuelve más omnipresente, persiste el problema de las mentiras o tonterías generadas por la IA, también conocidas como "alucinaciones".

Estas alucinaciones de IA están en el centro de las afirmaciones del exmiembro de The Fugees, Prakazrel "Pras" Michel, quien acusó a un modelo de IA creado por EyeLevel de sabotear su caso de fraude multimillonario, una afirmación que el cofundador y COO de EyeLevel, Neil Katz, califica de falsa.

En abril, Michel fue condenado por 10 cargos en su juicio por conspiración, incluyendo obstrucción de testigos, falsificación de documentos y actuar como agente extranjero no registrado. Michel enfrenta hasta 20 años de prisión después de su condena como agente de China, ya que los fiscales dijeron que canalizó dinero para tratar de influir en políticos estadounidenses.

AD

"Fuimos contratados por los abogados de Pras Michel para hacer algo único, algo que no se había hecho antes", dijo Katz a Decrypt en una entrevista.

Según un informe de la Associated Press, durante los argumentos de cierre del abogado de Michel en ese momento, el abogado de la defensa David Kenner citó incorrectamente una letra de la canción "I'll Be Missing You" de Sean "Diddy" Combs, atribuyendo incorrectamente la canción a The Fugees.

Según explicó Katz, EyeLevel fue encargado de construir una IA entrenada en transcripciones judiciales que permitiría a los abogados hacer preguntas complejas en lenguaje natural sobre lo que ha ocurrido durante el juicio. Dijo que no obtuvo otra información de internet, por ejemplo.

Los procedimientos judiciales generan notoriamente toneladas de papeleo. El juicio penal del fundador de FTX, Sam Bankman-Fried, que aún está en curso, ya ha generado cientos de documentos. Por separado, la quiebra de la caída del exchange de criptomonedas tiene más de 3.300 documentos, algunos de ellos con docenas de páginas.

"Esto cambia por completo el juego para los litigios complejos", escribió Kenner en una publicación de blog de EyeLevel post. "El sistema convirtió horas o días de trabajo legal en segundos. Esto es un vistazo al futuro de cómo se llevarán a cabo los casos."

AD

El lunes, el nuevo abogado defensor de Michel, Peter Zeidenberg, presentó una moción -publicada en línea por Reuters- para un nuevo juicio en el Tribunal de Distrito de los Estados Unidos para el Distrito de Columbia.

"Kenner utilizó un programa de inteligencia artificial experimental para escribir su argumento de cierre, que presentaba argumentos frívolos, mezclaba los esquemas y no destacaba las debilidades clave en el caso del gobierno", escribió Zeidenberg. Añadió que Michael está buscando un nuevo juicio "porque numerosos errores, muchos de ellos precipitados por su ineficaz abogado defensor en el juicio, socavan la confianza en el veredicto".

Katz refutó las afirmaciones.

"No ocurrió como ellos dicen; este equipo no tiene conocimiento alguno de inteligencia artificial ni de nuestro producto en particular", dijo Katz a Decrypt. "Su afirmación está llena de desinformación. Ojalá hubieran utilizado nuestro software de IA; podrían haber sido capaces de escribir la verdad".

Los abogados de Michel aún no han respondido a la solicitud de comentarios de Decrypt. Katz también refutó las afirmaciones de que Kenner tiene un interés financiero en EyeLevel, diciendo que la empresa fue contratada para ayudar al equipo legal de Michel.

"La acusación en su presentación de que David Kenner y sus asociados tienen algún tipo de interés financiero secreto en nuestras empresas es categóricamente falsa", dijo Katz a Decrypt. "Kenner escribió una reseña muy positiva sobre el rendimiento de nuestro software porque sentía que era así. No se le pagó por eso; no se le dio acciones".

Lanzada en 2019, EyeLevel con sede en Berkley, desarrolla modelos de IA generativa para consumidores (EyeLevel para CX) y profesionales legales (EyeLevel para Law). Como explicó Katz, EyeLevel fue uno de los primeros desarrolladores en trabajar con OpenAI, el creador de ChatGPT, y dijo que la empresa tiene como objetivo proporcionar herramientas "veraces" de IA, es decir, herramientas sin alucinaciones y robustas para personas y profesionales legales que pueden no tener acceso a fondos para pagar a un equipo grande.

Normalmente, los modelos de IA generativa se entrenan con grandes conjuntos de datos recopilados de diversas fuentes, incluido Internet. Lo que hace que EyeLevel sea diferente, según Katz, es que este modelo de IA se entrena solo con documentos judiciales.

AD

"La IA se entrenó exclusivamente con las transcripciones, y exclusivamente con los hechos presentados en el tribunal, por ambas partes y también con lo que dijo el juez", dijo Katz. "Y cuando haces preguntas a esta IA, proporciona respuestas únicamente basadas en hechos, sin alucinaciones, basadas en lo que ha ocurrido".

A pesar de cómo se entrena un modelo de IA, los expertos advierten sobre la tendencia del programa a mentir o alucinar. En abril, ChatGPT acusó falsamente al abogado de defensa criminal de EE. UU. Jonathan Turley de cometer agresión sexual. El chatbot llegó incluso a proporcionar un enlace falso a un artículo del Washington Post para respaldar su afirmación.

OpenAI está invirtiendo mucho en combatir las alucinaciones de la IA, incluso contratando equipos de pruebas de seguridad de terceros para probar su conjunto de herramientas de IA.

"Cuando los usuarios se registran para usar la herramienta, nos esforzamos por ser lo más transparentes posible de que ChatGPT no siempre puede ser preciso", dice OpenAI en su sitio web. "Sin embargo, reconocemos que hay mucho más trabajo por hacer para reducir aún más la probabilidad de alucinaciones y educar al público sobre las limitaciones actuales de estas herramientas de IA".

Editado por Stacy Elliott y Andrew Hayward

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.