En Resumen
- Los abogados de Michael Cohen, ex abogado de Trump, han sido ordenados a presentar copias de tres casos legales citados en su moción para terminar su libertad supervisada.
- El tribunal señaló que los casos no existen, lo que sugiere la posibilidad de que se haya utilizado inteligencia artificial para generar la moción o las citas.
- El juez federal advirtió que cualquier presentación se considera una declaración jurada y exige una "explicación detallada" sobre cómo se citaron casos inexistentes y el papel de Cohen en la redacción o revisión de la moción.
Los abogados del ex abogado de Trump, Michael Cohen, han recibido la orden de presentar copias de tres casos legales citados en su moción para terminar su libertad supervisada. El problema, según dijo el tribunal, es que los casos no existen, lo que ha llevado a especular que se utilizó inteligencia artificial para generar la moción o las citas presentadas.
En un documento presentado ante el tribunal el martes, un juez federal advirtió que cualquier presentación se considera una declaración jurada. La moción del tribunal dijo que el equipo de Cohen debe proporcionar una "explicación detallada" de cómo se citaron casos que no existen en la moción de los abogados y "qué papel, si alguno, desempeñó el Sr. Cohen en la redacción o revisión de la moción antes de presentarla".
Los abogados de Cohen "deberán, a más tardar el 19 de diciembre de 2023, proporcionar copias de las tres decisiones citadas al Tribunal", escribió el juez de distrito de EE. UU. Jesse Furman. "Si no puede hacerlo, el Sr. Schwartz deberá, para la misma fecha, mostrar por escrito por qué no debería ser sancionado de conformidad con la Regla 11 de las Reglas Federales de Procedimiento Civil de 1927 y el poder inherente del Tribunal por citar casos inexistentes ante el Tribunal".
En 2018, Cohen fue condenado a tres años de prisión por delitos que incluyen violaciones de financiamiento de campañas, evasión de impuestos y mentir al Congreso. Furman dijo que cualquier decisión sobre la solicitud de Cohen se pospondría hasta que su equipo legal pueda proporcionar pruebas de la existencia de los casos.
El incidente no es el primer desafío judicial de este tipo en la Gran Manzana (un sobrenombre o apodo a la ciudad de Nueva York, Estados Unidos).
"Parece que el abogado de Michael Cohen o su IA citaron casos inexistentes en su intento de poner fin a la libertad supervisada de manera anticipada, sobre lo cual Inner City Press ha estado informando, como lo hizo en un caso anterior de mal uso de IA en SDNY", escribió el periodista y autor Michael Lee en Twitter.
Si bien el tribunal de Nueva York no mencionó expresamente la IA en la presentación, otros casos legales que plantearon la misma pregunta ya han surgido este año. En mayo, Steven Swartz, un abogado en Mata v. Avianca Airlines, admitió haber "consultado" a ChatGPT para investigar e incluyó las respuestas de la IA en los documentos judiciales. El problema es que los resultados de ChatGPT eran todos fabricados debido a alucinaciones de la IA.
En junio, un presentador de radio de Georgia, Mark Walters, presentó una demanda contra el creador de ChatGPT, OpenAI, después de que el chatbot lo acusara de malversación en The Second Amendment Foundation v. Robert Ferguson.
"OpenAI difamó a mi cliente e inventó mentiras escandalosas sobre él", dijo el abogado de Mark Walters, John Monroe, a Decrypt, agregando que no había otra opción que presentar la queja contra el desarrollador de IA. "[ChatGPT] dijo que [Walters] era la persona en el litigio, y no lo era".
En octubre, los abogados del ex miembro de Fugees, Pras Michel, exigieron un nuevo juicio alegando que su antiguo equipo legal utilizó inteligencia artificial y el modelo de IA alucinó sus respuestas, lo que le costó el caso a Michel.
"No confíes, verifica. Abogados: dejen de usar IA/ChatGPT sin verificar independientemente los detalles", publicó en Twitter la abogada y fundadora de Silver Key Strategies, Elizabeth Wharton.
OpenAI ha intensificado sus esfuerzos para combatir las alucinaciones de la IA, incluso contratando equipos de prueba llamados "red teams" para evaluar sus modelos de IA en busca de vulnerabilidades.
El jueves, Fetch AI y SingularityNET anunciaron una asociación para finalmente abordar las alucinaciones de IA y la tendencia de la tecnología a producir salidas inexactas o irrelevantes utilizando tecnología descentralizada.
"SingularityNET ha estado trabajando en varios métodos para abordar las alucinaciones en LLMs [Large Language Models]. El tema clave en todos ellos es la integración neural-simbólica. Nos hemos centrado en esto desde que SingularityNET fue fundada en 2017", dijo Alexey Potapov, Director General de AGI de SingularityNET, a Decrypt. "Nuestra opinión es que los LLM solo pueden llegar hasta cierto punto en su forma actual y no son suficientes para llevarnos hacia una inteligencia artificial general, sino que son una distracción potencial del objetivo final".
Editado por Ryan Ozawa.