En Resumen

  • OpenAI respondió a la demanda del New York Times sobre el uso de su contenido para entrenar modelos de IA, calificándola de carecer de fundamento.
  • Acusaron al New York Times de informar de manera incompleta y manipular intencionalmente las indicaciones para generar evidencia perjudicial.
  • OpenAI destacó su compromiso con el periodismo, colaboración con organizaciones de noticias y trabaja en abordar problemas como la "regurgitación" de contenido por parte de la IA.

En respuesta a una demanda presentada por The New York Times, en la cual el medio de comunicación acusó a OpenAI de utilizar su contenido de noticias para entrenar su modelo de IA, OpenAI ha presentado pruebas. El principal desarrollador de IA se apoyó en su compromiso declarado con la industria de las noticias, declarando: "Apoyamos el periodismo, colaboramos con organizaciones de noticias y creemos que la demanda de The New York Times carece de fundamento".

OpenAI también acusó al New York Times de informar de manera incompleta, alegando que "el New York Times no está contando toda la historia". La empresa sugiere que los ejemplos utilizados por el periódico provienen de artículos antiguos que están ampliamente disponibles en sitios web de terceros, y también insinuó que el New York Times había diseñado sus indicaciones de IA para generar la evidencia más perjudicial.

"Parece que manipularon intencionalmente las indicaciones, a menudo incluyendo largos extractos de artículos, para hacer que nuestro modelo regurgite", dijo OpenAI, insinuando que el New York Times actuó de mala fe al proporcionar indicaciones artificiales como evidencia.

"Incluso cuando se utilizan tales indicaciones, nuestros modelos no suelen comportarse de la manera en que el New York Times insinúa, lo que sugiere que o bien instruyeron al modelo para regurgitar o seleccionaron cuidadosamente sus ejemplos de muchos intentos".

La manipulación de indicaciones es una práctica común en la que las personas pueden engañar a un modelo de IA para que haga cosas para las que no está programado, utilizando indicaciones específicas que desencadenan una respuesta muy específica que no se obtendría en condiciones normales.

OpenAI enfatizó su colaboración con la industria de noticias.

"Trabajamos arduamente en nuestro proceso de diseño tecnológico para apoyar a las organizaciones de noticias", escribió la empresa, destacando la implementación de herramientas de IA que ayudan a los periodistas y editores y el objetivo de un crecimiento mutuo tanto para la IA como para el periodismo. OpenAI recientemente formó una asociación con Axel Springer, editor de Rolling Stone, para proporcionar resúmenes de noticias más precisos.

Abordando el problema de la "regurgitación" de contenido, como alegó el New York Times, OpenAI admite que es un problema poco común pero existente en el que están trabajando para mitigarlo.

"La memorización es una falla rara del proceso de aprendizaje en la que continuamente estamos progresando", explican, y defienden sus métodos de entrenamiento. "Entrenar modelos de IA utilizando materiales disponibles públicamente en Internet es un uso legítimo".

Aun así, OpenAI reconoce la validez de las consideraciones éticas al proporcionar un proceso de exclusión para los editores.

Entrenamiento de IA y almacenamiento de contenido

La batalla entre los creadores de contenido y las empresas de IA parece ser un juego sin salida por ahora, ya que la raíz de todo esto es la forma fundamental en que se entrenan los modelos de IA.

Estos modelos se desarrollan utilizando vastos conjuntos de datos que comprenden textos de diversas fuentes, como libros, sitios web y artículos. Otros modelos utilizan pinturas, ilustraciones, películas, voces y canciones, según para qué se les haya entrenado. Sin embargo, estos modelos no retienen artículos o datos específicos. En cambio, analizan estos materiales para aprender patrones y estructuras del lenguaje.

Este proceso es crucial para comprender la naturaleza de las acusaciones y la defensa de OpenAI, y por qué los entrenadores de IA creen que sus negocios utilizan el contenido de manera justa, de manera similar a cómo un estudiante de arte estudia a otro artista o estilo de arte para comprender sus características.

Sin embargo, los creadores, incluyendo el New York Times y los autores más vendidos, argumentan que empresas como OpenAI están utilizando su contenido de mala fe. Afirmaron que su propiedad intelectual está siendo explotada sin permiso ni compensación, lo que lleva a productos generados por IA que podrían competir y desviar la atención de su contenido original.

El New York Times demandó a OpenAI argumentando que el uso de su contenido sin permiso explícito socava el valor del periodismo original, enfatizando el impacto negativo potencial en la producción de periodismo independiente y su costo para la sociedad. Y, se podría argumentar, sin importar cuán elaborada sea la indicación, si "regurgitó" cualquier tipo de contenido con derechos de autor, es porque se utilizó.

Si se utilizó de manera justa o injusta, eso es algo que los tribunales deben decidir.

Esta batalla legal es parte de un movimiento legal que podría dar forma al futuro de la IA, las leyes de derechos de autor y el periodismo. A medida que el caso se desarrolla, sin duda influirá en la conversación en torno a la integración de la IA en la creación de contenido y los derechos de los propietarios de propiedad intelectual en la era digital.

Sin embargo, OpenAI no cree que esto sea una batalla sin salida. A pesar de criticar los puntos clave de la demanda, la compañía de Sam Altman dijo que está lista para tender una rama de olivo y encontrar un resultado positivo en algún lugar.

"Tenemos esperanzas de establecer una asociación constructiva con el New York Times y respetamos su larga historia, que incluye informar sobre la primera red neuronal funcional hace más de 60 años y defender las libertades de la Primera Enmienda".

Editado por Ryan Ozawa.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.