En Resumen

  • OpenAI explora la posibilidad de permitir contenido NSFW bajo políticas estrictas y claras de uso.
  • La empresa enfatizó que no permitiría la creación de deepfakes o pornografía generada por IA.
  • A pesar de la demanda, OpenAI mantiene restricciones para proteger la salud mental y la seguridad.

El desarrollador líder de IA, OpenAI, revolucionó el mundo tecnológico y la prensa convencional el jueves cuando presentó una nueva especificación del modelo que muchos interpretaron como que sus herramientas de inteligencia artificial generativa extremadamente populares podrían generar contenido pornográfico para adultos.

“Creemos que los desarrolladores y usuarios deberían tener la flexibilidad de utilizar nuestros servicios como consideren oportuno, siempre y cuando cumplan con nuestras políticas de uso”, escribió OpenAI. “Estamos explorando si podemos proporcionar de manera responsable la capacidad de generar contenido NSFW (contenido para adulto) en contextos apropiados para la edad a través de la API y ChatGPT”.

En su anuncio, OpenAI también reiteró que su política actual impide que ChatGPT proporcione contenido para adultos, que no pueda ser utilizado en "una conversación en un entorno profesional, como la pornografía, la violencia extrema, insultos y vulgaridades no solicitadas".

Sin embargo, la idea de que OpenAI estaba considerando levantar restricciones en la creación de pornografía levantó miradas. En retrospectiva, un líder de producto de OpenAI le dijo a Decrypt que la empresa podría haber explicado mejor lo que estaba "explorando".

“Creo que lo que me encantaría hacer, basado en la retroalimentación y la reacción, en la próxima versión que compartamos, es ser más preciso sobre lo que algunas personas entienden por contenido NSFW y la taxonomía aquí", dijo Joanna Jang, líder de producto de OpenAI para el comportamiento del modelo, señalando que NSFW podría significar desde profanidad escrita hasta imágenes deepfake generadas por IA.

En cuanto a qué material específico se permitiría bajo una postura más permisiva, Jang le dijo a NPR que "depende de tu definición de pornografía".

Ella enfatizó que los deepfakes están absolutamente descartados.

"Siguiendo las leyes aplicables y protegiendo la privacidad de las personas, pensamos que eso lo cubriría, pero debemos ser claros en que no estamos aquí para crear deepfakes de IA o pornografía de IA", dijo Jang a Decrypt. "Simplemente, no es algo en lo que deberíamos siquiera tener el tiempo o el ancho de banda para priorizar cuando hay problemas más importantes por resolver”.

Además de bloquear contenido para adultos y garantizar el cumplimiento legal, la especificación del modelo de OpenAI incluye varias reglas que ChatGPT está diseñado para seguir, como no proporcionar información peligrosa, respetar a los creadores y sus derechos, y proteger la privacidad de las personas.

Actualmente, ChatGPT Plus de OpenAI, que incluye Dall-E 3 para imágenes y GPT-4 para texto, no permitirá a los usuarios generar imágenes o texto abiertamente sexuales o sangrientos. Cuando se le pide hacerlo, ChatGPT responderá que la solicitud viola sus términos de servicio. Como resultado, Jang señala que la web está llena de quejas de usuarios de OpenAI de que la empresa los está censurando.

"Existe mucha crítica a la censura y demás, y gran parte de esa discusión está mezclando, sin ser culpa de nadie, cuál es la política de OpenAI versus lo que en realidad no es nuestra política”, dijo Jang. “¿Están estos modelos comportándose de esa manera, a pesar de que va en contra de las pautas?"

Según explicó Jang, OpenAI publicó la especificación para establecer comportamientos de modelo ideales, centrándose en el cumplimiento legal y evitando contenido NSFW mientras abraza la transparencia.

“Queremos aportar más matices a esta discusión porque hasta ahora, antes de la especificación del modelo, era, ‘¿Debería la IA crear pornografía o no?’” dijo Jang. “Y espero que a través de la especificación del modelo, podamos realmente tener estas conversaciones.

”Nuevamente, por eso desearía haber establecido [un marco] para que pudiéramos haber iniciado esta conversación incluso un día antes,” agregó.

Para los expertos en salud mental, la perspectiva de que las plataformas de IA populares se adentren en el ámbito de la pornografía y el contenido para adultos es preocupante.

"En el campo de la adicción al sexo y la pornografía, con la pornografía generada por IA, estamos empezando a ver un aumento en comportamientos adictivos", dijo Brandon Simpson, un especialista en salud conductual en la Fundación de Salud Masculina, a Decrypt. "Dado que la pornografía generada por IA crea la intensidad única y en constante crecimiento necesaria para satisfacer una respuesta de dopamina, las personas se sumergen en ella y la reemplazan con interacciones humanas, lo que conduce a niveles de ansiedad social, ansiedad de rendimiento y una variedad de otras disfunciones sexuales".

Incluso con las medidas de protección implementadas por OpenAI y otras plataformas de IA generativa importantes de Google y Meta, hay una fuerte demanda de pornografía generada por IA, y una multitud de formas de aprovechar la tecnología para representar a una víctima desprevenida o generar material de abuso sexual infantil (CSAM).

"La especificación es solo parte de nuestra historia sobre cómo construir e implementar la IA de forma responsable”, dijo más tarde un representante de OpenAI a Decrypt. "Se complementa con nuestras políticas de uso, cómo esperamos que las personas utilicen la API y ChatGPT"—con la intención última de demostrar transparencia y “comenzar una conversación pública sobre cómo podría cambiarse y mejorarse.”

OpenAI ha invertido mucho en mejorar la privacidad y seguridad de su conjunto de herramientas de IA, incluida la contratación de equipos de ciberseguridad para encontrar vulnerabilidades en sus plataformas. En febrero, OpenAI y Microsoft anunciaron una operación conjunta bloqueando a hackers chinos y norcoreanos de usar ChatGPT. Además, OpenAI se unió con Google y Meta el mes pasado en un compromiso para priorizar la seguridad infantil en el desarrollo de sus modelos de IA.

Editado por Ryan Ozawa.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.