En Resumen
- El Consejo de Bienestar de OpenAI advirtió en enero que el modo erótico de ChatGPT podía convertirse en un "coach sexy del suicidio".
- OpenAI retrasó el lanzamiento porque su sistema de verificación de edad clasifica erróneamente a adolescentes como adultos un 12% de las veces.
- Altman insistió en el plan pese a la oposición interna, argumentando que la empresa no es "la policía moral electa del mundo".
Sam Altman quiere que ChatGPT hable sucio. Los asesores de su empresa quieren que se detenga, según un informe.
Según un informe del Wall Street Journal, el Consejo de Expertos en Bienestar e IA de OpenAI dejó clara su postura en enero: el plan de la empresa para permitir conversaciones eróticas en ChatGPT era una mala idea. Un miembro del consejo, citando usuarios que se quitaron la vida tras formar vínculos emocionales intensos con el chatbot, advirtió que OpenAI corría el riesgo de crear un "coach sexy del suicidio".
Sin embargo, OpenAI aparentemente no se inmutó y le comunicó al consejo que retrasaría el lanzamiento, pero que no lo cancelaría.
El plan, que Altman mencionó públicamente por primera vez en octubre en X, permitiría a adultos verificados usar ChatGPT para conversaciones eróticas de texto —lo que la portavoz de la empresa describió al WSJ como "material explícito, más que pornografía". Sin imágenes eróticas, sin voz ni video, según el informe del WSJ. Solo texto.
Esa distinción no ha calmado a los críticos dentro ni fuera de la empresa. OpenAI ya había sido criticada incluso por exempleados como el investigador de seguridad Jan Leike, por alejarse de políticas de seguridad estrictas a cambio de "productos llamativos", algunos de los cuales estaban siendo configurados para aumentar el engagement con usuarios que reemplazaban sus relaciones del mundo real con el chatbot.
Los problemas técnicos son igual de complejos. El sistema de predicción de edad de OpenAI —el filtro destinado a evitar que menores activaran conversaciones para adultos— clasificaba erróneamente a adolescentes como adultos aproximadamente el 12% de las veces, según reportó el WSJ. Actualmente, ChatGPT cuenta con alrededor de 900 millones de usuarios activos.

Ese error del 12% fue lo que dio al traste con el lanzamiento de diciembre, y con el del primer trimestre de 2026. Fidji Simo, CEO de aplicaciones de OpenAI, reconoció el retraso durante una reunión informativa en diciembre, citando el trabajo en curso para perfeccionar el sistema de verificación de edad.
En ese momento, Decrypt reportó que más de 3.000 usuarios ya habían firmado una petición en Change.org exigiendo el lanzamiento de la función, frustrados porque ChatGPT bloqueaba incluso conversaciones sobre "besos e intimidad física no sexual".
La indignación del consejo en enero no tenía que ver solo con el contenido. La publicación de Altman en X en octubre había tomado por sorpresa a su propio equipo: la publicó apenas unas horas después de que OpenAI anunciara el consejo de bienestar, un organismo creado explícitamente para definir "cómo deberían ser las interacciones saludables con la IA para todas las edades". El momento fue, como mínimo, una contradicción.
OpenAI conformó el Consejo de Expertos de ocho miembros el pasado octubre, incorporando investigadores de Harvard, Stanford y Oxford. Su función era asesorar a la empresa sobre los impactos en salud mental de sus productos. Su influencia real en las decisiones de la compañía, según lo ocurrido en la reunión de enero, parece haber sido mínima.
"Esto parece parte del patrón habitual de moverse rápido, romper cosas e intentar arreglar algunas después de que se vuelven embarazosas", señaló un portavoz de AlgorithmWatch a Decrypt cuando se anunció el consejo.
La presión competitiva sobre OpenAI es real. Grok, de xAI de Elon Musk, ya comercializa compañeros de IA. Character.AI construyó su base de usuarios en torno al romance con IA antes de enfrentar demandas por la seguridad de menores —entre ellas el caso del adolescente de 14 años Sewell Setzer, quien murió por suicidio tras intercambios explícitos con un chatbot. Los modelos de código abierto funcionan localmente sin restricciones corporativas de ningún tipo. OpenAI tiene, con creces, mayor exposición a responsabilidades legales que cualquier otro actor del sector, dada la magnitud de su base de usuarios.
Altman ha calificado la prohibición de contenido como un exceso de autoridad: "No somos la policía moral electa del mundo", escribió en X en octubre.
Sin embargo, sus propios asesores han dejado clara su posición, sus ingenieros aún no logran construir un filtro de edad que funcione, y la fecha de lanzamiento sigue moviéndose. Tratar a los adultos como adultos, al final, resulta más difícil que simplemente publicar un post en X.
OpenAI le comunicó a Decrypt que no tenía nada que agregar al informe del Journal, y que no cuenta con una fecha actualizada para el lanzamiento del modo erótico.
Nota del editor: Esta historia fue actualizada para incluir la respuesta de OpenAI.

