Por Jason Nelson
3 min lectura
Aunque no estuvieras utilizando ChatGPT como terapeuta no remunerado, la idea de que tus preguntas e indicaciones se guarden y se utilicen para entrenar futuros modelos de IA puede hacerte sentir incómodo. Consciente de ello, OpenAI ha puesto en marcha nuevas funciones que permiten a los usuarios proteger su historial de chat de ChatGPT.
Además de dar a los usuarios más control sobre sus huellas digitales, al activar la función se eliminan las indicaciones al usuario de los modelos de entrenamiento de OpenAI y de la barra lateral del historial.
"Esperamos que esto te proporcione una forma más fácil de gestionar tus datos que nuestro actual proceso de exclusión", escribió OpenAI en una publicación de blog. "Cuando se desactive el historial de chat, conservaremos las conversaciones nuevas durante 30 días y las revisaremos sólo cuando sea necesario para controlar si hay abusos antes de eliminarlas permanentemente".
En marzo, OpenAI provocó una tormenta de fuego tras revelar en Twitter que un error exponía la información personal y el historial de chat de algunos usuarios.
Con este movimiento, ChatGPT no sólo está atendiendo a quienes disfrutan con las conversaciones evanescentes. También están desarrollando una nueva suscripción ChatGPT Business adaptada a profesionales y empresas que desean un mayor control sobre sus datos.
"ChatGPT Business seguirá las políticas de uso de datos de nuestra API, lo que significa que los datos de los usuarios finales no se utilizarán por defecto para entrenar nuestros modelos", afirma la empresa. "Tenemos previsto que ChatGPT Business esté disponible en los próximos meses".
Para quienes prefieran rememorar chats pasados o mantener un registro de sus escarceos digitales, ChatGPT también lo necesita. Una nueva función de "exportación" generará un correo electrónico con los datos de ChatGPT del usuario, incluyendo preguntas, conversaciones e información relacionada. Si no se desactiva el historial de chat, las conversaciones se conservarán indefinidamente—y OpenAI las utilizará para la investigación en curso.
Desde el lanzamiento de su última actualización de ChatGPT, GPT-4, OpenAI ha tomado varias medidas para mejorar la privacidad de los usuarios y hacer frente a las "alucinaciones" de la IA. En abril, el gigante del aprendizaje automático reafirmó su compromiso de mantener la IA segura y beneficiosa.
"También reconocemos que, como cualquier tecnología, estas herramientas conllevan riesgos reales—por lo que trabajamos para garantizar que la seguridad esté integrada en nuestro sistema a todos los niveles", declaró OpenAI, anunciando un programa de recompensas por errores la semana siguiente.
El impulso para mejorar la privacidad de los usuarios llega en un momento en el que los legisladores se enfrentan al rápido desarrollo de las herramientas de IA tras el lanzamiento de ChatGPT en noviembre de 2022. A principios de este mes, Italia prohibió ChatGPT por motivos de privacidad, y otros gobiernos expresaron su preocupación.
OpenAI no respondió a la solicitud de comentarios de Decrypt.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.