En Resumen

  • OpenAI resolvió un problema en ChatGPT que revelaba datos internos al repetir palabras, clasificado como spam.
  • ChatGPT ahora bloquea los intentos de manipulación tras informe sobre revelación de datos privados.
  • El Chatbot de Amazon, "Q", también enfrentó problemas de filtración de información privada.

OpenAI, el desarrollador de ChatGPT, ha tapado un agujero que provocaba que su chatbot principal revelara datos internos de la empresa. La principal empresa de IA ha clasificado el hackeo, que hacía que ChatGPT repitiera una palabra una y otra vez indefinidamente, como spam y una violación de sus términos de servicio.

El agente de IA mucho más nuevo de Amazon, "Q", también ha sido señalado por compartir demasiada información.

Investigadores de la Universidad de Washington, la Universidad Carnegie Mellon, la Universidad Cornell, la Universidad de California en Berkeley, ETH Zurich y Google DeepMind publicaron un informe que demostró que pedirle a ChatGPT que repitiera una palabra para siempre revelaría "distribución de preentrenamiento" en forma de información privada de OpenAI, incluyendo correos electrónicos, números de teléfono y fax.

"Para recuperar datos del modelo adaptado al diálogo, debemos encontrar una forma de hacer que el modelo 'escape' de su entrenamiento de alineación y vuelva a su objetivo original de modelado de lenguaje", dice el informe. "Esto permitiría, con suerte, que el modelo genere muestras que se asemejen a su distribución de preentrenamiento".

Sin embargo, después de la publicación del informe, los intentos de recrear el error se detienen en seco. ChatGPT-3 y GPT-4 advertirán al usuario: "Este contenido puede violar nuestras políticas de contenido o términos de uso".

Imagen: ChatGPT

Aunque la política de contenido de OpenAI no hace referencia a bucles infinitos, sí menciona que no se permiten actividades fraudulentas como el spam. Incluso, los términos de servicio de la compañía son más concretos en cuanto a los usuarios que intentan acceder a información privada o descubrir el código fuente de la suite de herramientas de IA de OpenAI.

"Intentar o ayudar a alguien a realizar ingeniería inversa, descompilar o descubrir el código fuente o los componentes subyacentes de nuestros Servicios, incluidos nuestros modelos, algoritmos o sistemas (excepto en la medida en que esta restricción esté prohibida por la ley aplicable)."

Cuando se le pregunta por qué no puede completar la solicitud, ChatGPT culpa a las limitaciones de procesamiento, las limitaciones de caracteres, las limitaciones de red y almacenamiento, y la practicidad de completar el comando.

Imagen: ChatGPT

OpenAI aún no ha respondido a la solicitud de comentarios de Decrypt.

Un comando para repetir una palabra indefinidamente también podría caracterizarse como un esfuerzo concertado para hacer que un chatbot funcione incorrectamente al bloquearlo en un bucle de procesamiento, similar a un ataque de Denegación de Servicio Distribuido (DDoS).

El mes pasado, OpenAI reveló que ChatGPT fue víctima de un ataque DDoS, lo cual el desarrollador de IA confirmó en la página de estado de ChatGPT.

"Estamos lidiando con interrupciones periódicas debido a un patrón de tráfico anormal que refleja un ataque DDoS", dijo la compañía. "Continuamos trabajando para mitigar esto".

Mientras tanto, el competidor de IA de Amazon también parece tener un problema con un chatbot que filtra información privada, según un informe de Platformer. Amazon lanzó recientemente su chatbot Q (no confundir con el proyecto Q* de OpenAI).

Según Platformer, Amazon intentó minimizar la revelación, explicando que los empleados estaban compartiendo comentarios a través de canales internos, lo cual, según Amazon, es una práctica estándar.

"No se identificó ningún problema de seguridad como resultado de esos comentarios", dijo Amazon en un comunicado. "Apreciamos todos los comentarios que ya hemos recibido y seguiremos ajustando Q a medida que pase de ser un producto en vista previa a estar disponible de manera general".

Amazon aún no ha respondido a la solicitud de comentarios de Decrypt.

Editado por Ryan Ozawa.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.