3 min lectura
Una aplicación impulsada por inteligencia artificial de un supermercado de Nueva Zelanda, diseñada para ayudar a los clientes a utilizar creativamente las sobras, se ha vuelto loca y sugiere alegremente utilizar recetas para armas químicas tóxicas durante la cena familiar.
Pak 'n' Save lanzó su aplicación "Savey Meal-bot" a finales del mes pasado, anunciándola como una forma de alta tecnología para preparar comidas que ahorran dinero durante tiempos económicos difíciles. Después de ingresar los ingredientes disponibles, los usuarios reciben una receta generada automáticamente por la inteligencia artificial de la aplicación, con comentarios entusiastas como "¡Delicioso!" y "¡Ñam!"
"Dinos qué comida te sobra, ¡y los chicos de tecnología dicen que recibirás una nueva y sabrosa receta!" dice Pak 'n' Save en la pantalla de bienvenida de su bot, "¡aprovechemos todas esas sobras y no desperdiciemos nada. ¡Esta es mi tecnología más sabia hasta ahora!"
Pero a la gente le gusta ser creativa y cuando los clientes comenzaron a ingresar objetos aleatorios del hogar en la aplicación, ésta comenzó a proponer recetas como "Mezcla de Agua Aromática" (también conocida como gas cloro mortal), "Sándwiches de Pan Venenoso" (sándwiches de veneno para hormigas y pegamento) y "Éxtasis de Metanol" (tostadas francesas a base de trementina). Esto no es exactamente lo que se sirve en la cena del domingo.
"Estamos decepcionados de que una pequeña minoría haya intentado utilizar la herramienta de manera inapropiada", dijo un portavoz de Pak 'n' Save a The Guardian, agregando que los términos y condiciones de la aplicación requieren que los usuarios sean mayores de 18 años. La empresa dijo que planea "seguir ajustando los controles" para mejorar la seguridad.
Pak 'n' Save inicialmente anunció su aplicación de planificación de comidas con inteligencia artificial con el lema: "¡Dinos qué sobras tienes, y los chicos de tecnología dijeron que obtendrás una nueva receta ingeniosa!" Pero la aplicación también venía con un descargo de responsabilidad que no garantiza que las recetas sean "apropiadas para el consumo".
Cuando Decrypt probó la aplicación utilizando ingredientes regulares, funcionó como se anunciaba. Pero al ingresar algo claramente inseguro como "shampoo" o "limpiador de desagües", la aplicación bloquea la solicitud.
A menos que esto sea una solución de último minuto, sugiere que los usuarios bromistas encontraron una manera de engañar a la IA haciéndole creer que elementos peligrosos eran alimentos, probablemente describiéndolos de manera creativa. Esta técnica, también conocida como "jailbreaking" ha sido utilizada para hacer que ChatGPT y otros chatbots de IA vayan en contra de sus pautas.
Así que la próxima vez que te vuelvas un poco creativo con las sobras, mejor sigue los libros de cocina en lugar de las aplicaciones de IA con fallas. Ese "Arroz Sorpresa" podría ser un shock para el sistema digestivo más grande de lo esperado.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.