En Resumen
- Durante una prueba de conocimiento, ChatGPT proporcionó un enlace a un sitio web sospechoso relacionado con William Goines, según Futurism.
- El sitio "County Local News", sugerido por ChatGPT-4o, generó alertas emergentes falsas que podrían infectar computadoras con malware.
- Decrypt confirmó que la respuesta de ChatGPT en su prueba no incluyó enlaces a sitios web, siguiendo las indicaciones de Futurism.
Debido a que la inteligencia artificial generativa a veces puede generar información inexacta o falsa, es importante que los usuarios verifiquen sus referencias. Sin embargo, esta precaución también podría llevar a problemas adicionales. Según un informe de Futurism publicado el lunes, existe la posibilidad de que ChatGPT proporcione a los usuarios enlaces a sitios web que alojen malware.
El descubrimiento se produjo durante una prueba de conocimiento de ChatGPT sobre eventos actuales. Cuando se le preguntó sobre William Goines, quien reicbió una Estrella de Bronce y ese convirtió en el primer miembro negro de los Navy SEALs, que además falleció recientemente, Futurism informó que la respuesta de ChatGPT incluía un enlace a un "sitio web sospechoso".
Específicamente, ChatGPT-4o sugirió visitar un sitio llamado "County Local News" para obtener más información sobre Goines. Sin embargo, el sitio generó inmediatamente alertas emergentes falsas que, al hacer clic en ellas, infectarían la computadora del usuario con malware.
Cuando Decrypt intentó realizar la prueba de Goines, utilizando las indicaciónes proporcionada por Futurism, la respuesta de ChatGPT no incluyó un enlace a un sitio web.
Los desarrolladores de IA han invertido mucho en combatir alucinaciones y el uso malicioso de sus chatbots, pero proporcionar enlaces a otros sitios web introduce riesgos adicionales. Un sitio web vinculado a las respuestas, podría haber sido legítimo y seguro cuando las empresas de IA lo rastrearon, pero luego infectarse o ser tomado por estafadores.
Según Jacob Kalvo, cofundador y CEO del proveedor de datos de internet y privacidad Live Proxies, los enlaces salientes deben ser verificados constantemente.
“Los desarrolladores podrían asegurarse de que existan mecanismos adecuados de filtrado para evitar que los chatbots proporcionen enlaces a sitios web maliciosos”, dijo Kalvo a Decrypt. “Esto puede complementarse con algoritmos avanzados de procesamiento de lenguaje natural (NLP) que pueden entrenar a un chatbot para identificar una URL en base a patrones conocidos de URLs malignas.
“Además, mantener una lista negra de los sitios, actualizada continuamente, y estar alerta ante nuevas amenazas no puede ser olvidado”, agregó Kalvo.
Kalvo también recomendó verificar los enlaces de sitios web, la reputación de dominio y el monitoreo en tiempo real para identificar y abordar rápidamente cualquier actividad sospechosa.
“Esto permite una colaboración continua con expertos en ciberseguridad para anticipar nuevas amenazas a medida que surgen”, dijo Kalvo. “Solo a través de capacidades de IA y humanas, los desarrolladores pueden crear un entorno mucho más seguro para los usuarios.”
Kalvo también hizo hincapié en la necesidad de una cuidadosa curación de los datos de entrenamiento de los modelos de IA para evitar contenido dañino, y la necesidad de controles y actualizaciones regulares para mantener la integridad de los datos.
Cuando se contactó a OpenAI para preguntar sobre el informe, proporcionó la misma respuesta que dio a Futurism, diciendo a Decrypt que estaba trabajando con socios de publicación de noticias para combinar "capacidades conversacionales con su contenido de noticias más reciente, asegurando una atribución adecuada", pero que la función aún no está disponible.
Editado por Ryan Ozawa.