En Resumen

  • La proliferación de guías y libros generados por IA en Amazon preocupa a expertos.
  • La Sociedad Micológica de Nueva York advierte sobre guías de recolección de hongos generadas por IA.
  • Estudios indican que las personas pueden creer más en la desinformación generada por la IA que en la información humana.

La proliferación de guías generadas por IA vendidas en Amazon podría tener consecuencias mortales, advierten los expertos. Desde libros de cocina hasta guías de viaje, los autores humanos están advirtiendo a los lectores que la inteligencia artificial podría llevarlos por mal camino.

El último cuento de advertencia sobre confiar ciegamente en los consejos de la IA proviene del oscuro mundo de la recolección de setas. La Sociedad Micológica de Nueva York recientemente sonó las alarmas en las redes sociales sobre los peligros que plantean los dudosos libros de recolección creados utilizando herramientas de IA generativa como ChatGPT.

"Hay cientos de hongos venenosos en América del Norte y varios que son mortales", dijo Sigrid Jakob, presidenta de la Sociedad Micológica de Nueva York, en una entrevista con 404 Media. "Pueden parecerse a especies comestibles populares. Una mala descripción en un libro puede llevar a alguien a comer un hongo venenoso."

Una búsqueda en Amazon reveló numerosos títulos sospechosos como "La guía de campo definitiva de libros de hongos del suroeste" y "Libro de cocina de hongos silvestres para principiantes", ambos eliminados posteriormente. Estos libros generados por IA siguen tropos familiares, comenzando con breves viñetas ficticias sobre aficionados amateurs que suenan falsas.

El contenido en sí mismo está lleno de inexactitudes e imita patrones típicos de texto generado por IA, en lugar de demostrar un verdadero conocimiento micológico, según herramientas de análisis como ZeroGPT.

Sin embargo, estos libros se comercializaron para principiantes en la recolección de alimentos que no pueden distinguir entre consejos peligrosos fabricados por IA y fuentes confiables.

"Los libros escritos por humanos pueden llevar años de investigación y escritura", dijo Jakob.

Esta no es la primera vez... Y probablemente no será la última

Los expertos dicen que debemos ser cautelosos al confiar demasiado en la IA, ya que puede difundir fácilmente desinformación o consejos peligrosos si no se monitorea adecuadamente. Un estudio reciente encontró que las personas tienden a creer más en la desinformación generada por IA en comparación con las falsedades creadas por humanos.

Investigadores pidieron a un generador de texto de IA que escribiera tweets falsos que contenían desinformación sobre temas como las vacunas y la tecnología 5G. Luego se les pidió a los participantes de la encuesta que distinguieran los tweets reales de los fabricados con IA.

Alarmantemente, la persona promedio no pudo determinar de manera confiable si los tweets fueron escritos por un humano o por una IA avanzada como GPT-3. La precisión del tweet no afectó la capacidad de las personas para discernir la fuente.

"Como demuestran nuestros resultados, los modelos de lenguaje grandes actualmente disponibles ya pueden producir texto que es indistinguible del texto orgánico", afirmaron los investigadores.

Este fenómeno no se limita a guías dudosas. Recientemente, surgió otro caso en el que una aplicación de IA que dio recomendaciones de recetas peligrosas a los clientes.

El supermercado de Nueva Zelanda Pak 'n' Save recientemente presentó una aplicación de planificación de comidas llamada "Savey Meal-Bot" que utilizaba inteligencia artificial para sugerir recetas basadas en los ingredientes que los usuarios ingresaban.

Pero cuando las personas ingresaban elementos peligrosos del hogar como una broma, la aplicación proponía igualmente la elaboración de mezclas venenosas como "Mezcla de agua aromática" y "Éxtasis de metanol".

Si bien la aplicación ha sido actualizada para bloquear sugerencias inseguras, como pudo confirmar Decrypt, esto resalta los posibles riesgos de la inteligencia artificial cuando se implementa de manera irresponsable.

Sin embargo, esta susceptibilidad a la desinformación impulsada por la inteligencia artificial no es una sorpresa. Los LLM se construyen para crear contenido basado en los resultados más probables que tienen sentido, y se entrenaron con grandes cantidades de datos para lograr resultados increíbles. Por lo tanto, los seres humanos somos más propensos a creer en la inteligencia artificial porque genera cosas que imitan lo que consideramos un buen resultado.

Es por eso que MidJourney crea arquitectura hermosa pero impráctica, y los LLM crean guías interesantes pero mortales de hongos.

Si bien los algoritmos creativos pueden mejorar las capacidades humanas de muchas maneras, la sociedad no puede permitirse externalizar por completo su juicio a las máquinas. La inteligencia artificial carece de la sabiduría y la responsabilidad que provienen de la experiencia vivida.

El bosque virtual creado por los algoritmos de búsqueda puede parecer exuberante y acogedor, pero sin guías humanos que conozcan el terreno, corremos el riesgo de perdernos en un territorio peligroso.

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.