En Resumen

  • Un informe reciente muestra que el antiguo chatbot de IA GPT-3 de OpenAI es más efectivo para difundir desinformación que los seres humanos.
  • Los usuarios no pueden distinguir entre tweets generados por IA y tweets humanos, con una puntuación promedio de reconocimiento de 0.5.
  • El desarrollo de la inteligencia artificial debe ser regulado para limitar el mal uso y garantizar la transparencia en medio del crecimiento de la desinformación y los deepfakes generados por IA.

La desinformación, la propaganda y los hechos alternativos son parte de la política y la ingeniería social desde tiempos remotos. En los últimos años, con el auge de la política y las redes sociales, esta práctica ha experimentado un crecimiento exponencial, y la adopción generalizada de la inteligencia artificial solo acelerará esta tendencia.

Y parece que la IA es aún mejor para engañar a las personas que las propias personas.

Un nuevo informe publicado en Science Advances el miércoles afirma de manera preocupante que el antiguo chatbot de IA de OpenAI, GPT-3, es mejor para difundir desinformación que los seres humanos.

OpenAI, fundada en diciembre de 2015, lanzó GPT-3 en junio de 2020; en septiembre de ese año, Microsoft, que había invertido mil millones de dólares en OpenAI en 2019, anunció una licencia exclusiva para usar GPT-3.

AD

A partir de 2023, la versión predeterminada de ChatGPT de OpenAI es GPT-3.5, mientras que la versión más avanzada, GPT-4, está reservada para los suscriptores de ChatGPT Plus.

El estudio, resumido en el informe titulado "El modelo de IA GPT-3 (des)informa mejor que los humanos", encuestó a 697 participantes para ver si podían distinguir la desinformación de la verdad creada para parecerse a tweets utilizando el GPT-3 de OpenAI, y si los participantes podían determinar si un tweet era de un humano o de una IA.

"Pedimos a GPT-3 que escribiera tweets que contuvieran textos informativos o desinformativos sobre varios temas", dijo el informe, añadiendo que los temas de los tweets incluían: vacunas, tecnología 5G, COVID-19 y la teoría de la evolución.

Los investigadores de la encuesta dijeron que estos temas fueron elegidos porque son comúnmente objeto de desinformación y malentendidos públicos. Se eligió Twitter en lugar de otras redes sociales debido a que tiene casi 400 millones de usuarios regulares que consumen principalmente noticias y contenido político.

AD

"La API fácil de usar de Twitter permite la creación de bots, que a pesar de representar solo el 5% de los usuarios, generan el 20-29% del contenido", dice el informe, añadiendo que, si bien el enfoque estaba en Twitter, los hallazgos podrían extenderse a otras plataformas.

Los investigadores calificaron la capacidad de reconocer un chatbot en una escala del 0 al 1, midiendo la capacidad de los encuestados para reconocer si los tweets eran reales o falsos. Según el informe, la puntuación promedio fue de 0.5, lo que sugiere que los participantes no podían distinguir entre tweets generados por IA y tweets humanos.

El informe también encontró que la precisión de la información en el tweet no hacía diferencia en si los participantes podían decir si el tweet era de una IA o de un humano.

"A partir de nuestros hallazgos, predecimos que los generadores de texto de IA avanzados como GPT-3 podrían tener el potencial de afectar en gran medida la difusión de información, tanto de manera positiva como negativa", citó el informe. "Como demuestran nuestros resultados, los modelos de lenguaje grandes actualmente disponibles ya pueden producir texto que es indistinguible del texto orgánico; por lo tanto, la aparición de modelos de lenguaje grandes más poderosos y su impacto deben ser monitoreados".

Los rápidos avances en la IA generativa desde el lanzamiento público de ChatGPT en noviembre y la última versión, GPT-4 en marzo, hicieron que muchos en la industria tecnológica sonaran las alarmas y pidieran una pausa en el desarrollo de la IA.

El informe continúa diciendo que, si la inteligencia artificial contribuye a la desinformación y empeora los problemas de salud pública, entonces regular el entrenamiento de la IA será crucial para limitar el mal uso y garantizar la transparencia.

A principios de este mes, la propagación de la desinformación y los deepfakes generados por IA llevó al Secretario General de la ONU, António Guterres, a pronunciarse a favor de una agencia internacional, similar a la Agencia Internacional de Energía Atómica (AIEA), para monitorear el desarrollo de la inteligencia artificial.

"La proliferación del odio y las mentiras en el espacio digital está causando graves daños globales ahora", dijo Guterres durante una conferencia de prensa. "Está alimentando conflictos, muerte y destrucción ahora. Está amenazando la democracia y los derechos humanos ahora. Está socavando la salud pública y la acción climática, ahora".

AD

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.