En Resumen
- La carrera tecnológica impulsa la creación de deepfakes, generando videos y audios falsificados con un fuerte impacto en las empresas y sus líderes.
- Deepfakes son utilizadas para crear material fraudulento, afectando la reputaciones de líderes empresariales para cometer fraudes millonarios.
- Los reguladores de EE.UU. buscan impedir la propagación y el uso de deepfakes para generar contenido en campañas políticas.
A medida que los gigantes tecnológicos compiten por llevar la inteligencia artificial a las masas y dominar el mercado emergente, la carrera armamentista de la IA está alimentando un aumento en los videos y audios "deepfake", contenido que a menudo parece o suena convincentemente legítimo, pero que en realidad es una representación fraudulenta. Y que también están afectando a las empresas, según un nuevo informe.
Los deepfakes son creaciones generadas por IA como imágenes, videos y audio manipulados para engañar a las personas. Los estafadores utilizan deepfakes para el fraude, extorsión o para dañar reputaciones. La proliferación de herramientas de IA generativa ha facilitado más que nunca la forma en la que los estafadores crean contenido falso.
La imagen de celebridades y otras figuras públicas están siendo usadas para crear imágenes artificiales y a veces explícitas sin sus consentimientos, de formas que a veces se vuelven virales o pueden causar pánico en las redes sociales. En un informe proporcionado a Decrypt, la firma global de contabilidad KPMG escribió que el sector empresarial tampoco está a salvo de la amenaza de deepfake.
El contenido de deepfake puede ser utilizado en ataques de ingeniería social y otros tipos de ciberataques dirigidos a empresas, escribió KPMG, además de afectar la reputación de las empresas y a sus líderes. Las representaciones falsas de los líderes de la empresas también pueden ser utilizadas en esquemas para estafar a los clientes, o para convencer a los empleados de proporcionar información o transferir dinero a actores ilícitos.
KPMG citó un ejemplo de 2020 de un gerente de sucursal de una empresa en Hong Kong que fue engañado para transferir $35 millones de fondos de la empresa a estafadores después de creer que su jefe estaba al teléfono, ordenándole que lo hiciera. En cambio, era una recreación clonada por IA de la voz del supervisor, todo como parte de un elaborado plan para estafar dinero a la empresa.
"Las consecuencias de los ciberataques que utilizan contenido sintético - contenido digital que ha sido generado o manipulado con fines nefastos - pueden ser enormes, costosas y tener una variedad de impactos socioeconómicos, incluyendo financieros, reputacionales, de servicio, geopolíticos, entre otros", señala el informe.
Imágenes deepfake de Donald Trump siendo arrestado a principios de este año, del Papa Francisco vistiendo ropa de lujo de Balenciaga, y de Elon Musk promoviendo estafas de criptomonedas se han vuelto virales en el último año a medida que mejoran las herramientas de IA utilizadas para crear deepfakes.
"Ya sea deepfakes baratos o deepfakes, el modelo económico ha cambiado significativamente debido a los modelos generativos de IA", escribió KPMG.
Más allá de las figuras públicas mencionadas anteriormente, celebridades prominentes cuyas semejanzas han sido robadas y aplicadas a imágenes falsificadas incluyen a la actriz Emma Watson y la música Taylor Swift. Pero es el posible impacto en las empresas y sus líderes, a veces prominentes, lo que preocupa a KPMG.
"Como factor de riesgo, el contenido deepfake no es meramente una preocupación para las redes sociales, los sitios de citas y la industria del entretenimiento, ahora es un problema en la sala de juntas", dijo KPMG. "Un claro ejemplo, casi todos los encuestados (92%) en una reciente encuesta de KPMG sobre IA generativa a 300 ejecutivos de múltiples industrias y geografías, dicen que sus preocupaciones sobre los riesgos de implementar IA generativa son de moderadas a altamente significativas".
No solo las empresas y las celebridades están lidiando con el aumento tanto en la calidad como en la cantidad de videos deepfake en Internet. Los gobiernos y los reguladores también están considerando el impacto potencial en la sociedad y las elecciones, mientras que los creadores de estas herramientas de IA están evaluando su posible impacto negativo.
La semana pasada, la Comisión Federal de Elecciones de Estados Unidos, anticipando el uso de deepfakes en las elecciones de 2024, avanzó con una petición para prohibir el uso de inteligencia artificial en los anuncios de campaña.
Si se aprueba, la agencia modificaría las regulaciones actuales con respecto a la representación fraudulenta de "autoridad de campaña" y aclararía que la prohibición se aplica a los anuncios de campaña de IA deliberadamente engañosos.
"Los reguladores deben seguir comprendiendo y considerando el impacto de las amenazas en evolución en las regulaciones existentes", dijo Matthew Miller, Principal de Servicios de Ciberseguridad en KPMG, a Decrypt. "Los requisitos propuestos para etiquetar y marcar el contenido generado por IA podrían tener un impacto positivo".
En julio, investigadores del MIT propusieron agregar cambios de código a modelos de difusión masiva para mitigar el riesgo de las deepfakes, mediante la adición de pequeños cambios que son difíciles de ver, pero que en última instancia modifican cómo funcionan los modelos, haciendo que generen imágenes que no parecen reales. Mientras tanto, Meta anteriormente conocida como Facebook, recientemente retuvo el lanzamiento de una herramienta de IA debido a su potencial para crear deepfakes.
La emoción en torno al potencial creativo de las herramientas de IA generativa se ha visto atenuadas por la realización de que también pueden crear oportunidades para contenido malicioso. En última instancia, en medio de las mejoras rápidas de dichas herramientas, Miller instó a todos a estar atentos ante el potencial de contenido falso.
"El público debe mantener una vigilancia continua al interactuar a través de canales digitales", dijo a Decrypt. "La conciencia de la situación y el sentido común son muy útiles para prevenir un incidente. Si algo no se siente bien, tiene una alta probabilidad de ser una actividad maliciosa".