Por Jason Nelson
5 min lectura
El nuevo año trae nuevas amenazas de ciberseguridad impulsadas por la inteligencia artificial, según el Director de Seguridad de CrowdStrike, Shawn Henry, quien habló con CBS Mornings el martes.
"Creo que esto es una gran preocupación para todos", dijo Henry.
"La IA ha puesto realmente esta herramienta tremendamente poderosa en manos de la persona promedio y los ha vuelto increíblemente más capaces", explicó. "Entonces, los adversarios están utilizando la IA, esta nueva innovación, para superar diferentes capacidades de ciberseguridad y obtener acceso a las redes corporativas".
Henry destacó el uso de la IA para penetrar en las redes corporativas, así como para difundir desinformación en línea utilizando deepfakes cada vez más sofisticados de video, audio y texto.
Henry enfatizó la necesidad de verificar la fuente de la información y de no aceptar algo publicado en línea como verdadero sin más.
"Tienes que verificar de dónde viene", dijo Henry. "Quién está contando la historia, cuál es su motivación y ¿puedes verificarlo a través de múltiples fuentes?"
"Es increíblemente difícil [de hacer] porque las personas, cuando ven videos, tienen 15 o 20 segundos, no tienen tiempo o muchas veces no hacen el esfuerzo de buscar esa información, y eso es un problema".
Señalando que 2024 es un año electoral para varios países, incluidos Estados Unidos, México, Sudáfrica, Taiwán e India, Henry dijo que la democracia misma está en juego, con los ciberdelincuentes buscando aprovechar el caos político mediante el uso de la inteligencia artificial.
"Hemos visto a adversarios extranjeros apuntar a las elecciones de Estados Unidos durante muchos años, no solo en 2016. [China] nos apuntó en 2008", dijo Henry. "Hemos visto a Rusia, China e Irán involucrados en este tipo de desinformación a lo largo de los años; sin duda lo volverán a usar aquí en 2024".
"Las personas deben entender de dónde proviene la información", dijo Henry. "Porque hay personas con intenciones maliciosas que pueden crear grandes problemas".
Una preocupación particular en las próximas elecciones de Estados Unidos en 2024 es la seguridad de las máquinas de votación. Cuando se le preguntó si la inteligencia artificial podría ser utilizada para hackear las máquinas de votación, Henry se mostró optimista de que la naturaleza descentralizada del sistema de votación de Estados Unidos evitaría que eso sucediera.
"Creo que nuestro sistema en Estados Unidos es muy descentralizado", dijo Henry. "Puede haber áreas individuales que podrían ser objetivo, como los registros de inscripción de votantes, etc., [pero] no creo que haya un problema de tabulación de votos a gran escala que pueda afectar una elección, no creo que sea un problema importante".
Henry destacó la capacidad de la inteligencia artificial para dar acceso a armas técnicas a ciberdelincuentes no tan técnicos.
"La inteligencia artificial proporciona una herramienta muy capaz en manos de personas que pueden no tener habilidades técnicas avanzadas", dijo Henry. "Pueden escribir código, pueden crear software malicioso, correos electrónicos de phishing, etc."
En octubre, la Corporación RAND publicó un informe que sugiere que la inteligencia artificial generativa podría ser desbloqueada para ayudar a los terroristas a planificar ataques biológicos.
"En general, si un actor malicioso es explícito [en su intención], obtendrás una respuesta del tipo 'Lo siento, no puedo ayudarte con eso'", dijo el coautor y ingeniero senior de la Corporación RAND, Christopher Mouton, en una entrevista con Decrypt. "Así que generalmente tienes que usar una de estas técnicas de jailbreaking o ingeniería de estímulo para llegar a un nivel por debajo de esas barreras de protección".
En un informe separado, la empresa de ciberseguridad SlashNext informó que los ataques de phishing por correo electrónico aumentaron un 1265% desde principios de 2023.
Los responsables políticos globales han pasado la mayor parte de 2023 buscando formas de regular y frenar el mal uso de la IA generativa, incluido el Secretario General de las Naciones Unidas, quien ha dado la voz de alarma sobre el uso de deepfakes generados por IA en zonas de conflicto.
En agosto, la Comisión Federal de Elecciones de Estados Unidos avanzó una petición para prohibir el uso de inteligencia artificial en anuncios de campaña de cara a la temporada electoral de 2024.
Los gigantes tecnológicos Microsoft y Meta anunciaron nuevas políticas destinadas a frenar la desinformación política impulsada por IA.
"El mundo en 2024 puede ver a múltiples estados autoritarios buscar interferir en los procesos electorales", dijo Microsoft. "Y pueden combinar técnicas tradicionales con IA y otras nuevas tecnologías para amenazar la integridad de los sistemas electorales".
Incluso el Papa Francisco, quien ha sido objeto de deepfakes generados por IA virales, ha abordado en diferentes ocasiones la inteligencia artificial en sus sermones.
"Debemos ser conscientes de las rápidas transformaciones que están ocurriendo ahora y gestionarlas de manera que salvaguarden los derechos humanos fundamentales y respeten las instituciones y leyes que promueven el desarrollo humano integral", dijo el Papa Francisco. "La inteligencia artificial debe servir a nuestro mejor potencial humano y a nuestras aspiraciones más elevadas, no competir con ellas".
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.