Por Jason Nelson
3 min lectura
Conforme los ciberataques se vuelven más sofisticados y complejos, las empresas tecnológicas como Microsoft se están apoyando en la inteligencia artificial (IA) para ayudar a detectar y prevenir ataques en tiempo real. Pero algunos expertos en ciberseguridad se muestran escépticos sobre sus capacidades.
El martes, el gigante mundial del software Microsoft anunció el lanzamiento de Security Copilot, una nueva herramienta que utiliza inteligencia artificial generativa. La IA generativa es un tipo de inteligencia artificial que utiliza grandes conjuntos de datos y modelos lingüísticos para generar patrones y contenidos como imágenes, texto y vídeo. ChatGPT es el ejemplo más conocido.
Microsoft 365 Copilot, un motor de inteligencia artificial (IA) creado para impulsar un conjunto de aplicaciones de Office, se lanzó a principios de este mes. Security Copilot, la primera herramienta especializada de Copilot, permitirá a los administradores de sistemas informáticos y de seguridad analizar rápidamente grandes cantidades de datos y detectar indicios de ciberamenazas.
"En un mundo en el que se producen 1.287 ataques con contraseña por segundo, las herramientas y la infraestructura fragmentadas no han sido suficientes para detener a los atacantes", afirma Microsoft en un comunicado de prensa. "Y aunque los ataques han aumentado un 67% en los últimos cinco años, la industria de la seguridad no ha sido capaz de contratar suficientes profesionales especializados en ciberriesgos para seguir el ritmo."
Al igual que otras implementaciones de IA generativa, Security Copilot se activa por una consulta o indicación de un usuario y responde utilizando las "últimas capacidades de grandes modelos de lenguaje", y Microsoft dice que su herramienta de inteligencia artificial es "única para un caso de uso de seguridad."
"Nuestro modelo ciberentrenado añade un sistema de aprendizaje para crear y afinar nuevas habilidades [para] ayudar a captar lo que otros enfoques podrían pasar por alto y aumentar el trabajo de un analista", explica Microsoft. "En un incidente típico, este impulso se traduce en ganancias en la calidad de la detección, la velocidad de respuesta y la capacidad de reforzar la postura de seguridad".
Pero la propia Microsoft, así como expertos externos en seguridad informática, dijeron que la herramienta de inteligencia artificial (IA) de Copilot tardará un tiempo en ponerse al día.
"La IA aún no está lo suficientemente avanzada como para detectar fallos en la lógica empresarial o en los contratos inteligentes. Esto se debe a que la IA se basa en datos de entrenamiento, que utiliza para aprender y adaptarse", dijo Steve Walbroehl, cofundador y CTO de la firma de seguridad blockchain Halborn, a Decrypt en una entrevista. "Obtener suficientes datos de entrenamiento puede ser difícil, y la IA puede no ser capaz de reemplazar completamente la mente humana en la identificación de vulnerabilidades de seguridad."
Microsoft pide paciencia: a medida que Copilot aprenda de las interacciones de los usuarios, la compañía ajustará sus respuestas para crear respuestas más coherentes, relevantes y valiosas.
"Security Copilot no siempre acierta en todo. El contenido generado por IA puede contener errores", afirma la empresa. "Pero Security Copilot es un sistema de aprendizaje de bucle cerrado, lo que significa que está continuamente aprendiendo de los usuarios y permitiéndoles dar retroalimentación explícita con la función de retroalimentación integrada directamente en la herramienta."
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.