Ícono del sitio La Neta Neta

Microsoft deja que la IA generativa se sumerja en la ciberseguridad

El navegador Edge de Microsoft obtiene espacios de trabajo compartidos, nuevas funciones de seguridad y más

Como parte de su búsqueda continua para inyectar IA generativa en todos sus productos, Microsoft presentó hoy Copiloto de seguridaduna nueva herramienta que tiene como objetivo “resumir” y “dar sentido” a la inteligencia de amenazas.

En un anuncio claro sobre los detalles, Microsoft presentó Security Copilot como una forma de correlacionar los datos de los ataques y priorizar los incidentes de seguridad. Innumerables herramientas ya hacen esto. Pero Microsoft argumenta que Security Copilot, que se integra con su cartera de productos de seguridad existente, mejora con los modelos de IA generativa de OpenAI, específicamente el GPT-4 generador de texto lanzado recientemente.

“Avanzar en el estado de la seguridad requiere tanto de personas como de tecnología: el ingenio humano combinado con las herramientas más avanzadas que ayuden a aplicar la experiencia humana a velocidad y escala”, dijo el vicepresidente ejecutivo de Microsoft Security, Charlie Bell, en una declaración enlatada. “Con Security Copilot estamos construyendo un futuro en el que todos los defensores cuentan con las herramientas y tecnologías necesarias para hacer del mundo un lugar más seguro”.

Microsoft no divulgó exactamente cómo Security Copilot incorpora GPT-4, por extraño que parezca. En cambio, destacó un modelo personalizado entrenado, quizás basado en GPT-4, que impulsa a Security Copilot que “incorpora un conjunto creciente de habilidades específicas de seguridad” e “implementa habilidades y consultas” relacionadas con la ciberseguridad.

Microsoft enfatizó que el modelo no está entrenado en datos de clientes, abordando una crítica común de los servicios basados ​​en modelos de lenguaje.

Este modelo personalizado ayuda a “captar lo que otros enfoques podrían pasar por alto”, afirma Microsoft, al responder preguntas relacionadas con la seguridad, asesorar sobre el mejor curso de acción y resumir eventos y procesos. Pero dadas las tendencias falsas de los modelos generadores de texto, no está claro qué tan efectivo podría ser dicho modelo en la producción.

Microsoft mismo admite que el modelo personalizado de Security Copilot no siempre hace todo bien. “El contenido generado por IA puede contener errores”, escribe la compañía. “A medida que continuamos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas más coherentes, relevantes y útiles”.

Con suerte, esos errores no terminarán empeorando un problema de seguridad.


Source link
Salir de la versión móvil