Microsoft, la compañía que está liderando el paso en inteligencia artificial generativa, ha presentado esta semana su nuevo asistente de seguridad llamado Security Copilot, el chatbot que ha sido diseñado para ayudar a los profesionales de la ciberseguridad a identificar brechas y comprender mejor las enormes cantidades de señales y datos disponibles para ellos en su día a día.
Security Copilot, un chatbot para la ciberseguridad
Tal y como cuentan en The Verge, el nuevo bot conversacional utiliza la Inteligencia Artificial generativa GPT-4 de OpenAI y el modelo propio de seguridad de Microsoft para procesar los 65 billones de señales que esta última compañía recolecta diariamente. A través de una interfaz de chatbot que acepta lenguaje natural, los profesionales de seguridad pueden preguntar al asistente sobre incidentes de seguridad en sus empresas, resumir eventos y generar informes.
Además, Security Copilot ofrece una sección de colaboración para que los colegas compartan información y trabajen juntos en el análisis de amenazas. También cuenta con una característica llamada «prompt book» que permite automatizar tareas complejas y compartirlas con el equipo de seguridad.
Microsoft ha limitado el uso del Security Copilot a consultas relacionadas con la seguridad, lo que le permite centrarse en su objetivo principal. Además, ha implementado una función de retroalimentación para asegurarse de que el asistente esté en constante mejora y pueda evitar equivocaciones.
Riesgos y brechas de seguridad en ChatGPT
En paralelo, se sigue investigando acerca de los riesgos y los usos positivos de la Inteligencia Artificial en ciberseguridad, y Microsoft es una de las empresas que lidera esta investigación.
El experto Carlos Seisdedos advertía hace poco en una publicación de LinkedIn que la popular IA puede compartir consultas realizadas por un usuario con otras personas.
Desde Cuadernos de Seguridad hemos querido preguntar al propio ChatGPT cuales cree que son sus principales riesgos de cara a la Ciberseguridad y os dejamos con su sincera respuesta: