En la página web del Parlamento Europeo se define la Inteligencia Artificial (IA) como «la habilidad de una máquina de presentar las mismas capacidades que los seres humanos, como el razonamiento, el aprendizaje, la creatividad y la capacidad de planear». En efecto, los sistemas de IA son capaces de realizar tareas de forma autónoma y adaptar su comportamiento. De esta forma, la Inteligencia Artificial está revolucionando el mundo del trabajo, con avances tecnológicos que implican inevitablemente numerosos riesgos y retos.
Los ciberdelincuentes están utilizando cada vez más la IA para llevar a cabo sus ataques. En 2022, la industria de la seguridad se enfrentó al incremento de las amenazas de ransomware, al uso de ultrafalsos en los ciberataques y al auge de la darknet. A principio de 2023, diferentes entidades no han descartado el pago de rescates y centros sanitarios como el Clínic de Barcelona sufrieron el robo de sus datos.
Por otro lado, las organizaciones están empleando cada día más la Inteligencia Artificial para mejorar su nivel de ciberseguridad, por medio del análisis de patrones de tráfico de red o la detección de comportamientos anómalos. La IA plantea algunos desafíos para la seguridad, como el hecho de que los algoritmos de aprendizaje automático pueden ser engañados o manipulados por los ciberatacantes.
La IA y su empleo en la ciberseguridad
Las tecnologías de IA ofrecen un potencial significativo para mejorar la eficiencia y seguridad de las administraciones públicas. Así lo asegura la Comisión Europea, que destaca también la importancia de crear «instrumentos jurídicos, de contratación y de transparencia, igualmente importantes para fomentar la actualización de la IA por parte de las autoridades públicas de forma que se garantice un alto grado de confianza entre los ciudadanos».
En la evaluación de los peligros que supone en uso malévolo de la IA, la UNESCO publicó su Recomendación sobre la Ética de la Inteligencia Artificial y puso en marcha el proyecto Consenso de Beijing sobre la Inteligencia Artificial en la Educación, además de la Estrategia sobre la innovación tecnológica en la educación (2021-2025).
El Presidente de Microsoft, Brad Smith, señaló hace poco que «es probable que 2023 marque un punto de inflexión crítico para la inteligencia artificial». Según Charlie Bell, Vicepresidente ejecutivo de Seguridad en Microsoft, «cuanto más sirva la IA en la línea del frente, más impacto podrán tener los profesionales de seguridad experimentados y su invaluable conocimiento institucional» creando una gran oportunidad y «un llamado a la acción para involucrar al fin a científicos de datos, codificadores y una gran cantidad de personas de otras profesiones y antecedentes en la lucha contra el riesgo cibernético».
Machine Learning y análisis del Big Data
El dominio de la Inteligencia Artificial está dando muchos frutos en el ámbito del aprendizaje automático (Machine Learning), utilizando algoritmos para aprender de los datos y mejorar su rendimiento con el tiempo. Esta tecnología se utiliza en el análisis del Big Data para extraer información valiosa, identificar patrones y tendencias o hacer predicciones precisas.
Machine Learning elabora un modelo predictivo a partir de métodos analíticos y de clasificación, aprendiendo a medida que se expone a más casos. Una de las formas de crear el modelo es mediante Redes Neuronales, que simulan varias capas de «neuronas». Otra técnica avanzada es Deep Learning, en el que la propia estructura del algoritmo de aprendizaje es modificada y evoluciona con la experiencia.
Josué López, CEO & CSO en Auditech, destaca que «a medida que la IA avance, se espera que siga siendo una herramienta valiosa en la ciberseguridad», y aclara que será importante «estar preparados para aprovechar sus beneficios».
Detectar ataques inéditos
La Inteligencia Artificial está entrando de forma acelerada en el dominio de la ciberseguridad, de la mano de los grandes actores tecnológicos y startups. Así lo asegura Santiago Portela García-Miguel en su estudio sobre el Panorama de la inteligencia artificial en el dominio de la ciberseguridad.
Portela García-Miguel aclara que «el código malicioso supera las líneas de defensa perimetral en la red, cortafuegos, filtros como WAF y políticas Zero Trust, la última línea de defensa reside en el agente de protección instalado en el sistema operativo del dispositivo». Detectar vulnerabilidades del sistema operativo o del software aún no catalogadas (Zero Day) representa un importante desafío tecnológico. Para prevenir y detectar estos ataques se utilizan sistemas de correlación que ya incorporan la Inteligencia Artificial, principalmente Machine Learning (ML).
Tom Madsen, experto en Ciberseguridad y autor de «The Art of War for Cybersecurity» (Springer, 2019) y «Security Architecture – How and Why» (River Publishers, 2022), aclara que la comercialización Zero Day a los corredores en la darknet o a las empresas en Internet supone otro desafío muy importante para la ciberseguridad, destacando que «no revelar la vulnerabilidad a un proveedor para que le ponga un parche, nos expone a todos a la vulnerabilidad que está ahí fuera, y que las empresas de software desconocen».