¿Qué implicaciones podría tener la Inteligencia artificial (IA) para la seguridad de los gobiernos? ¿Qué políticas deberían llevarse a cabo para fomentarla sin riesgos?  El Center for Security and Emerging Technology (CSET) de la Universidad de Georgetown es una institución de reciente creación que constituye el mayor centro de EEUU dedicado al estudio de la IA desde una perspectiva de gobernanza, legislación y de seguridad nacional. Es decir, nació para dar respuesta a esas y otras cuestiones relacionadas con las tecnologías emergentes.

Es por ello que el pasado mes de mayo publicó un estudio que aporta múltiples claves para los legisladores y entidades públicas de cómo la IA y en particular el Machine Learning (ML) están cada vez más presentes en la ciberseguridad.

Cuatro perspectivas para el Machine Learning_

El informe, titulado A National Security Research Agenda for Cybersecurity and Artificial Intelligence analiza las posibles aplicaciones del ML para la seguridad nacional y sus posibles consecuencias. Para ello, lo divide en cuatro secciones con diferentes perspectivas:

AI-Cytomic

  • Ataque: el informe plantea hasta qué punto el ML podría analizar o influir sobre el Cyber Kill Chain (los pasos que conforman secuencia de ataque de los ciberatacantes). En este sentido, menciona las herramientas de automatización para el descubrimiento de vulnerabilidades, la detección de Spear Phishing y el estudio de la propagación de ciberataques. Pero también lo hace desde la perspectiva contraria: cómo ayudaría a una mejor ocultación contra herramientas forenses o potenciar su poder contra sistemas de control industrial e infraestructuras críticas. .
  • Defensa: considera el posible papel del ML en tres etapas de ciberdefensa: detección de la amenaza a través de los comportamientos anómalos en los sistemas, interdicción y mitigación de los ciberataques mediante procesos automatizados y ayuda para atribuir la autoría, basándose incluso en el análisis lenguaje utilizado por los ciberatacantes.
  • Aprendizaje del adversario: el documento afirma que sólo un 1% de los recursos de investigación en IA se destinan a la propia defensa de las herramientas y sistemas con ML y el CSET considera que es algo que los ciberatacantes podrían explotar si aprenden de su funcionamiento y algoritmos: por ejemplo, a través de técnicas como Data Poisoning y Data Pipeline Manipulation (que consisten en la alteración intencionada de los datos que manejaría el algoritmo de ML) o de Model Inversion, con el que a través del estudio del modelo de ML, podrían revertirlo para obtener la información confidencial que buscan.
  • Otras implicaciones: el ML podría generar ciberaccidentes, como fallos no intencionados que causan daños de seguridad en los sistemas o ciberataques cuyas consecuencias finales exceden a las intenciones de los ciberatacantes. También podría ser un apoyo para las campañas de influencia política online y a través de las redes sociales, generando contenidos que simulan ser de usuarios, como es el caso de la herramienta de generación de textos GPT-2 creada por el laboratorio de investigación OpenAI. Además, podría incrementar la velocidad de los ciberataques automatizando etapas del Cyber Kill Chain. Por último, el estudio también lo analiza desde una perspectiva más estratégica y se cuestiona: ¿Beneficia más a los ciberatacantes o los ciberdefensores? ¿Puede constituir una herramienta que proliferase entre los grupos de ciberatacantes o será solo entre los vinculados a gobiernos?. Debido a todo su potencial ofensivo y defensivo, ¿Podría generar disuasión entre los estados como las armas nucleares?

Beneficios, realidad presente_

Parte de esas cuestiones forman parte de la teorización del CSET sobre los riesgos potenciales y como institución académica, es lógico que se planteen a futuro. Sin embargo, los beneficios de la IA en ciberseguridad no son ninguna hipótesis futura, sino que ya forman parte de las soluciones avanzadas como las que disponen los clientes de Cytomic.

Es más, la IA forma parte de la base de toda la tecnología de Cytomic. Por ejemplo, en materia de detección, Cytomic Platform correlaciona y analiza en tiempo real más 8 millones de eventos interconectados entre sí gracias a algoritmos de AI y Deep Learning que, además de clasificar continuamente las aplicaciones en base a sus comportamientos, busca cualquier tipo de actividad sospechosa mediante la aplicación de análisis de datos a escala en la nube, incluso aunque no presente signos maliciosos. Además, el IA ranker, clasifica más de 300.000 nuevos binarios diariamente mediante el ML, como ya abordamos cuando tratamos a Alan Turing y a la IA como pasado, presente y futuro de la ciberseguridad, Por todos esos motivos, la IA es una realidad bien presente en la ciberseguridad, cuyo pilar más destacable es el Machine Learning.