Los líderes de seguridad dicen que los próximos dos años van a ser «una locura»
SAN FRANCISCO— Cada conferencia RSA tiene sus palabras de moda. Nube. ransomware. Confianza cero. Colocado en todo el complejo Moscone Center de 87 acres en cada stand, pancarta y barra. Este año fue la IA, y los proveedores ofrecieron soluciones basadas en IA para todos los problemas de seguridad imaginables. Pero 2026 se destacó por una razón diferente: los líderes de la industria pasaron la conferencia advirtiendo sobre la disrupción de la misma tecnología que todos vendían.
En una conversación exclusiva con CyberScoop en la conferencia de este año, Kevin Mandia, fundador de la empresa de seguridad de IA armadinMorgan Adamski, ex director ejecutivo del Comando Cibernético de EE. UU., y Alex Stamos, investigador y ex director de seguridad de varias empresas tecnológicas importantes, dijeron que la industria está entrando en lo que describieron como un período de agitación sin precedentes de dos a tres años, impulsado por sistemas de inteligencia artificial que están descubriendo vulnerabilidades exponencialmente más rápido de lo que los defensores pueden responder y amenazando con dejar obsoletas décadas de prácticas de seguridad.
«Estamos justo en el punto de inflexión que va a ser bastante loco, al menos dos o tres años», dijo Stamos, describiendo un futuro a corto plazo en el que los sistemas de inteligencia artificial inundarán el panorama de amenazas con exploits funcionales mientras las organizaciones luchan por parchear las vulnerabilidades más rápido de lo que los atacantes pueden convertirlas en armas.
Mandia expresó la línea de tiempo de manera más directa. «Es una tormenta perfecta para la ofensiva durante el próximo año o dos», dijo.
El principal problema, según los ejecutivos, es la velocidad. La IA ha hecho que el descubrimiento de vulnerabilidades sea casi trivial, mientras que su remediación requiere tiempo y esfuerzo, lo que crea una brecha cada vez mayor que favorece a los atacantes en todas las etapas de la cadena de destrucción.
«Debido a la asimetría en el dominio cibernético, donde una persona en ataque puede crear trabajo para millones de defensores, la velocidad aprovecha esa asimetría», dijo Mandia. «A corto plazo, los atacantes tienen una ventaja, ya que empiezan a utilizar modelos y agentes para realizar gran parte de la ofensiva».
El descubrimiento de errores se vuelve exponencial
El cambio ya está en marcha. Stamos, quien actualmente es director de seguridad en Corridor, dijo que las empresas modelo de base tienen miles de errores descubiertos a través de análisis asistidos por IA y que carecen de la capacidad de verificar o parchear.
«El descubrimiento de exploits se ha vuelto exponencial», dijo Stamos. «Lo que aún no hemos visto que se vuelva exponencial es conectarlo a un código shell funcional que eluda las protecciones de los procesadores modernos. Pero tal vez dentro de seis meses o un año» la IA generará exploits sofisticados bajo demanda.
Señaló ejemplos de sistemas de inteligencia artificial que descubrieron vulnerabilidades en códigos de décadas de antigüedad que habían sido revisados por miles de desarrolladores e investigadores de seguridad profesionales. En un caso, dijo, un sistema de inteligencia artificial identificó una falla en el código fundamental del kernel de Linux que los humanos habían pasado por alto durante años.
«Este sistema superinteligente fue capaz de encontrar una manera de manipular la máquina hasta un lugar que, cuando miras el error, no estoy seguro de cómo un humano podría haberlo encontrado», dijo Stamos.
El ritmo de los descubrimientos está creando lo que Stamos llamó “un enorme problema de acción colectiva”. Cada generación sucesiva de modelos de IA podría revelar cientos de nuevas vulnerabilidades en el mismo software fundamental. «Es muy posible que todo este desarrollo que hemos realizado en lenguajes que no son seguros para la memoria, sin métodos formales, nada de eso sea realmente seguro en presencia de máquinas superinteligentes para encontrar errores», dijo. «En cuyo caso necesitamos reconstruir masivamente la infraestructura básica en la que todos trabajamos. Y nadie está haciendo eso».
El cronograma para cuando esas capacidades sean ampliamente accesibles se mide en meses. Cuando los modelos chinos de código abierto, como DeepSeek o Qwen de Alibaba, alcancen los niveles de capacidad actuales del modelo de base estadounidense, dijo Stamos, «todos los jóvenes de 19 años en San Petersburgo tendrán la misma capacidad» que los investigadores de vulnerabilidad de élite.
Los modelos entrenados con el código shell existente ya son «razonablemente buenos» para generar código de explotación, dijo, y pueden ser capaces de producir vulnerabilidades de nivel EternalBlue en un año. Ese exploit desarrollado por la NSA, filtrado en 2017, se utilizó en los ataques WannaCry y NotPetya y siguió siendo efectivo durante años debido a lo difícil que era desarrollar tales capacidades.
«Imagínese cuando esté disponible bajo demanda», dijo Stamos.
Agentes que ya operan más allá de la escala humana
La empresa de Mandia, Armadin, ha creado agentes de inteligencia artificial capaces de penetrar de forma autónoma en la red que, según él, serían devastadores si se implementaran de forma maliciosa. A diferencia de los atacantes humanos que deben escribir comandos manualmente y esperar resultados, los agentes de IA operan en cientos de subprocesos simultáneamente, interpolando las salidas de los comandos antes de que lleguen y lanzando acciones de seguimiento en microsegundos.
«La escala, el alcance y la recuperación total de un agente de IA que te compromete y te ataca no es humanamente comprensible», dijo Mandia, quien fundó Mandiant y se desempeñó como director ejecutivo de 2016 a 2024. «Si a la antigua usanza era un equipo rojo que entrara, hay un humano en un teclado escribiendo comandos. Eso es una broma en comparación con» lo que los agentes de IA pueden hacer.
Esos agentes pueden evadir los sistemas de respuesta y detección de puntos finales en menos de una hora, dijo, y operar a velocidad humana para evitar mecanismos de detección que limiten la velocidad. Una vez dentro de una red, un agente de IA puede analizar documentación, capturas de paquetes y manuales técnicos más rápido de lo que los humanos pueden leerlos, diseñando ataques adaptados a sistemas de control específicos sobre la marcha.
“Cuando construyes la ofensiva, te asusta muchísimo”, dijo Mandia. «Si hoy dejamos salir al animal de la jaula, nadie estará preparado para ello».
Dijo que Armadin probó recientemente una empresa Fortune 150 con un sólido equipo de seguridad y encontró vulnerabilidades de ejecución remota de código o rutas de fuga de datos en cada aplicación probada. «Ambos estábamos en shock», dijo.
El cambio cambia las preguntas fundamentales que hacen los foros después de las pruebas de penetración. Históricamente, los directores querían saber la probabilidad de que ocurriera un ataque demostrado en el mundo real. «En la era de los humanos, nunca se podría responder», dijo Mandia. «Pero con la IA, es 100 por ciento. Está por llegar y será más barata y más efectiva al mismo tiempo».
Los defensores se enfrentan a plazos imposibles
La compresión de los cronogramas de los ataques está chocando con realidades organizacionales que avanzan en la dirección opuesta. Adamski, quien ahora es el líder en EE. UU. del negocio de Riesgo Cibernético, de Datos y Tecnológico de PwC, dijo que los directores de seguridad de la información enfrentan presiones de las juntas directivas para adoptar la IA rápidamente, a menudo con objetivos explícitos de reducir la plantilla, incluso cuando los requisitos de cumplimiento permanecen sin cambios y el panorama de amenazas se acelera.
«Los CISO se están viendo presionados porque no pueden detener la adopción debido a la demanda de la junta directiva, del director ejecutivo», dijo Adamski. «Ninguno de los requisitos de SOC 2 ha cambiado. ISO 27000, cualquier cosa que ayude a las personas a avanzar desde una perspectiva de cumplimiento, todas esas reglas son exactamente las mismas».
Stamos dijo que los ciclos de parches ilustran el desajuste. Mientras que antes sólo los adversarios sofisticados podían aplicar ingeniería inversa a las actualizaciones del martes de parches de Microsoft para desarrollar exploits, la IA democratizará esa capacidad. “Podrás colocar el parche en Ghidraconducido por un agente, y proponer [an exploit]», dijo. «Parche el martes, explote el miércoles».
Muchos CISO están intentando incorporar capacidades de IA a las operaciones de seguridad existentes, un enfoque que los ejecutivos consideran insuficiente. «No están dando un paso atrás y mirando el panorama más amplio, que tenemos un problema fundamental y mucho más holístico en términos de cómo reimaginar y rehacer todo un ecosistema de ciberdefensa que esté impulsado únicamente por IA de máquina a máquina», dijo Adamski.
Evitando la caja de Pandora
Las implicaciones para la seguridad nacional agravan el problema. Mientras otros exlíderes gubernamentales hablaron en la conferencia sobre lo que vieron como un desliz de Estados Unidos en materia de ciberseguridad ofensiva, los tres líderes de la industria hablaron sobre lo que creen que los estados-nación han desarrollado con el uso de la IA.
«Creo que en este momento estamos viendo menos del 50 por ciento de la capacidad de IA de los estados-nación modernos», dijo Mandia. «No están presionando. Nadie quiere ser el primero en abrir esa puerta».
Stamos dijo que el ritmo operativo favorece a los adversarios estadounidenses. Los servicios de inteligencia rusos pueden observar y registrar datos de cientos de empresas afectadas por ransomware diariamente, utilizando esa experiencia operativa para entrenar modelos ofensivos de IA. «No tenemos ese tipo de ritmo operativo en Estados Unidos», dijo.
Adamski dijo que cualquier capacidad de inteligencia artificial que Estados Unidos desarrolle para operaciones cibernéticas ofensivas conlleva riesgos inherentes. «Cualquier cosa que introduzcas, lo estás introduciendo en un ecosistema que ellos pueden utilizar con nosotros», dijo.
Stamos dijo que el impacto de la IA en la ciberseguridad probablemente producirá consecuencias dañinas antes que otros dominios porque el umbral para las operaciones cibernéticas ya es bajo. «Permitimos que un martes suceda en el mundo cibernético lo que consideraríamos un acto de guerra si fuera en cualquier otro contexto», dijo. «Creo que aquí es donde la IA se utilizará primero para dañar a las personas, en el ámbito cibernético».
Dos años, tal vez
Los ejecutivos ofrecieron un optimismo limitado en cuanto a que la IA también podría acelerar las capacidades defensivas, principalmente haciendo que las pruebas de seguridad sean asequibles a escala y permitiendo sistemas de respuesta autónomos. Pero el cronograma sobre cuándo las capacidades defensivas podrían ponerse al día depende de la acción inmediata.
«Dos años si somos buenos», dijo Stamos. «Dos años es el mínimo si realmente comenzamos a arreglar el código y a refactorizar cosas en lenguajes de tipo seguro utilizando métodos formales».
Mandia se mostró optimista “dentro de unos años” si la IA ofensiva construida por los defensores entrena con éxito sistemas defensivos autónomos. Pero reconoció que la situación actual es terrible. Las organizaciones necesitarán sistemas autónomos capaces de poner inmediatamente en cuarentena el comportamiento anómalo, dijo, porque los plazos tradicionales de detección y respuesta colapsarán.
«No tendrás tiempo para llamar a Mandiant un jueves por la tarde, conseguir gente y firmar un contrato», dijo Mandia. «Tendrás que poder responder a la velocidad de una máquina».
Stamos dijo que los defensores deben asumir que no pueden solucionar el problema y centrarse en la defensa en profundidad, particularmente en torno al movimiento lateral y la persistencia, que siguen siendo más difíciles de automatizar para la IA que la explotación inicial.
Pero incluso eso supone que las organizaciones tengan tiempo para prepararse. Los ejecutivos sugirieron que esa ventana se está cerrando rápidamente, si es que no se ha cerrado ya para siempre.
Adamski resumió el ajuste de cuentas al que se enfrenta la industria: «La IA potencialmente nos hará pagar por los pecados de ayer».

