Opinión
¿Es esta la manera de prepararse para un futuro impulsado por la IA?
16 de Marzo de 2026Escribe David Haber, vicepresidente de Seguridad de IA en Check Point Software Technologies
La IA con capacidad de gestión representa un cambio radical en la forma de trabajar dentro de una empresa. Estamos pasando de sistemas que asisten a humanos a sistemas en los que se confía para razonar, decidir y actuar por sí mismos. Este cambio se está produciendo dentro de los flujos de trabajo empresariales centrales, no en laboratorios ni programas piloto.
Cuando los sistemas de IA reciben autonomía, se convierten en actores operativos con autoridad. Inician acciones, interactúan con herramientas y API e influyen en los resultados en tiempo real. En ese momento, muchas de las suposiciones en las que se basan las organizaciones —sobre control, supervisión y rendición de cuentas— dejan de ser válidas. No se trata solo de una evolución tecnológica. Se trata de un problema de gobernanza y seguridad que las empresas deben abordar de frente.
¿Cómo podemos pasar de la fatiga por exceso de alertas a una defensa activa?
La ciberseguridad también aprovechará e implementará la IA agentiva de maneras más exigentes, incluso en el centro de operaciones de seguridad. Las operaciones de seguridad están bajo una presión constante, con analistas que se enfrentan a un volumen vertiginoso de alertas, falsos positivos y demandas de respuesta a incidentes. La magnitud y la velocidad de las amenazas casi han superado la capacidad humana, lo que provoca agotamiento, rotación de personal y difíciles disyuntivas entre la profundidad de la seguridad y la agilidad empresarial. En muchas organizaciones, la seguridad se ha convertido en una lucha de recursos que los humanos por sí solos ya no pueden ganar.
La IA agentiva promete ser el multiplicador de fuerza crucial para ayudar a resolver este desafío. En este contexto, los agentes funcionan como asistentes inteligentes que automatizan la monitorización, la clasificación y la gestión de eventos de seguridad. Clasifican las alertas, enriquecen los eventos con datos contextuales, correlacionan señales en sistemas dispares y escalan solo lo que realmente requiere juicio humano. Algunos ya están siendo entrenados para ajustar dinámicamente las políticas de seguridad y acceso a medida que evolucionan los contextos empresariales, monitorizando continuamente el cumplimiento, señalando anomalías en tiempo real y tomando medidas correctivas limitadas de forma autónoma.
La adopción de la IA basada en agentes debería impulsar un cambio en la ciberseguridad, pasando de un enfoque reactivo a uno proactivo, lo que ayudará a identificar y prevenir amenazas antes de que puedan dañar a las organizaciones. En lugar de simplemente alertar sobre actividades sospechosas, la seguridad basada en IA se convierte en un sistema de defensa activo, capaz de operar a la velocidad de una máquina sin sacrificar precisión ni visibilidad. El tiempo medio de detección y respuesta se reduce drásticamente, los puntos ciegos disminuyen y los analistas humanos recuperan la capacidad cognitiva para centrarse en estrategias de alto nivel e investigaciones complejas.
¿Por qué la IA agentiva es una herramienta y no una sustitución?
La eficacia de la IA basada en agentes en las operaciones de seguridad radica en su capacidad de complementar, no de reemplazar. La experiencia en ciberseguridad sigue siendo escasa e invaluable. Los agentes se destacan por su habilidad para gestionar las tareas repetitivas y de gran volumen que consumen la atención humana: clasificación de alertas, análisis de registros, investigaciones rutinarias y correlación de amenazas. Trabajan de forma continua, sin fatigarse, en sistemas y silos que pueden ser difíciles de supervisar simultáneamente para los humanos.
Gracias a su capacidad para procesar rápidamente conjuntos de datos masivos y detectar patrones sutiles, la IA con agentes puede revelar amenazas que de otro modo pasarían desapercibidas o se descubrirían demasiado tarde. Las primeras implementaciones ya están demostrando medidas de seguridad más estrictas, mayor resiliencia operativa y una reducción significativa de los cuellos de botella que ralentizan la respuesta ante incidentes. La IA automatizada permite a las organizaciones mejorar sus resultados de seguridad sin aumentar su plantilla al mismo ritmo.
¿Cómo podemos implementar y escalar la IA con agentes de forma responsable?
A medida que los agentes de IA se implementan y escalan dentro de las organizaciones, inevitablemente surgirán nuevas brechas de gobernanza que limitarán la autoridad operativa. ¿Quién valida las acciones de un agente? ¿Quién audita su lógica de decisión? ¿Cómo intervienen las organizaciones cuando la intención de un agente se desvía del resultado deseado o cuando los objetivos de optimización entran en conflicto con las restricciones éticas o regulatorias?
La eficiencia autónoma sin rendición de cuentas se convierte rápidamente en un riesgo incontrolado. Un agente que puede cambiar las políticas de acceso, aislar sistemas o iniciar acciones correctivas debe ser gobernado con el mismo rigor —o incluso más— que cualquier usuario humano con privilegios. Sin fuertes mecanismos de control, observabilidad y auditabilidad, las organizaciones corren el riesgo de cambiar el error humano por una falla sistémica impulsada por la máquina.
A medida que la IA agentiva se adopta y escala a un ritmo más rápido, las empresas necesitarán consejos formales de gobernanza de IA que reúnan a los líderes de seguridad, riesgo, legales y empresariales. Estos órganos definirán dónde se permite la autonomía, bajo qué condiciones y con qué vías de escalamiento. Los mecanismos de control de políticas deben ser explícitos, aplicables y evaluados continuamente. Cada decisión autónoma debe registrarse en pistas de auditoría inmutables, lo que permite la revisión posterior al incidente, la validación del cumplimiento y la mejora continua.
Esta preocupación no es teórica. El informe Perspectivas Globales de Ciberseguridad 2026 del Foro Económico Mundial revela que la creciente adopción de la IA está ampliando la superficie de ataque cibernético, mientras que las organizaciones se esfuerzan por alinear la gobernanza, las competencias y los controles de seguridad con la velocidad de implementación. A medida que los sistemas y agentes de IA se extienden por los flujos de trabajo empresariales, la falta de gobernanza puede resultar más peligrosa que la ausencia de automatización.
El éxito en la era de la inteligencia artificial depende de la visibilidad. Las empresas deben poder observar qué hacen sus agentes de IA, por qué lo hacen y qué impacto tienen sus acciones en el entorno. Esto implica que las plataformas de seguridad deben evolucionar para proporcionar información en tiempo real sobre el comportamiento, los procesos de decisión y los resultados de los agentes. Las políticas deben diseñarse con principios de prevención desde el diseño, garantizando que los agentes operen dentro de límites claramente definidos y alineados con la tolerancia al riesgo de la organización.
Cuando los agentes actúan, los humanos deben poder comprender, auditar y anular esas acciones cuando sea necesario. Al fin y al cabo, la visibilidad y el control van de la mano.
Adversarios autónomos frente a defensores autónomos
Los atacantes ya utilizan la IA para automatizar el reconocimiento, adaptar técnicas y operar a la velocidad de las máquinas. Defenderse únicamente con procesos humanos ya no es suficiente. Las empresas se adentran en un entorno donde la autonomía existe en ambos lados. El resultado depende de la eficacia con que se gobierne dicha autonomía.
La IA con capacidad de gestión no es inherentemente riesgosa. La autonomía sin restricciones sí lo es. Las organizaciones que triunfen en la era de la IA con capacidad de gestión serán aquellas que logren autonomía mediante la visibilidad, límites de políticas claros y la capacidad de auditar y anular decisiones cuando sea necesario. La seguridad en este modelo no se trata de reaccionar más rápido, sino de garantizar que los sistemas autónomos actúen con intención.
La inteligencia sin gobernanza no es escalable. El riesgo sí.
Artículo publicado originalmente en el sitio web del Foro Económico Mundial, perteneciente al Centro de Ciberseguridad, el 6 de marzo de 2026.
(*) David Haber: vicepresidente de Seguridad de IA en Check Point Software Technologies












