Predicciones de IA para 2025: la perspectiva de un experto en ciberseguridad

Escribe Dan Karpati, vicepresidente de tecnologías de IA en Check Point Software

En 2025, veremos el surgimiento de sistemas de IA multiagente tanto en ciberataques como en defensa. Los agentes de IA son la siguiente fase de evolución de IA Copilot. Son sistemas autónomos que toman decisiones, ejecutan tareas e interactúan con entornos, a menudo actuando en nombre de los humanos. Operan con una mínima intervención humana, se comunican con entidades como otros agentes de IA, bases de datos, sensores, API, aplicaciones, sitios web y correos electrónicos, y se adaptan en función de la retroalimentación. Los atacantes los utilizan para ataques coordinados y difíciles de detectar, mientras que los defensores los emplean para una mejor detección de amenazas, respuesta y colaboración en tiempo real en redes y dispositivos. Los sistemas de IA multiagente pueden defenderse de múltiples ataques simultáneos trabajando juntos de manera colaborativa para compartir inteligencia de amenazas en tiempo real y coordinar acciones defensivas para identificar y mitigar ataques de manera más efectiva.

La rápida evolución de la inteligencia artificial (IA) está destinada a reconfigurar drásticamente el panorama de la ciberseguridad. Como experto en IA y ciberseguridad, preveo varios desarrollos clave que afectarán significativamente nuestro mundo digital. El aumento en el uso de IA tendrá implicaciones de largo alcance para áreas como el consumo de energía, el desarrollo de software y los marcos éticos y legales. Por supuesto, las tecnologías de IA también serán utilizadas como armas por los ciberdelincuentes y los actores de los estados nacionales, creando nuevas y formidables amenazas a la ciberseguridad.

La explosión de la IA


La adopción de tecnologías de IA se está acelerando a un ritmo sin precedentes. ChatGPT, por ejemplo, alcanzó los 100 millones de usuarios tan solo 60 días después de su lanzamiento y ahora cuenta con más de 3 mil millones de visitas mensuales. Este crecimiento explosivo no se limita a ChatGPT; otros modelos de IA como Claude, Gemini y Midjourney también están experimentando una adopción generalizada. Para fines de 2024, el 92% de las empresas Fortune 500 habían integrado la IA generativa en sus flujos de trabajo, según el Financial Times. Dimension Market Research predice que para 2033, el mercado global de modelos de lenguaje a gran escala alcanzará los 140.8 mil millones de dólares. Las tecnologías de IA requieren enormes cantidades de recursos informáticos, por lo que la rápida adopción de estas tecnologías ya está impulsando un enorme aumento de la energía necesaria para respaldarlas. La magnitud de la presión impulsada por la IA sobre los recursos naturales se sentirá en 2025.

Demandas energéticas e innovación en eficiencia


La proliferación de la IA está ejerciendo una enorme presión sobre los recursos energéticos globales. Los centros de datos, la columna vertebral de las operaciones de IA, se están multiplicando rápidamente. Los centros de datos requieren tierra, energía y agua; tres recursos naturales preciosos que ya están bajo presión sin las demandas adicionales del uso explosivo de la IA. Según McKinsey, su número se duplicó de 3.500 en 2015 a 7.000 en 2024. Deloitte proyecta que el consumo de energía de estos centros se disparará de 508 TWh en 2024 a la asombrosa cifra de 1.580 TWh en 2034, equivalente a todo el consumo anual de energía de la India.

Expertos como Deloitte han hecho sonar la alarma de que el sistema actual se está volviendo rápidamente insostenible. Goldman Sachs Research estima que la demanda de energía de los centros de datos crecerá un 160% para 2030, y que la IA representará aproximadamente el 19% de la demanda de energía de los centros de datos para 2028.

Esta demanda de energía sin precedentes requiere un cambio hacia fuentes de energía más sostenibles y soluciones de refrigeración innovadoras para cargas de trabajo de IA de alta densidad. Aunque se ha logrado mucha innovación en términos de recolección de fuentes de energía alternativas, lo más probable es que se recurra a la energía nuclear para alimentar el aumento del consumo de energía impulsado por la IA.

La propia tecnología informática también se volverá más eficiente con los avances en el diseño de chips y la planificación de la carga de trabajo. Dado que las cargas de trabajo de IA a menudo implican transferencias masivas de datos, innovaciones como las arquitecturas de computación en memoria (CIM) que reducen significativamente la energía necesaria para mover datos entre la memoria y los procesadores se volverán esenciales. Los chips de memoria de acceso aleatorio (RAM) integran el procesamiento dentro de la propia memoria para eliminar la separación entre las unidades de computación y memoria para mejorar la eficiencia. Estas y otras tecnologías disruptivas surgirán para ayudar a gestionar la creciente capacidad computacional de una manera energéticamente eficiente.

La IA responsable transformará el desarrollo de software


La IA está destinada a revolucionar la programación de software. Estamos pasando de las simples herramientas de finalización de código como GitHub Copilot a plataformas de creación de código completo como CursorAI y Replit.com. Si bien este avance promete una mayor productividad, también plantea importantes riesgos de seguridad. La IA le da a cualquier cibercriminal la capacidad de generar malware completo a partir de un solo mensaje, lo que marca el comienzo de una nueva era en las amenazas cibernéticas. La barrera de entrada para los cibercriminales desaparecerá a medida que se vuelvan más sofisticados y generalizados, lo que hará que nuestro mundo digital sea mucho menos seguro.

Esta amenaza impulsará el área de la IA responsable. La IA responsable se refiere a la práctica de los proveedores de IA de construir barandillas para evitar la militarización o el uso dañino de sus grandes modelos de lenguaje (LLM). Los desarrolladores de software y los proveedores de seguridad cibernética deben trabajar en equipo para lograr una IA responsable. Los proveedores de seguridad tienen una profunda experiencia en la comprensión de la mentalidad del atacante para simular y predecir nuevas técnicas de ataque. Los evaluadores de penetración, los piratas informáticos de “sombrero blanco” y los “equipos rojos” se dedican a encontrar formas de explotar el software antes de que lo hagan los piratas informáticos, de modo que las vulnerabilidades se puedan proteger de forma proactiva. Se necesitan nuevas asociaciones de IA responsables entre los proveedores de software y de ciberseguridad para probar los modelos LLM en busca de una posible utilización como arma.

Desafíos éticos y regulatorios


A medida que la IA se vuelva más omnipresente, nos enfrentaremos a desafíos éticos y regulatorios cada vez mayores. Ya se prevé que entren en vigor dos leyes importantes en 2025. La Ley de IA de la UE entrará en vigor el 2 de febrero de 2025, con disposiciones adicionales que se implementarán el 2 de agosto. En los EE. UU., se espera que se implemente un nuevo marco regulatorio de IA a través de la Ley de Autorización de Defensa Nacional (NDAA) y otras medidas legislativas, con disposiciones clave que comenzarán a aplicarse a principios de 2025. Estas nuevas leyes obligarán a las empresas a ejercer un mayor control sobre sus implementaciones de IA, y surgirán nuevas plataformas de gobernanza de IA para ayudarlas a generar confianza, transparencia y ética en los modelos de IA.

En 2025, podemos esperar un aumento de los marcos de garantía de la IA específicos de la industria para validar la confiabilidad, la mitigación de sesgos y la seguridad de la IA. Estas plataformas garantizarán la explicabilidad de los resultados generados por la IA, evitarán resultados perjudiciales o sesgados y fomentarán la confianza en las herramientas de ciberseguridad impulsadas por la IA.

El año 2025 promete ser crucial para la IA y la ciberseguridad. Si bien la IA ofrece oportunidades de avance sin precedentes, también presenta desafíos importantes. Será necesaria una estrecha cooperación entre el sector comercial, los proveedores de software y seguridad, los gobiernos y las fuerzas del orden para garantizar que esta poderosa tecnología de rápido desarrollo no dañe la confianza digital ni nuestro entorno físico. Como profesionales de la ciberseguridad, debemos adelantarnos a estos avances y adaptar nuestras estrategias para aprovechar el poder de la IA y mitigar sus riesgos. El futuro estará determinado por nuestra capacidad para navegar en este panorama complejo impulsado por la IA.

(*) Dan Karpati: Vicepresidente de tecnologías de IA en Check Point Software