IA: perspectivas de ciberseguridad para 2026

shadow

 

(Global) La adopción acelerada de la Inteligencia Artificial (IA) está impulsando la productividad a nivel mundial, pero también está modificando el mapa de amenazas. La adopción de esta tecnología por parte de las organizaciones que digitalizan procesos, migran servicios a la nube y buscan modernizar sus defensas; representa para los ciberdelincuentes un objetivo emergente, y al mismo tiempo hacen uso de ella para perfeccionar sus tácticas de ataque.

Con un mercado global en pleno crecimiento, las soluciones de IA para ciberseguridad se estimaron en 26,550 millones de dólares en 2024, con una proyección de crecimiento de 34,100 millones de dólares en 2025 a 234.640 millones de dólares en 2032. Sin embargo, dicho crecimiento conlleva también una expansión exponencial en la sofisticación y volumen de amenazas: el uso de IA como vector ofensivo ha aumentado en múltiples frentes. En 2025 aumentaron un 115% los ataques que suplantan herramientas de IA populares para distribuir malware, afectando especialmente a pequeñas y medianas empresas.

“Desde nuestra perspectiva el 2026 marcará un punto relevante en temas de ciberseguridad asociados a la IA; todo apunta a que evolucionará hasta convertirse en un arma doble filo; podría ser un pilar para la protección digital y, al mismo tiempo, un instrumento poderoso en manos de los ciberdelincuentes. Si bien la IA está redefiniendo el riesgo de ciberseguridad, el verdadero potencial para cambiar el panorama estará en la capacidad de respuesta de los equipos de ciberseguridad”, indica Arturo Huesca, consultor de ciberseguridad en firma internacional especializada en ciberseguridad.

El 2025 en el espacio

Principales amenazas que se vislumbran

Ingeniería social generada por IA

La ingeniería social potenciada por IA se ha convertido en una herramienta cada vez más utilizada por los ciberdelincuentes. Gracias a modelos generativos, pueden elaborar correos y mensajes de phishing extremadamente convincentes. Estos ataques suelen personalizarse, ya sea para manipular autorizaciones de pago o solicitar la recuperación de accesos, por mencionar algunos.

Malware polimórfico apoyado en IA

Utilizando un modelo de IA integrado, el malware es capaz de reescribir su propio código para evitar detecciones tradicionales, debido a que está programado para evaluar su entorno, en función de las defensas que encuentra. Al detectar que un antivirus lo está inspeccionando, el malware cambia su estructura y genera un nuevo código que parece inofensivo.

Agentes IA y la autonomía excesiva

El empleo de agentes de IA para la elaboración de textos o el procesamiento de respuestas en servicio al cliente, por ejemplo, implica la necesidad de rastrear y controlar todo el flujo de comportamiento de la IA para evitar una autonomía excesiva y por tanto un riesgo de manipulación; que ocurre cuando un agente puede acceder a sistema externos, enviar e-mails o modificar comandos que tengan un impacto fuera de los sistemas. En estos casos un ciberdelincuente podría aprovechar esta vulnerabilidad para dar indicaciones al agente de ejecutar acciones no autorizadas.

“En 2026 podríamos estar observando que los atacantes adopten modelos de IA como servicios, utilizando capacidades que antes solo estaban al alcance de especialistas muy sofisticados”, señala Arturo Huesca.

Recomendaciones de A3Sec para las organizaciones en 2026

Para contrarrestar esta evolución, la empresa destaca que la ciberdefensa también vivirá un salto determinante. “Las defensas deberán evolucionar para estar a la altura de las amenazas; dado que la protección del futuro en este sentido no podría dejar de lado a la IA”, comenta el vocero.

Para que las organizaciones se preparen al 2026 y desarrollen ciberantifragilidad, recomienda:

Implementación de SOCs aumentados, donde la IA contribuya a gestionar tareas rutinarias, monitorizar redes y detectar anomalías para dar espacio a que los analistas puedan centrarse en decisiones estratégicas.

Misterios de la ciencia ¿Qué es la hipótesis de Riemann? Un millón de dólares por resolverla

Emplear modelos avanzados de detección basados en comportamiento, capaces de correlacionar señales débiles a gran escala; así como el uso de analítica predictiva para identificar patrones sospechosos antes de que surja una brecha.

Agentes de IA para potenciar los SOC en tiempo real, integrados en infraestructuras críticas para prevenir impactos y contener amenazas sin intervención humana. Los analistas tienen la capacidad de dirigir a los agentes de IA para que realicen ciertas tareas; siempre con una autonomía controlada; utilizando herramientas de protección en las que se verifiquen cada recomendación antes de ser ejecutadas.

Desarrollar una estrategia integral de IA defensiva, que combine herramientas automatizadas, monitoreo en tiempo real y análisis predictivo. Así como una evaluación continua de riesgos que se apoye en datos, para la toma de decisiones medibles y eficientes.

Inteligencia Artificial: Gemini identifica los vídeos generados por la IA de Google

Incorporar gobernanza de IA responsable y cumplimiento de normativas que contemplen auditorías de modelos de IA, políticas claras y capacitación constante; integrando además personal especializado y capacitado.

“Las organizaciones que integren IA en sus operaciones de seguridad no solo ganarán eficiencia, sino capacidad predictiva frente a amenazas emergentes”, finaliza Arturo.

Fuente: tynmagazine.com