martes, marzo 17, 2026

El mayor factor de cambio de la ciberseguridad en 2026

La inteligencia artificial está redefiniendo la ciberseguridad: amplía la superficie de ataque, fortalece la defensa y obliga a repensar la gobernanza tecnológica.

La inteligencia artificial será el factor de cambio más significativo en ciberseguridad durante este año.

Así lo previó el 94% de los ejecutivos encuestados a nivel mundial por el World Economic Forum (WEF) y Accenture, en la última versión de su estudio Global Cybersecurity Outlook.

La inteligencia artificial está reconfigurando el panorama de la ciberseguridad. Esto desafía a las organizaciones a repensar sus estrategias y modelos de operación de seguridad digital.

En este sentido, hay tres dimensiones interconectadas. En primer lugar, la integración generalizada de sistemas de IA introduce una superficie de ataque ampliada y crea vulnerabilidades que los controles tradicionales no fueron diseñados para abordar.

En segundo lugar, los defensores están aprovechando la IA para fortalecer sus capacidades cibernéticas. Esto mejora la detección, acelera la respuesta a incidentes y automatiza tareas analíticas de alto volumen.

En tercer lugar, los ciberatacantes están utilizando la IA para aumentar la escala, velocidad, sofisticación y precisión de sus ataques. Esto impulsa una nueva generación de ingeniería social dirigida.

En conjunto, estas dinámicas ilustran la naturaleza de doble uso de la IA, tanto como multiplicador de fuerza para la defensa como catalizador para los atacantes. A medida que esta competencia tecnológica se intensifica, las organizaciones transitan desde un enfoque reactivo hacia uno proactivo.

Al mismo tiempo, se reevalúan la gobernanza, la validación y la supervisión en cada etapa de la adopción de la IA.

Los beneficios de la inteligencia artificial dependen de una ejecución disciplinada. Las soluciones mal implementadas pueden introducir nuevos riesgos, como configuraciones incorrectas, decisiones sesgadas o dependencia excesiva de la automatización.

También pueden generar susceptibilidad a manipulaciones adversarias si no se incorporan salvaguardas sólidas, prácticas de seguridad desde el diseño (security-by-design) y monitoreo continuo.

La encuesta también reflejó que algunas organizaciones ya avanzan en el aseguramiento continuo de sus herramientas de IA. El 40% informó que realiza revisiones periódicas antes de desplegarlas.

En contraste, el 24% realiza únicamente una evaluación única. Aproximadamente un tercio todavía carece de cualquier proceso para validar la seguridad de la IA antes de su despliegue.

Esto deja exposiciones sistémicas mientras se acelera la carrera por adoptar IA en las ciberdefensas.

La implicancia es clara: la IA puede mejorar la ciberseguridad. Sin embargo, esto ocurre solo cuando se despliega dentro de marcos de gobernanza robustos que mantengan el juicio humano en el centro.

Al mismo tiempo, un exceso de controles puede generar fricción. Por ello resulta esencial encontrar un equilibrio cuidadoso.

El impulso del mercado por incorporar nuevas funcionalidades de IA suele superar el nivel de preparación en materia de seguridad. Esto crea vulnerabilidades explotables.

En respuesta a estos riesgos emergentes, debería priorizarse una serie de medidas fundamentales para asegurar la IA a nivel de infraestructura.

Esto incluye proteger los datos utilizados en el entrenamiento y la personalización de los modelos de IA frente a filtraciones y accesos no autorizados.

Los sistemas de IA deben desarrollarse con la seguridad como principio central. También deben incorporar actualizaciones y parches periódicos para abordar posibles vulnerabilidades.

Asimismo, es fundamental que las organizaciones implementen protocolos robustos de autenticación y cifrado. Esto permite garantizar la protección de las interacciones y los datos de los clientes.

A medida que las organizaciones avanzan en la integración de la inteligencia artificial en sus operaciones de seguridad, el equilibrio entre automatización y juicio humano se vuelve cada vez más crítico.

Si bien la IA destaca en la automatización de tareas repetitivas y de alto volumen, sus limitaciones actuales en juicio contextual y toma de decisiones estratégicas siguen siendo evidentes.

La dependencia excesiva de una automatización sin gobernanza adecuada puede crear puntos ciegos que los adversarios pueden explotar.

Al abordar los desafíos prácticos de la adopción de IA en ciberseguridad, las organizaciones identifican obstáculos recurrentes. Entre ellos, la falta de conocimientos o habilidades suficientes para desplegar la IA (54%).

También se mencionan la necesidad de supervisión humana (41%) y la incertidumbre sobre el riesgo (39%). Estos hallazgos indican que la confianza sigue siendo una barrera para la adopción generalizada de la IA.

Las prioridades para las organizaciones este 2026 son claras. Invertir en alfabetización en IA y en habilidades para su uso seguro será clave.

También será necesario integrar mecanismos de gobernanza y validación sin crear nuevos puntos únicos de falla.

Un modelo colaborativo, anclado en principios de seguridad desde el diseño (security-by-design), surge como el camino recomendado hacia adelante.

Esto permitirá a las organizaciones aprovechar las ventajas de la IA mientras mitigan vulnerabilidades y aseguran que la innovación fortalezca —y no comprometa— la ciberseguridad.

María Luisa Acuña
María Luisa Acuña
Cybersecurity lead de Accenture Chile.
ARTÍCULOS RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

mas leídas