viernes, marzo 13, 2026

La guerra algorítmica: Cómo la IA y los datos redefinieron el escenario bélico

La inteligencia artificial, los datos y la infraestructura tecnológica están transformando el campo de batalla global, desde drones y guerra electrónica hasta deepfakes y ciberataques.

La imagen clásica que tenemos de la guerra —trincheras, soldados con fusiles y generales moviendo fichas en un mapa de papel— quedó obsoleta. Hoy, la guerra se libra en servidores en la nube de algún proveedor de TI, en el espectro electromagnético y a través de algoritmos de IA.

Estamos atravesando lo que diplomáticos y analistas ya bautizaron como el «momento Oppenheimer de nuestra generación». Al igual que la bomba atómica reescribió las reglas de la disuasión en el siglo XX, la automatización impulsada por IA, el aprendizaje automático y la hiperconectividad satelital han transformado el campo de batalla en un ecosistema profundamente tecnológico.

La guerra se ha vuelto tan críticamente tecnológica que un simple fallo de software, un centro de datos comprometido o un algoritmo sesgado pueden alterar el destino de naciones enteras.

Para entender la magnitud de este impacto, tenemos que diseccionar cada engranaje de esta nueva maquinaria bélica.

No se trata solo de que las armas sean «más inteligentes», sino de que la cadena de mando misma se está delegando a sistemas no humanos, abriendo cajas de Pandora éticas, corporativas y de ciberseguridad que nuestras leyes actuales apenas comienzan a comprender.

La Revolución de los Drones, la Vigilancia Satelital y la Carrera Electromagnética

Si hay un elemento que ha democratizado y alterado la asimetría táctica en los conflictos recientes, particularmente en Ucrania y Rusia, es el dron.

Estamos viendo cómo la economía de la guerra de desgaste se ha invertido por completo: hoy, un dron de visión en primera persona (FPV) que cuesta unos 400 dólares es capaz de destruir rutinariamente tanques de combate principales valorados en 2 millones de dólares.

Y esto no es un caso aislado. En el Mar Rojo, drones comerciales de apenas 2.000 dólares han derribado misiles interceptores multimillonarios, demostrando que el tonelaje de acero ya no garantiza la superioridad.

En la actualidad, los drones son responsables de entre el 70% y el 80% de las bajas en el frente de batalla ucraniano, impulsando una carrera armamentista centrada en la autonomía y la supervivencia frente a contramedidas electrónicas.

Pero lanzar un dron al aire es solo una mitad; la otra mitad es mantenerlo conectado.

Aquí es donde entra la Guerra Electrónica (EW, por sus siglas en inglés), un frente totalmente invisible pero absolutamente letal.

Fuerzas militares como la rusa han desplegado sistemas de interferencia masiva extremadamente sofisticados. Equipos como el Krasukha-4 —diseñado para cegar radares aéreos y satélites de reconocimiento a 300 kilómetros de distancia— y el Borisoglebsk-2 —un sistema automatizado para bloquear señales de radio y navegación— saturan el espectro electromagnético, cortando la conexión entre el piloto del dron y la aeronave.

A un nivel estratégico superior, la integración de la inteligencia artificial con la vigilancia satelital y los misiles guiados ha borrado el concepto del sigilo.

Para el año 2040, se espera que el balance entre los que buscan «esconderse» y los que buscan «encontrar» se incline definitivamente hacia los buscadores, gracias a constelaciones de satélites que proveen vigilancia global persistente.

Cuando un objetivo es detectado, la información debe ser procesada en tiempo real.

Como se generan exabytes de datos en el llamado «borde táctico», corporaciones de defensa están creando ecosistemas de computación en la nube para procesar estos datos sensoriales, alimentando las coordenadas directamente a los sistemas de misiles guiados de precisión casi sin intervención humana.

El Choque de Silicon Valley y el Pentágono: Anthropic vs. OpenAI

La profunda dependencia de las fuerzas militares hacia la tecnología de IA provocó a principios de 2026 una de las crisis corporativas y políticas más explosivas de nuestra era.

Tradicionalmente, las armas las construían empresas de defensa clásicas; hoy, el cerebro de esas armas se diseña en Silicon Valley.

El problema surge cuando las directrices éticas de las empresas tecnológicas chocan de frente con las demandas de letalidad y soberanía del Estado.

El drama se desencadenó cuando el Departamento de Defensa de los Estados Unidos, bajo las directivas del Secretario Pete Hegseth y la administración del Presidente Trump, exigió a sus contratistas de IA adoptar cláusulas que permitieran la utilización de sus modelos para «cualquier uso legal».

Dario Amodei, director ejecutivo de Anthropic, se negó a ceder citando líneas rojas éticas inquebrantables: la tecnología de Anthropic no se usaría para el diseño de armas totalmente autónomas ni para la vigilancia masiva nacional de ciudadanos.

La reacción del gobierno fue sin precedentes.

Utilizando legislaciones diseñadas para contrarrestar a adversarios extranjeros de espionaje, como el Título 10 U.S.C. § 3252 y la Ley de Seguridad de la Cadena de Suministro (FASCSA), el gobierno catalogó oficialmente a Anthropic como un «riesgo de cadena de suministro para la seguridad nacional» y ordenó a las agencias federales detener el uso de su software.

Expertos legales catalogaron esta maniobra como ideológica y jurídicamente dudosa.

La simple amenaza de impedir que grandes proveedores de nube como Amazon Web Services alojen los modelos de Anthropic suponía una potencial «pena de muerte» corporativa.

Anthropic prometió llevar la designación a los tribunales.

Lo que sucedió después sacudió a la industria tecnológica.

Apenas horas después de que Anthropic fuera excluida de contratos gubernamentales, OpenAI firmó un acuerdo con el Pentágono para ocupar ese lugar.

La reacción de los usuarios fue inmediata.

El 28 de febrero de 2026, la tasa de desinstalaciones de ChatGPT se disparó un 295%, pasando de una tasa habitual del 9% a un éxodo digital masivo.

Paradójicamente, la postura ética de Anthropic resonó con el público preocupado por la privacidad y la militarización de la IA.

Su base de usuarios creció más de un 60%, llevando a Claude a convertirse en la aplicación gratuita más descargada en la App Store de Estados Unidos.

El Frente Cibernético: ataques a infraestructura IT, radares y redes

Toda esta maquinaria algorítmica depende de un punto débil fundamental: los centros de datos y la infraestructura de telecomunicaciones.

La ciberseguridad ya no es una función de soporte en la retaguardia, sino un dominio central del conflicto bélico.

Esta vulnerabilidad quedó expuesta durante la escalada de tensiones en Medio Oriente entre Estados Unidos, Israel e Irán.

En medio de intercambios de misiles y drones, la división de nube de Amazon sufrió un incendio en un centro de datos en Emiratos Árabes Unidos después de que las instalaciones fueran golpeadas por objetos.

Acompañando estos ataques cinéticos, facciones de hacktivistas lanzaron ataques distribuidos de denegación de servicio contra bancos, aerolíneas y ministerios de gobierno en el Golfo e Israel.

En Irán, operaciones cibernéticas alineadas con ataques aéreos desconectaron repetidamente la conectividad nacional a internet.

Deepfakes y la guerra psicológica de la desinformación

La guerra de la información ha sido amplificada por los modelos generativos.

Ya no se trata solo de escribir noticias falsas, sino de crear audios y videos hiperrealistas —deepfakes— para realizar operaciones psicológicas.

Durante la guerra en Ucrania se registró uno de los primeros usos de esta tecnología en combate: un video falsificado del presidente ucraniano Volodymyr Zelensky anunciando la rendición de su país.

En paralelo circularon videos falsos de Vladimir Putin declarando la paz.

En Medio Oriente, actores cibernéticos comenzaron a clonar voces de personas comunes para enviar mensajes falsos de secuestro a grupos familiares en aplicaciones de mensajería.

Al mismo tiempo, circulaban videos generados por IA que simulaban ataques aéreos en ciudades como Tel Aviv o Dubái.

El daño más insidioso de los deepfakes no es necesariamente que la gente crea la mentira, sino que generan lo que se conoce como el «dividendo del mentiroso».

Al inundar internet con falsificaciones, líderes políticos y ciudadanos comienzan a dudar de todo.

Incluso evidencia real de crímenes de guerra puede ser descartada como contenido generado por inteligencia artificial.

Actores estatales han llevado esta estrategia más allá mediante campañas de manipulación de información y posibles intentos de envenenamiento de datos de entrenamiento de modelos de lenguaje.

La guerra y la defensa se han vuelto profundamente tecnológicas.

La pelea entre gigantes tecnológicos por mantener principios éticos demuestra que la carrera armamentista ya no se libra solo en fábricas de municiones, sino en salas de servidores.

Hoy, la ciberseguridad, los datos y la inteligencia artificial determinan no solo quién gana la guerra, sino también cómo se redefine el valor de la vida humana en el proceso.

Eduardo Laens
Eduardo Laens
Licenciado en Marketing graduado en la UCASAL con un master en Inteligencia Artificial. Cuenta con más de 15 años de experiencia en el rubro de tecnología, marketing digital, marketing de producto, relevamiento y venta de soluciones informáticas, software y middleware. En 2014 fundó Varegos, consultora de IT dedicada a la entrega de soluciones de tecnología que potencien a las empresas en su búsqueda de eficiencia operacional con Inteligencia Artificial. Desde hace años se dedica a la docencia en colegios y universidades. Dentro de la docencia en el ámbito secundario está a cargo de la materia "Taller de Emprendedorismo" para alumnos de 6to año de la especialización de Tecnología y en el área universitaria es docente a cargo del Programa Ejecutivo de Inteligencia Artificial e Hiper Automatización. En el último tiempo ha escrito varios artículos periodísticos donde da cuenta sobre los riesgos y ventajas de la inteligencia artificial en la educación, trabajo y también alertando sobre los peligros de los efectos secundarios de estas tecnología. Además, ha escrito el libro Humanware, en donde explora estos temas y el impacto de la IA en la sociedad.
ARTÍCULOS RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

mas leídas