El uso de inteligencia artificial generativa en el ámbito laboral crece a un ritmo acelerado y, con él, emerge uno de los principales riesgos de ciberseguridad para las organizaciones: el “Shadow AI”.
Se trata del uso no regulado de asistentes virtuales por parte de empleados para resolver tareas cotidianas, muchas veces subiendo información sensible a plataformas públicas sin control ni gobernanza.
Informes recientes de compañías como Google Workplace y Dell Technologies muestran que, a lo largo de 2025, se incrementó de forma sostenida el uso de asistentes de IA para redactar informes, analizar datos o preparar presentaciones ejecutivas.
Esta adopción, si bien impulsa la productividad, expone a las empresas a un riesgo crítico de fuga de datos.
Brecha entre adopción y control en América Latina
En la región, los datos reflejan una brecha alarmante entre adopción y control. En Argentina, más del 57% de los profesionales ya utiliza herramientas de inteligencia artificial en su trabajo diario, mientras que solo el 23% de las empresas cuenta con protocolos formales que regulen su uso.
Otro estudio reciente reveló que el 78% de los trabajadores implementa su propio chatbot en la oficina, una práctica que los analistas ya califican como una de las principales preocupaciones de los líderes en términos de privacidad y ciberseguridad.
“El problema no es la inteligencia artificial, sino la falta de políticas claras de gobernanza sobre la información que se intercambia”, explicó Roberto Ricossa, vicepresidente para Latinoamérica de F5.
“Muchas personas toman resultados financieros, proyecciones o datos confidenciales de la empresa y le piden a un chatbot que genere un análisis para una reunión de directorio. Eso es equivalente a subir un video privado a una plataforma pública: esa información deja de estar bajo control corporativo”, continuó.
Datos privados en la nube: riesgo irreversible
La inteligencia artificial aplicada a tareas internas es un catalizador de eficiencia.
Sin embargo, cuando los modelos se alimentan con información sensible —como datos financieros, propiedad intelectual o información de clientes— el riesgo se vuelve exponencial.
Una vez que esos datos ingresan a modelos de acceso público, no existe forma de recuperarlos ni de garantizar su uso futuro.
Este escenario es especialmente atractivo para la ciberdelincuencia, una industria que opera sin fronteras y se posiciona entre las más rentables del mundo.
Los atacantes utilizan tecnología avanzada para identificar vulnerabilidades y obtener recomendaciones de ataque cada vez más sofisticadas.
Gobernanza activa como solución
Ante el temor a una fuga de información, muchas organizaciones optan por prohibir el uso de herramientas de IA generativa.
“Bloquear la inteligencia artificial es una decisión estratégica equivocada”, sostuvo Ricossa. “Prohibir su uso equivale a renunciar a la ventaja competitiva.
Una empresa que decide no adoptar IA puede comprometer seriamente su viabilidad en los próximos cinco años. El problema no se resuelve prohibiendo, sino gestionando”.
Para F5, la solución es implementar un modelo de gobernanza activa, donde la seguridad actúe como una puerta de enlace entre la organización y los modelos de inteligencia artificial.
Este enfoque permite que todo el tráfico hacia y desde los asistentes virtuales pase por los filtros de la empresa, definiendo accesos por roles y limitando qué información puede compartirse a través de límites preestablecidos.
“El objetivo es proteger a los empleados de ellos mismos”, explicó Ricossa.
“Si se intenta subir información confidencial a un asistente público, el sistema lo detiene. Es el equivalente a los guardias en la puerta de un local: no están para frenar el negocio, sino para cuidarlo”, prosiguió.
Este tipo de controles evita que datos sensibles de áreas como Recursos Humanos, Finanzas o Legal queden expuestos a través de motores de IA y, al mismo tiempo, permite aprovechar los beneficios de la automatización y el análisis avanzado.
La inteligencia artificial no es una tendencia pasajera, sino un motor de cambio exponencial que está redefiniendo la competencia en todos los sectores.
Sin embargo, su adopción sin una gobernanza adecuada abre una brecha de riesgos que puede ser catastrófica para los negocios.
“El desafío para los líderes no es elegir entre innovación o seguridad. El verdadero reto es entender que la IA necesita límites humanos para generar valor sostenible”, concluyó Ricossa.
