El uso de la inteligencia artificial avanza como motor de productividad en América Latina; sin embargo, su adopción también plantea desafíos críticos en materia de ciberseguridad.
El uso de datos internos, informes sensibles o documentos oficiales en plataformas de IA generativa abre la puerta a filtraciones de información confidencial, incrementando la exposición de empresas e instituciones frente al cibercrimen, alertó Claudio Martinelli, director general para las Américas en Kaspersky, quien señaló que el uso de estas plataformas puede incluso derivar en una fuga masiva de información confidencial.
Hoy, los equipos de seguridad no solo tienen la presión de resguardar las redes corporativas ante los 467.000 objetos maliciosos que se detectan diariamente, sino que también enfrentan una realidad asociada al uso de sistemas de IA por parte de los empleados.
Muchos, para ahorrar tiempo en sus tareas diarias, alimentan estas plataformas con reportes confidenciales, bases de datos o documentos y, al hacerlo, comparten información en entornos públicos que no garantizan la protección ni la privacidad de los datos.
“Actualmente, el temor de las empresas también está relacionado con el uso que algunos empleados hacen de plataformas de IA generativa, compartiendo en ellas datos confidenciales. Es decir, usan inteligencia artificial sin inteligencia humana. No se trata de delegar todo a una herramienta, sino de entender los riesgos, cuidar la confidencialidad y entrenar a los empleados para que sepan cómo usar la IA”, destacó Martinelli.
Recientemente se detectó que los sistemas de IA generativa pueden indexar las conversaciones que mantienen los usuarios y mostrarlas en buscadores web, dejando expuestos los chats de algunas personas en temas íntimos como su vida privada o su salud mental.
Esto abre la posibilidad de que también se registren y expongan las consultas que los empleados realizan con información sensible de una empresa.
Para que las organizaciones puedan desarrollar y desplegar de manera segura los sistemas de inteligencia artificial, los expertos de Kaspersky recomiendan:
- Capacitar a los empleados en ciberseguridad: es fundamental que todos los colaboradores tengan formación continua en seguridad digital. Existen herramientas diseñadas para desarrollar habilidades en todos los niveles.
- Efectuar un modelado de amenazas y evaluación de riesgos: antes de implementar soluciones de IA, se recomienda identificar posibles escenarios de ataque y medir su impacto. Kaspersky Threat Intelligence ofrece información actualizada sobre amenazas emergentes.
- Contar con seguridad en la infraestructura y la nube: las configuraciones seguras y el monitoreo constante evitan que vulnerabilidades técnicas sean aprovechadas por actores maliciosos.
- Asegurar la cadena de suministro: las empresas deben garantizar que sus proveedores cumplan con altos estándares de ciberseguridad; un eslabón débil puede poner en riesgo información sensible y afectar la continuidad del negocio.
- Realizar pruebas y validación de los sistemas: todo modelo o aplicación de IA debe someterse a evaluaciones periódicas para verificar su funcionamiento y confiabilidad.
- Llevar a cabo reportes de vulnerabilidades periódicos: contar con mecanismos transparentes para la notificación y gestión de fallas facilita su corrección rápida.
- Defender los modelos de aprendizaje automático ante ataques específicos: implementar medidas de protección especializadas es esencial para garantizar su integridad.
- Asegurar actualizaciones: mantener el software y la infraestructura al día con parches de seguridad es una práctica básica, pero crucial.
- Cumplir con estándares internacionales: adoptar marcos normativos globales de ciberseguridad y protección de datos no solo garantiza legalidad, sino que también genera confianza en clientes, socios e inversionistas.