IA en la sombra: riesgos y gobernanza

El uso no autorizado de herramientas de IA Generativa en organizaciones expone datos sensibles y exige políticas claras de gobernanza.

De acuerdo a un reciente informe del World Economic Forum, las vulnerabilidades vinculadas a la IA crecen más rápido que el fraude y el ransomware.

La IA en la sombra o Shadow AI, como se le conoce, es un concepto que cada vez resuena más.

En concreto, se trata del uso de herramientas de Inteligencia Artificial, como ChatGPT, Gemini u otros, incluso extensiones del navegador y agentes autónomos, por parte de empleados o colaboradores de una organización, pero sin permiso, autorización, supervisión o conocimiento del departamento de TI de la empresa o de quien esté a cargo de la ciberseguridad.

Como es de suponer, esta práctica, que se está volviendo más que habitual en los lugares de trabajo o de estudios, representa un grave riesgo de ciberseguridad y fuga de datos confidenciales, principalmente debido a que cuando se utilizan dichas plataformas no controladas se introduce información clave y, muchas veces, personal o de la organización.

El problema radica en que esas plataformas pueden guardar o reutilizar esa data. Por tanto, se pierde el control sobre ella.

De esa manera, datos personales o de clientes, documentos internos o estrategias empresariales pueden terminar en bases de datos externas sin ninguna garantía de protección.

Así, además de la fuga de información sensible y pérdida de control de los datos, el uso de herramientas gratuitas de IA para resumir documentos, traducir textos, programar código o transcribir reuniones, lleva al incumplimiento normativo (como RGPD) y a posibles sesgos en los resultados.

Por lo mismo, lo prudente y aconsejable es fortalecer la gobernanza dentro de las organizaciones con el fin de implementar políticas claras, utilizar herramientas SaaS autorizadas, formar a los empleados y monitorizar el uso de aplicaciones de IA.

La gobernanza de la IA conlleva un conjunto de marcos, políticas y procesos que garantizan el uso ético, seguro y responsable de esta innovadora tecnología, abarcando desde la gestión de datos hasta la supervisión humana, para mitigar sesgos, asegurar la transparencia y cumplir normativas.

Implementar la IA y su uso con un enfoque responsable, integrando evaluaciones automatizadas y alertas en tiempo real, manteniendo el control humano, especialmente en sistemas de agentes autónomos, es clave a la hora de integrar la IA en las organizaciones actuales.

Rodrigo Acevedo
Rodrigo Acevedo
Gerente general de Entersoft,
ARTÍCULOS RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

mas leídas