El potencial de los agentes autónomos de inteligencia artificial en sectores críticos como el petróleo y gas es enorme: ofrecen mejoras sin precedentes en optimización y eficiencia, además de abrir nuevas fronteras operativas.
Sin embargo, este contexto instaló la necesidad de un marco de gobernanza robusto para guiar la autonomía de los agentes de IA, particularmente en entornos de alto riesgo donde la precisión y el control son fundamentales.
¿Qué es la gobernanza de la inteligencia artificial? Es aquella que se refiere a los procesos, estándares y barreras que ayudan a garantizar la seguridad y la ética de los sistemas y herramientas de IA.
En lo que respecta a la IA agéntica, los marcos de gobernanza debieron actualizarse para tener en cuenta su autonomía.
El potencial económico de los agentes fue enorme, pero también lo fue el panorama de riesgos asociado.
Fomentar que los sistemas inteligentes operen de manera más segura, ética y transparente será una preocupación creciente a medida que se vuelvan más autónomos.
Los agentes automatizados existen en todas partes: en el servicio al cliente, los servicios financieros, la planificación logística, el mantenimiento predictivo y la detección de anomalías, por mencionar algunas áreas.
Actualmente existen cuatro dimensiones claves cuando hablamos de gobernanza:
A. Transparencia: ambos equipos, técnicos y comerciales, pueden comprender cómo funciona el agente de IA. Esto garantiza trazabilidad. En el caso de Oil and Gas, por ejemplo, si un agente de IA debía decidir cómo actuar ante una fuga de bombeo, allí ya tenía estructurados los pasos a seguir bajo un plan de respuesta a emergencia con constante supervisión del personal.
B. Accountability: estableciendo una asignación clara de roles para cada etapa de los agentes de IA, se logra una adecuada gobernanza. Por ejemplo, los científicos de datos pueden ser responsables de la precisión del modelo, los ingenieros de datos de la arquitectura, los equipos legales de la parte de compliance y los equipos de operaciones de monitorear el comportamiento de los agentes en el mundo real.
C. Auditoría continua: tiene que ser un proceso continuo que implica que la empresa cuente con dashboards con registros, revisiones de sesgo, rendimiento y seguimiento de procesos, solo por mencionar algunos ítems. Estas revisiones periódicas evalúan degradaciones del rendimiento, sesgos o desviaciones del comportamiento esperado y, si es necesario, pueden desactivar de manera urgente a alguno de los agentes.
D. Human-in-the-loop: con el humano en el circuito, los mecanismos de bucle garantizan que el personal humano pueda intervenir cuando los agentes se encuentran con nuevas situaciones o decisiones de alto riesgo. El humano puede corregir el comportamiento y definir rutas para escalar el problema.
Sin dudas, las organizaciones deben adoptar modelos de gobernanza escalables, implementar protocolos sólidos de infraestructura tecnológica y gestión de riesgos e integrar la supervisión humana en el proceso.
Si las organizaciones, especialmente en Oil & Gas, pueden escalar los sistemas de agentes de forma segura, podrán obtener un valor prácticamente ilimitado.