La pregunta, que hasta hace no mucho hubiera sonado a disparate distópico de ciencia ficción, hoy es una realidad incómoda: el debate ya no es por “sí o no”, estamos en la etapa del “cómo, para qué y con qué límites”.
La inteligencia artificial en el sector público podía ser un acelerador formidable de valor social o un atajo hacia decisiones mediocres, burocracias automatizadas y confianza pública erosionada.
Depende del diseño, de la gobernanza y, sobre todo, del poder que estemos dispuestos a delegar.
Arranco por lo obvio: la política ya estaba usando IA. Hace pocos días, el primer ministro de Suecia reconoció que consulta ChatGPT y otras herramientas “como segunda opinión”. En un punto es humano: todos buscamos contraste antes de decidir.
El problema aparece cuando esa “segunda opinión” entra a la sala sin credenciales, sin trazabilidad y sin responsabilidad jurídica. ¿Qué datos se le dieron? ¿Quedó registro? ¿Hubo revisión humana? Las preguntas no eran paranoias; eran condiciones básicas para el ejercicio responsable del poder público.
Del lado luminoso, había beneficios inmediatos y nada triviales. Un Estado está hecho de texto: informes, notas, minutas, borradores, respuestas a oficios.
Asistentes de IA ya demostraron que podían ahorrar tiempo real en ese océano de documentos y ser más eficientes que los asistentes humanos.
El Gobierno británico reportó ahorros promedio de 26 minutos por día por funcionario en un ensayo con miles de empleados. No era magia; era menos tiempo formateando, resumiendo y buscando, y más tiempo en trabajo de criterio.
Si se multiplicaba eso por toda una administración, eran semanas de productividad recuperada por persona cada año. Bien diseñado, ese tiempo se podía reinvertir en servicio al ciudadano, no en “más papeles”.
Otra ventaja: accesibilidad. Un asistente estatal bien entrenado podía responder 24/7 en lenguaje claro, traducir a lenguas locales, evidenciar transparencia operativa, explicar trámites con ejemplos, detectar incoherencias en expedientes y guiar a adultos mayores o personas con discapacidad en tiempo real.
Si el Estado era un laberinto, la IA bien usada te prestaba una brújula digital.
Ahora, los riesgos.
El primero era obvio y a la vez subestimado: confidencialidad y gobernabilidad de la solución. ¿Tenía el gobierno la madurez necesaria para implementar y mantener de forma autónoma la solución, o dependía de un proveedor del sector privado para hacerlo?
Yendo al caso del primer ministro sueco que salió en las noticias, el cual aseguró que consultaba a las IAs públicas, ¿cuál era el protocolo de la información que entregaba a los modelos para recibir feedback?
Segundo: sesgo y legitimidad. Los modelos aprendían de datos históricos que reflejaban inequidades reales.
Si trasladábamos esos sesgos a decisiones de alto impacto —asignación de beneficios, inspecciones, controles—, podíamos terminar automatizando injusticias con sello de “eficiencia”.
Y la eficiencia mal medida era peligrosa: si el KPI era “cerrar expedientes más rápido”, quizá el sistema aprendía a filtrar casos complejos o a responder con generalidades.
La IA podía optimizar procesos o podía optimizar excusas. Si los gobernantes utilizaban modelos generales, ¿cómo nos asegurábamos de que no sucumbieran ante los sesgos, criterios y potenciales manipulaciones de los fabricantes?
Tercero: dependencia y captura. Si cada flujo crítico del Estado corría sobre un stack propietario que no permitía auditar, versionar ni portar modelos, quedaban presos de un proveedor y de sus cambios de precio, de política o de servicio.
Esto ya había pasado con otros software; con IA era peor, porque el “know-how” estaba en prompts, evaluaciones y datasets afinados que eran parte del activo del Estado.
Perder eso era perder control operativo. El debate de la soberanía de las IAs se volvía absolutamente relevante, donde los estados debían destinar presupuestos de innovación y tecnología para poder operar desacoplados de los titanes tecnológicos actuales.
Cuarto: pérdida de calidad gubernamental. Si cada borrador, cada memo y cada análisis lo arrancaba una IA, existía el riesgo de atrofiar habilidades que el sector público necesitaba conservar: escritura clara, pensamiento crítico, capacidad de síntesis, memoria institucional.
¿Qué hacíamos con todo esto?
Algunos marcos ya habían puesto la vara. La UE avanzó con el AI Act, en vigor desde el 1 de agosto de 2024, que ordenaba la casa por niveles de riesgo y marcaba límites claros (p. ej., prohibía “social scoring” gubernamental).
No resolvía todo, pero establecía un piso común para adquisiciones, evaluaciones y transparencia, con un cronograma que escalaba obligaciones en 2025 y 2026.
En EE. UU., la Oficina de Presupuesto (OMB) emitió memorandos que exigían inventarios de casos de uso, responsables de IA, gestión de riesgos y reglas de compra específicas para evitar cajas negras y asegurar portabilidad.
Otra vez: no era “sí o no a la IA”, era “sí, con guardarails”.
Imaginemos ahora efectos colaterales menos obvios.
En economía política, la IA podía favorecer una “burocracia de la verosimilitud”: documentos perfectos, lenguaje impecable, argumentos bien formateados, pero con premisas débiles.
La forma tapaba la sustancia y la velocidad abrumaba el escrutinio ciudadano.
Otro efecto: delegación de responsabilidad institucional. Si una decisión salía mal, siempre existía la tentación de culpar al sistema: la herramienta recomendaba.
La responsabilidad no se delegaba totalmente, pero se podía diluir. Y ahí perdíamos todos.
¿Y los escenarios distópicos?
No hacía falta ir a ciencia ficción.
Uno: un piloto “experimental” de análisis para asignar inspecciones identificaba barrios “de riesgo” combinando datos de denuncias, consumo eléctrico y redes sociales.
A corto plazo mejoraba la tasa de hallazgos.
A mediano, reforzaba sesgos territoriales, parecía “confirmar” estigmas y encendía un círculo vicioso de vigilancia selectiva.
Dos: un asistente ciudadano ultra realista respondía que no correspondía tu reclamo porque “no cumplís criterio X”, pero el criterio X estaba codificado en un modelo que nadie podía auditar.
El algoritmo se volvía ley de facto.
Tres: propaganda sintética hipersegmentada, imposible de detectar a simple vista, diseñada por agentes que probaban miles de variantes por minuto y aprendían de tus respuestas.
La conversación cívica, ya frágil, se convertía en un enjambre de susurros invisibles.
También había escenarios virtuosos que valía la pena perseguir.
Un Estado que creaba su “Asesor Ciudadano”: conocimiento público (leyes, jurisprudencia, estadísticas, manuales) curado y versionado, listo para que cualquier modelo —propio o de terceros— respondiera con citas y trazabilidad.
Un repositorio de información y evaluaciones abierto, con métricas públicas de calidad, sesgo y robustez.
Modelos soberanos o desplegados en nubes con garantías para información sensible, y “cajas de vidrio” (system cards, reglas de uso, logging auditable) accesibles por la ciudadanía.
Y un principio simple: derecho a una vía humana para impugnar una decisión asistida por IA.
Para llegar ahí, propongo cinco reglas prácticas:
- Propósito claro. Toda IA en gobierno debía responder a un problema público específico y medirse contra resultados reales (tiempos de espera, acceso, calidad de servicio), no contra métricas de vanidad tecnológica.
- Datos con gobernanza. Sin catálogos, calidad, permisos y trazabilidad de datos, no había IA responsable. Publicar metadatos y políticas era tan importante como publicar código.
- Humano al mando. “Human-in-the-loop” con atribuciones de veto y registro de por qué se aceptaba o rechazaba una salida del modelo. La historia de decisiones era auditable.
- Procurement inteligente. Cláusulas de soberanía y portabilidad, benchmarks de desempeño, pruebas de robustez y sesgo antes de firmar, derecho a inspección posterior. Nada de lock-in sin plan de salida.
- Transparencia radical. Etiquetar interacciones automatizadas con trazabilidad y auditoría (qué se preguntó, qué respondió el modelo, con qué fuentes), resguardando datos personales. Cuanta más transparencia, menos suspicacia.
¿Era positivo o negativo que los gobiernos usaran IA? Mal planteada la pregunta.
La IA no era buena ni mala: era poder. Y el poder se regulaba, se equilibraba y se rendía.
Si la usábamos para ensanchar derechos, simplificar la vida cotidiana y abrir la caja negra del Estado, sería un avance civilizatorio.
Si la usábamos para apretar tornillos de control, tercerizar criterio y maquillar decisiones, sería otra vuelta de tuerca a lo que ya no funcionaba.