En el mundo corporativo, la inteligencia artificial (IA) dejó de ser un concepto aspiracional para transformarse en una herramienta concreta de eficiencia y ventaja competitiva.
En el alto nivel gerencial había un convencimiento de que la IA estaba transformando su negocio y debían subirse a esa ola.
Luego de visitar muchos clientes en distintos países de América Latina, pude decir que el cuándo era ahora.
Las preguntas que quedaban sin respuesta en estos ejecutivos eran “¿por dónde y cómo empezar?”.
Mi visión era que el punto de partida no debía ser un megaproyecto que abarcara toda la organización, sino un caso de uso específico, medible y con impacto tangible en un área de negocio.
El punto de partida
En el mundo de la tecnología, todo comenzaba con un caso de uso puntual.
No se trataba de transformar toda la organización de la noche a la mañana, sino de identificar una situación concreta donde la IA pudiera generar una mejora significativa y medible.
Por ejemplo, en una empresa de servicios, implementar un modelo de IA que gestionara automáticamente las preguntas frecuentes podía reducir los tiempos de respuesta y liberar a los agentes humanos para tareas de mayor valor.
Este tipo de iniciativa era acotada, mensurable y con resultados visibles en semanas, lo que la convertía en un excelente primer paso.
A partir de allí, la organización ganaba confianza, experiencia y métricas que permitían escalar hacia escenarios más sofisticados, como la personalización de la experiencia del cliente, la predicción de la demanda o la optimización logística.
Lo esencial era comenzar con un caso de éxito, consolidar el aprendizaje y luego expandir gradualmente a nuevos frentes.
Para lograrlo, era clave conformar un equipo multidisciplinario, considerando personas de tecnología, negocio y control de gestión, liderado por un Chief AI Officer (CAIO), quien actuara como puente entre la estrategia de negocio y la implementación tecnológica.
En este recorrido, los datos eran el insumo más valioso: sin calidad, consistencia y gobernanza, ningún modelo de inteligencia artificial podía producir resultados confiables.
Por eso, antes de elegir un caso de uso, la alta gerencia debía evaluar si contaba con datos suficientes y de buena calidad, y si existía la infraestructura y el talento para transformarlos en inteligencia accionable.
La decisión tecnológica: LLM vs. SLM
Una vez elegido el caso de uso, la discusión inevitable pasaba por la arquitectura tecnológica.
Aquí aparecían dos enfoques: los Large Language Models (LLM), capaces de procesar información a gran escala con resultados sofisticados, y los Small Language Models (SLM), más livianos, económicos y fáciles de entrenar con datos específicos de la empresa.
Los LLM ofrecían potencia y versatilidad, pero traían consigo mayores costos de cómputo y preocupaciones de confidencialidad cuando dependían de proveedores externos.
Por el contrario, los SLM podían ejecutarse en entornos más controlados, incluso on-premises, con costos previsibles y entrenados en contextos más reducidos, pero profundamente relevantes para la organización.
La decisión no debía ser binaria.
Una estrategia híbrida podía aprovechar la escala de un LLM para tareas generales (resúmenes, generación de contenido amplio) y un SLM especializado para funciones críticas con datos sensibles (procesos financieros, información de clientes, operaciones internas).
El ángulo de la ciberseguridad
En ciberseguridad, la discusión LLM vs. SLM se volvía crítica.
Los SLM eran manejables, pero al ejecutarse on-prem o en nubes privadas implicaban una responsabilidad adicional: asegurar todo el stack que los soportaba.
Esto incluía proteger el hardware, los pipelines de datos de entrenamiento e inferencia, las APIs expuestas y los mecanismos de actualización.
En la práctica, significaba integrarlos con soluciones de Zero Trust, EDR/NDR, IAM robusto, segmentación de red y cifrado end-to-end.
Sin este andamiaje, un SLM podía transformarse en un vector de ataque en lugar de una defensa.
Los LLM, en cambio, rara vez podían desplegarse en una nube privada de la organización.
Los grandes proveedores (como OpenAI, Anthropic, Gemini, xAI) los ofrecían bajo un modelo “as a Service”, sin acceso al modelo base.
La alternativa era utilizar LLM open source (LLaMA 3, Falcon, Mistral) sobre clusters propios de GPU en infraestructuras privadas o híbridas, con altos costos de hardware y mantenimiento.
Cuando se consumían como servicio en la nube pública, los LLM introducían el problema de la fuga de información: cada vez que se enviaban datos, existía riesgo de que información sensible quedara retenida o se utilizara indirectamente en el entrenamiento futuro.
Incluso si el proveedor afirmaba anonimización, no siempre se garantizaba cumplimiento de regulaciones estrictas (GDPR, HIPAA, PCI-DSS).
De hecho, ya había incidentes documentados donde empleados filtraban datos confidenciales de clientes al usarlos en LLM públicos.
Estrategia práctica
- SLM on-prem o cloud privada: entrenados con datos internos y protegidos con un stack robusto de ciberseguridad.
- LLM públicos como servicio: restringir su uso a casos no críticos, aplicando políticas de sanitización de datos antes de la consulta.
- LLM open source en nubes privadas: camino intermedio para sectores regulados, aunque con inversión significativa en infraestructura y talento.
Implementar IA en un área de negocio no era un salto al vacío, sino una secuencia lógica: empezar con un caso de uso puntual, elegir la tecnología adecuada considerando costos y seguridad, y finalmente escalar a una estrategia que abarcara la organización.
El error más común era lanzarse a iniciativas amplias sin un norte definido, lo que llevaba a altos costos y frustraciones.
La clave estaba en construir desde lo pequeño, con impacto rápido, pero diseñando la arquitectura con visión de futuro.
La inteligencia artificial no era un fin en sí mismo.
Era un medio para transformar procesos, mejorar la eficiencia y abrir nuevas oportunidades de negocio.
La pregunta no era si usar IA, sino cómo y dónde comenzar hoy.