jueves, noviembre 21, 2024

Eficiencia y ciberseguridad: las razones detrás de la repatriación de las cargas de trabajo a clouds on-premises

Durante los últimos años, la digitalización ha impactado la forma de trabajar y crear valor en múltiples industrias, requiriendo una mayor capacidad de almacenamiento y procesamiento de datos, y más […]

Durante los últimos años, la digitalización ha impactado la forma de trabajar y crear valor en múltiples industrias, requiriendo una mayor capacidad de almacenamiento y procesamiento de datos, y más recientemente, el entrenamiento de modelos cognitivos que le entreguen a las compañías ventajas competitivas.

En este contexto, hemos podido observar una creciente tendencia de las empresas por repatriar las cargas de trabajo desde el Cloud Público al Cloud Privado, motivado principalmente por la reducción de costos, la búsqueda de un mayor control sobre la información, garantizar el cumplimiento normativo y mejorar el rendimiento de sus aplicaciones empresariales.

Según el estudio de IDC presentado por DELL Technologies, el 74% de las organizaciones planea repatriar cargas, y solo un 12% permanecerá totalmente en el Cloud Público.

Esta nueva práctica se instaló hace algunos años en las grandes corporaciones, a raíz del estudio The Cost of Cloud, a Trillion Dollar Paradox, de Andreessen Horowitz, que concluyó que para el caso de proveedores de servicios digitales, la repatriación de sus workloads a un modelo cloud, pero on-premises, aumentó su flujo de efectivo y market cap, al punto que el estudio estima en unos u$s 500 B, el valor bursátil que se podría capturar desde el mercado por la repatriación.

La principal razón radica en la búsqueda por optimizar el costo de Cloud, moviéndose de un modelo basado en OPEX a uno de CAPEX.

Los modelos basados en OPEX, es decir, el arriendo de infraestructura o “as-a-service”, son altamente adecuados para ciertos casos de uso así como empresas que aún no tienen una predictibilidad de capacidad de corto y mediano plazo.

Sin embargo, en aquellos casos que las necesidades de cómputo son sostenidas, predecibles, y de mediano a largo plazo, tiene más sentido un modelo de CAPEX, en el cual se invertirá en infraestructura digital, que podrá ser explotada a costos más bajos por 3, 5 o más años.

Además de lo financiero, hay beneficios técnicos, como reducir la latencia, en algunos casos de más de 100 ms a menos de 10 ms, lo que tiene un gran impacto en aplicaciones interactivas, y será un factor aún más crucial en la nueva generación de aplicaciones que se están desarrollando para 5G.

Por ejemplo, una Smart City no podrá controlar los semáforos, o los trenes, desde un Cloud Público en otro continente, sino que requerirá latencia baja, lo que requiere proximidad de ~ 1000 Km.

Otro factor fundamental es la necesidad de organizaciones reguladas o los gobiernos, aseguren que la información de sus servicios y/o ciudadanos resida en lugares bajo su propia legislación.

De hecho, este asunto es muy serio en EEUU y Europa, donde las regulaciones en relación al Cloud consideran no solo la localización física de los datos, sino que por donde transitan, para asegurar que no existan brechas de seguridad.

Este factor tomó especial importancia el año pasado, luego de que algunos gobiernos latinoamericanos perdieran acceso a aplicaciones de misión crítica, cuando un centro de datos de su proveedor en otro país fue víctima de ransomware.

Finalmente, el control de Cloud toma especial importancia en medio de la creciente tendencia por adoptar modelos de Inteligencia Artificial. ¿Cuántas compañías querrían albergar sus modelos cognitivos en infraestructura de terceros? versus desarrollar estas capacidades diferenciadoras en las propias instalaciones, a un costo de operación menor.

Ahora bien ¿Qué tan complejo es emprender este viaje? Depende, ya que el modelo de aplicaciones en micro-servicios puede ser la piedra angular.

Cuando Google liberó en 2014 su tecnología de orquestación Cloud, bajo el nombre de Kubernetes, vino a resolver el gran problema de fragmentación que existía en el espacio de las nubes.

Kubernetes se posicionó como el estándar de facto para la orquestación de aplicaciones en contenedores, ya que permitía estandarizar el cómo desplegar, operar, actualizar, orquestar, securizar y respaldar aplicaciones, en cualquier cloud,  haciéndose cargo de todos los procesos pesados del ciclo de vida de las aplicaciones.

De esta manera, si una organización tiene sus aplicaciones contenerizadas corriendo en el Cloud Público, la transición al Cloud Privado es muchísimo más sencillo, y las aplicaciones raramente notarán la diferencia.

De hecho, esto mismo es lo que hace viable el modelo de Cloud Híbrida o Multi Clouds, ya que, si no se pudiera estandarizar el traslado de aplicaciones, las barreras de entrada y salida del cloud serían altas.

El Cloud Privado ofrece la oportunidad de ejercer un mayor control sobre los datos a través de la implementación de medidas de seguridad personalizadas y adaptadas a las necesidades de cada industria, así como también le permite a las empresas cumplir con regulaciones específicas al tener un control más directo sobre la infraestructura digital y el almacenamiento de datos.

Hoy es fundamental que las industrias adopten enfoques integrales, donde la ciberseguridad y la eficiencia sean parte fundamental de la estrategia de crecimiento de las empresas.

En este contexto, la repatriación de las cargas de trabajo se ha convertido en una solución para un desarrollo digital exitoso y efectivo.

José Miguel Guzmán
José Miguel Guzmán
Cofundador Whitestack.
ARTÍCULOS RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

mas leídas