viernes, junio 05, 2015

Subiendo al Cloud...

Llevo ya varios años involucrado en el negocio Cloud, y es curioso ver como poco a poco se va acelerando su despliegue: Pocos CIOs ya se cuestionan su viabilidad, aunque... ¿Sirve para todo? Pues sí y no. Depende de lo que se quiera hacer y dónde, y el cómo es fundamental.
Es bueno recordar que el camino siempre pasa por virtualizar, y que el concepto de la virtualización, en el fondo, es aprovechar al máximo un hardware que en el pasado sólo se usaba menos del 10-15%. Así, gente como VMware, vio la oportunidad de desarrollar una capa de software que presentara a las nuevas máquinas virtuales un interface de hardware virtual. Este nuevo layer o capa hipervisor, es lo que establece con unos SLAs y reservas de elementos físicos (CPU, memoria), la calidad de la virtualización. Muchos de los entornos Cloud actuales no hablan una palabra en sus contratos de garantías de reserva o de sobresuscripciones, y es algo que se debe preguntar siempre.
Otro punto crítico que me llama la atención es la manía de hablar en las características de la conectividad del cloud de un acceso de X Gbps. Esto es como decir que tenemos para llegar a casa una autopista de 6 carriles... Pero compartida. de manera que los atascos existen, y entonces, de Gbps, nada de nada. Para entornos donde el SLA es importante, no se debería usar una conectividad compartida.
También otro tema divertido es la migración. ¿Cuánta información debe subirse? ¿Cuál es la ventana de parada? Empiezan a existir herramientas de migración online que facilitan estas tareas, basadas en la replicación quasi-síncrona (aunque requieren la instalación de agentes).
¿Y qué decir del backup? En los tiempos que corren, un auténtico dolor de cabeza para cualquier administrador de sistemas, con la retención subiendo día a día por requerimientos legales, financieros, etc, y la cantidad de información también. Antes hablábamos de pocos GB... Ahora la unidad son TB... Y subir TB a la red, no es un tema baladí...
Por no extenderme demasiado, tenemos el Disaster Recovery como último punto. Antes, tenías dos alternativas tecnológicas: O el DR basado en el backup de cinta, con RTO y RPO de días, o saltabas a la replicación síncrona de elementos de hardware, carísimos y con restricciones de distancia muy severos, por la naturaleza de dicha replicación. La virtualización nos ha traído nuevas estrategias basadas en snapshots o en replicación quasi-síncrona, etc. que simplifican mucho la construcción de un centro de recuperación de desastres y, sobre todo, su coste y operativa. Sin embargo, es bueno pensar en cosas como el failback (volver a la situación inicial) o en que no todo debe ser susceptible de réplica, por lo que el uso de varias tecnologías no solo es recomendable, sino necesario.
Finalmente, lo cierto es que durante estos 3 últimos años ha cambiado la fisonomía de lo que es un Datacenter. Ya nada será lo mismo, gracias (o por culpa) de la virtualización y el Cloud. Y la industria IT, también. El canal de distribución está pivotando desde la distribución física de cajas a la de servicios virtuales. Y esto, es motivo de otro artículo... Porque se avecinan cambios...