lunes, mayo 02, 2016

Datacenter Tier-IV y 2N+1? Aclarando conceptos

Cuando presentas un Datacenter como un lugar para alojar datos críticos de empresa, la primera pregunta es siempre... ¿Qué certificación tiene?¿Es un tier-II, III o IV? La pregunta es lógica, ya que en el fondo, se quiere conocer su disponibilidad de servicio anual (Tier-III es de 99,982% o 3 nueves, mientras que un tier-IV es de 99,991% o 4 nueves). La disponibilidad tiene una componente que controlas, que el tiempo en el que un sistema no presta el servicio para el que se diseñó porque está "en mantenimiento". Este estado no forma parte de las características de un tier-III o IV, y es una de las diferencias fundamentales con los tier-I o II, no hay "maintenance downtime".  
Antes de seguir, es interesante conocer lo que implica añadir "nueves" al porcentaje de disponibilidad. Si "dos nueves" son 3 días, 15 horas, 40 minutos de interrupción anual, "tres nueves" (tier-III) son 8 horas, 46 minutos, "cuatro nueves" (tier-IV) son 52 minutos, 36 segundos, "cinco nueves" 5 minutos, 15 segundos o "seis nueves" tan sólo 32 segundos anuales de no disponibilidad.
Por otro lado, ¿Qué significa disponer de redundancia "N", "N+1", "2N+1", etc.? N es el número de elementos que proporcionan servicio y capacidad. Lo entenderemos mejor con un ejemplo: un almacén de helados. Ahí N sería el número de neveras en los que se almacenan cajas de helados. Tenemos 50 neveras de 20 cajas de capacidad, es decir, capacidad máxima = 1.000 cajas, y N = 50. Si se estropea una nevera, tendremos que trasladar las cajas a otra que no esté llena, pero si no tenemos espacio vacío (100% de capacidad), se estropearán. Así, introducimos en el almacén una nevera vacía como estrategia (N+1) ante esa eventualidad (nevera que falla). También podríamos disponer de toda la infraestructura redundada al 100% (2N), o incluso, la máxima redundancia, 2N+1. Como se ve, a mayor redundancia, más coste (más neveras) ya que hemos ido pasando de 50 neveras (N) a 51 (N+1), de ahí a 100 (2N) o 101 (2N+1). Evidentemente la ocupación es otra variable en el diseño de la disponibilidad del servicio, ya que la capacidad real la dará lo que estimemos prudente ocupar, si el 100% de la capacidad total o la que se diseñe..
Dicho esto, la clasificación de un Datacenter según el Uptime Institute es como sigue:

Características Tier I Tier II Tier III Tier IV
Redundancia N N+1 N+1 2N+1
Número líneas electricas 1 1 1 x Activo / 1 x Pasivo 2 Activas
Personal Permanente Ninguno 1 solo turno 1 por cada turno 24 x 7 x 365
Puntos únicos de fallo Muchos Muchos Algunos Sólo por incendio o fallo humano
Tolerancia a fallos no planificados No No No Si
Interrupción servicio por mantenimiento anual 2 de mas de 12 horas 1.5 de más de 12 horas 0 0
Interrupción anual de servicio 2 cortes de más de 4 horas 1 corte de más de 4 horas 0 cortes de más de 4 horas 0 cortes de más de 4 horas
Tiempo anual de servicio de mantenimiento 28.8 horas 22 horas 1.6 horas 0.8 horas
Disponibilidad del Servicio 99,671% 99,749% 99,982% 99,991%

lunes, abril 25, 2016

Nos quedamos sin ingenieros????

España, sin ingenieros para la cuarta revolución industrial... Ese es el titular. Las matrículas han descendido un alarmante 25%, y articulistas de muchos medios de comunicación alertan contra este fenómeno. Como ejemplo este análisis de ABC: http://www.abc.es/sociedad/abci-educacion-espana-sin-ingenieros-para-cuarta-revolucion-industrial-201604250803_noticia.html
La falta de motivación de los estudiantes para elegir disciplinas STEM (acrónimo de las siglas de Science, Technology, Engineering and Mathematics), aunque sean las más
demandadas a nivel laboral, es un problema identificado desde hace años por el Ministerio de Educación, que ya alertaba de ello en su informe sobre el curso 2012-2013. En ese trabajo se decía entonces que "uno de los problemas importantes es la pérdida de estudiantes universitarios en la rama de Ciencias, en los últimos diez años se ha reducido el 27,3% y el 8,8% en los últimos veinte años. Es claramente una rama que está perdiendo vocaciones".
Ya podemos ir espabilando y despertando interés por la Ingeniería y la Ciencia en edades más tempranas o nos quedaremos a la cola de la Innovación del mundo... Y creo que hay que empezar desde el Colegio, desde pequeñitos. Soy de los que piensan que si no tienes interés en "destripar" cualquier trasto que no funciona para arreglarlo (destornillador en mano), no vales para ingeniero... ¿Qué pensáis? ¿Ideas?

miércoles, noviembre 11, 2015

Amazon lo quiere todo: Amazon IOT

Asistí la semana pasada al evento de Amazon Web Services en Barcelona, y me quedé francamente sorprendido con lo que se presentó allí. Hubo anuncios sobre nuevas herramientas de gestión (Amazon Cloudwatch Dashboards o las nuevas AWS config rules), seguridad (amazon WS WAF y Amazon Inspector), análisis y Big Data (Amazon Quicksight), Bases de datos (múltiples anuncios), la disponibilidad de Hosts dedicados (algo realmente innovador en Amazon), las nuevas instaciones X1 (pensadas para SAP HANA), el servicio de carga de datos (con un appliance Snowball) o el rompedor AWS Lambda, para automatización de tareas en los entornos de computación (basado en Python). Pero lo que más me sorprendió, con diferencia, fue la nueva arquitectura AWS IOT (Internet of Things), que permitirá la construcción y despliegue rápido de redes sensorizadas de "cosas", que recogerán datos, los procesarán y tomarán decisiones (algunas basadas en Lambda) con un coste de infraestructura ridículo, y con capacidad de gestionar millones de dispositivos y de mensajes generados por estos.

AWS IOT permite recibir mensajes en formato HTTP 1.1 y MQTT (protocolo de comunicación ligero diseñado para mensajes cortos y conexiones intermitentes) a través del dispositivo virtual AWS Device Gateway.
El motor de reglas permite compilar aplicaciones IoT para recabar, procesar, analizar y utilizar datos generados por dispositivos conectados a escala global sin tener que administrar ninguna infraestructura. El motor de reglas evalúa los mensajes entrantes publicados en AWS IoT y los transforma y entrega en otro dispositivo o en un servicio de la nube, conforme a las reglas empresariales establecidas. Una regla se puede aplicar a los datos de uno o varios dispositivos, y puede ejecutar una o varias acciones en paralelo.

Puede crear reglas en la consola de administración o escribirlas con una sintaxis tipo SQL. Las reglas se pueden crear de tal forma que se comporten de manera distinta, en función del contenido del mensaje. Por ejemplo, si una lectura de temperatura excede un umbral determinado, podría activar una regla para transmitir datos a AWS Lambda. Las reglas también se pueden crear para que tengan en cuenta otros datos en la nube, como los datos de otros dispositivos. Por ejemplo, puede dictar que se ejecute una acción si la temperatura es superior al 15% de la media de otros cinco dispositivos.

El motor de reglas ofrece docenas de funciones disponibles que pueden utilizarse para transformar los datos, y se pueden crear más de manera indefinida a través de AWS Lambda. Por ejemplo, si va a trabajar con un amplio abanico de valores, podría calcular la media de los números entrantes. Las reglas también pueden activar la ejecución de código Java, Node.js o Python en AWS Lambda, aportándole máxima flexibilidad y potencia para procesar los datos de los dispositivos.

Los costes parecen muy razonables, no hay coste de entrada y el pago es por uso, básicamente de publicación y de envío de mensajes. Se comentaron varios ejemplos, aunque a mi me resultó particularmente útil de los 100 sensores que envían un mensaje de 400 bytes/minuto, que se envían a otro dispositivo y se almacenan en una Base de Datos no SQL (DynamoDB). EL coste mensual sería de 43,00 USD en Europa.

La capa gratuita de AWS IoT permite comenzar con 250 000 mensajes (bloque de datos de 512 bytes) gratuitos (publicados o enviados) al mes durante 12 meses. AWS IoT no cobra por la entrega a los siguientes servicios de AWS: Amazon S3, Amazon DynamoDB, AWS Lambda, Amazon Kinesis, Amazon SNS y Amazon SQS.

Lo cierto es que, al margen de las prestaciones, lo importante es que es una plataforma para desarrolla rápido y a un coste mínimo de todo tipo de aplicaciones IOT, lo que permitirá acelerar la puesta en marcha de muchos proyectos empresariales muy innovadores. Gracias Amazon. Es una beta, pero o dudamos de que pronto será una realidad muy tangible.

Más información en: https://aws.amazon.com/es/iot/


viernes, agosto 28, 2015

El mundo ha cambiado: Es 100% visual

Pues sí. Nuestro mundo ha cambiado. Es totalmente visual. No hay más que ver cómo aprenden y actúan nuestros hijos. Su proceso de solucionar un problema se inicia "googleando" y buscando un tutorial en youtube. Otra forma de ver que todo está cambiando es analizar cómo se divierten y interactúan entre ellos. El material visual forma parte de su vida, y son grandes productores del mismo. Pero muchas cosas siguen sin cambiar y adaptarse a este nuevo paradigma social. Las empresas, por ejemplo, deberían empezar a realizar esfuerzos en cambiar su comunicación, usando herramientas como Pinterest o Instagram combinados con la seriedad y potencia de Linkedin para realzar y reforzar su comunicación e imagen de marca.
Aplicando lo que comentaba al principio, he hallado infinidad de tutorials y "howtodo" en la red, pero me gustaría compartir uno muy interesante de Elena Charameli, de cómo usar Pinterest para potenciar imagen de marca y comunicación en empresa. Son 21 consejos de marketing con Pinterest, en los que se explica cómo aproximarse a esta herramienta tan potente de comunicación.
Podéis encontrar este tutorial aquí: http://aulacm.com/guia-marketing-pinterest/
Para finalizar este breve artículo postvacacional, añado los errores más típicos en el uso de Pinterest: 
  1. No saber para qué sirve Pinterest y pensar que es un canal directo de venta
  2. Usar todos los tableros como si fueran un catálogo de tus productos
  3. No producir material especial para este medio (infografías p.e.), usando el de los catálogos
  4. Menospreciar el poder de los títulos
  5. No usar palabras clave en el título y en la descripción de cada pin
  6. Pinear pinear y no interactuar con la comunidad de usuarios
  7. Abusar de los hashtag
  8. Sólo utilizar imágenes
  9. Colocar los tableros de forma aleatoria
  10. No contestar a las preguntas, peticiones y avisos
  11. No medir tus resultados
Son errores muy habituales al iniciarse, aunque es cierto que se suelen corregir, el método de prueba y error funciona... :-)

miércoles, julio 29, 2015

El negocio del Cloud se concentra cada vez más...

Según Synergie Research Group, en Q2 de 2015 el negocio Cloud se concentró en 5 proveedores (54%): AWS, Microsoft, IBM y Google.
Esta misma cifra ha ido creciendo desde el 41% (2013, Q2), 46% (2014) y 54% (2015), en una evolución que parece imparable. 
Esta misma tendencia no sólo afecta al negocio de IaaS (Infraestructura como servicio, plataformas de de Cloud pública, híbrida y privada), si no a todos los negocios colaterales. Además, el revenue asociado al Cloud ha crecido un 84% (Q2 2015 vs 2014), mientras que el mercado crece a un 33%, hecho que afianza la idea de concentración a un ritmo acelerado mencionado antes.
El mercado IaaS se estima que alcanzará un volumen de 20.000M USD en 2015, la mitad en Norteamérica, seguido de EMEA y APAC.
John Dinsdale, Chief Analyst and Research Director at Synergy Research Group, ha comentado que: “El mercado de servicios de infraestructura cloud se está concentrando muy claramente, con una brecha cada vez mayor entre los cuatro principales proveedores de la nube y el resto de los actores de este mercado.
¿Y cuál es la razón de esta consolidación? Según este analista, “El desarrollo de infraestructura de centros de datos a hiperescala a nivel global y la capacidad de marketing requerido y de soporte para realizar las operaciones necesarias para llegar al usuario está dejando fuera del mercado al resto de competidores, y concentrando el negocio sólo en manos de un pequeño número de jugadores, y esto no va a cambiar”, dice rotundo, al tiempo que deja una puerta a la esperanza para el resto de los actores del mercado cloud, “la buena noticia para la pléyade de proveedores cloud de tamaño medio y pequeño es que hay buenas oportunidades para aquellos que se centren en nichos de mercado específicos o áreas geográficas locales”. 

Según Cristina López, de Channelpartner: 

AWS lidera el mercado con un 29% de cuota
En un mercado que, finalmente, ha superado el hito de obtener unos ingresos trimestrales de 5.000 millones de dólares, incluso en un momento en el que el fortalecimiento del dólar estadounidense está perjudicando el crecimiento de ingresos en las empresas, AWS ocupa claramente la primera posición del ranking de proveedores cloud con una cuota de mercado del 29%.
El gigante IaaS ahora controla ese 29 por ciento del mercado de proveedores de infraestructura de nube, después de haber crecido un 49 por ciento año tras año. Según los resultados del primer trimestre de Amazon, su división de cloud recaudó 1.500 millones de dólares, obteniendo unos beneficios de 265 millones de dólares.  
Microsoft cree merecerse el primer puesto
Con un ritmo de crecimiento año tras año del 96%, Microsoft “cree que puede competir por ocupar el primer lugar de la lista”, explica Synergy. A pesar de esos incrementos interanuales tan elevados, la consultora señala que “esa meta aún se ve lejos de la realización. Pero Microsoft, aunque no está pisándole los talones a Amazon, es sin duda el que más se separa del resto de la manada”. Gracias a Microsoft Azure, la multinacional de Redmond ganó 600 millones de dólares en concepto de ingresos el último trimestre.  
IBM gana 400 millones de dólares por trimestre
En el último trimestre, IBM registró 400 millones de dólares en ingresos procedentes de su nube pública SoftLayer, su plataforma como servicio Bluemix y sus ofertas de nube privada gestionadas por el gigante azul. Los crecimientos conjuntos de sus empresas supusieron un incremento del 56% año a año, lo que coloca a la multinacional en la tercera posición de la lista de Synergy.  
Google avanza a buen ritmo
El buscador ha sido el último de los cinco actores en entrar en el negocio del cloud hosting, pero ya ocupa el cuarto puesto en el mercado de infraestructura y plataformas cloud.
Google sigue contando con la mitad del mercado de Microsoft, con 300 millones de dólares de facturación  por sus servicios de App Engine y Compute Engine, pero destaca por su elevado ritmo de crecimiento que es de un 74% año a año, según Synergy “será quien pueda ponerse a la altura de Amazon más rápido que nadie que no sea Microsoft”.
IBM podría escalar posiciones si se incluyera en la clasificación de Synergy la parte de hardware asociada a cloud y a los fabricantes de software, así como a proveedores de servicios profesionales.
La quinta posición de Salesforce
Synergy reconoce la quinta posición de Salesforce, pero también aclara que el estudio arriba reseñado sólo compara los servicios de infraestructura de nube y de plataforma como servicio, además de nubes privadas e híbridas, pero no recoge datos sobre el negocio del software como servicio, en lo que Salesforce es potente.
La empresa especializada en la gestión de relaciones con los clientes, incluso más allá de su producto estrella, se movió en los 200 millones de dólares en ingresos en el último trimestre. Según Synergy, Salesforce ya no es el líder dominante en PaaS, pero su plataforma Salesforce1, que combina Heroku con Force.com, todavía se mantiene como un negocio innovador en un grupo selecto de proveedores.

viernes, junio 05, 2015

Subiendo al Cloud...

Llevo ya varios años involucrado en el negocio Cloud, y es curioso ver como poco a poco se va acelerando su despliegue: Pocos CIOs ya se cuestionan su viabilidad, aunque... ¿Sirve para todo? Pues sí y no. Depende de lo que se quiera hacer y dónde, y el cómo es fundamental.
Es bueno recordar que el camino siempre pasa por virtualizar, y que el concepto de la virtualización, en el fondo, es aprovechar al máximo un hardware que en el pasado sólo se usaba menos del 10-15%. Así, gente como VMware, vio la oportunidad de desarrollar una capa de software que presentara a las nuevas máquinas virtuales un interface de hardware virtual. Este nuevo layer o capa hipervisor, es lo que establece con unos SLAs y reservas de elementos físicos (CPU, memoria), la calidad de la virtualización. Muchos de los entornos Cloud actuales no hablan una palabra en sus contratos de garantías de reserva o de sobresuscripciones, y es algo que se debe preguntar siempre.
Otro punto crítico que me llama la atención es la manía de hablar en las características de la conectividad del cloud de un acceso de X Gbps. Esto es como decir que tenemos para llegar a casa una autopista de 6 carriles... Pero compartida. de manera que los atascos existen, y entonces, de Gbps, nada de nada. Para entornos donde el SLA es importante, no se debería usar una conectividad compartida.
También otro tema divertido es la migración. ¿Cuánta información debe subirse? ¿Cuál es la ventana de parada? Empiezan a existir herramientas de migración online que facilitan estas tareas, basadas en la replicación quasi-síncrona (aunque requieren la instalación de agentes).
¿Y qué decir del backup? En los tiempos que corren, un auténtico dolor de cabeza para cualquier administrador de sistemas, con la retención subiendo día a día por requerimientos legales, financieros, etc, y la cantidad de información también. Antes hablábamos de pocos GB... Ahora la unidad son TB... Y subir TB a la red, no es un tema baladí...
Por no extenderme demasiado, tenemos el Disaster Recovery como último punto. Antes, tenías dos alternativas tecnológicas: O el DR basado en el backup de cinta, con RTO y RPO de días, o saltabas a la replicación síncrona de elementos de hardware, carísimos y con restricciones de distancia muy severos, por la naturaleza de dicha replicación. La virtualización nos ha traído nuevas estrategias basadas en snapshots o en replicación quasi-síncrona, etc. que simplifican mucho la construcción de un centro de recuperación de desastres y, sobre todo, su coste y operativa. Sin embargo, es bueno pensar en cosas como el failback (volver a la situación inicial) o en que no todo debe ser susceptible de réplica, por lo que el uso de varias tecnologías no solo es recomendable, sino necesario.
Finalmente, lo cierto es que durante estos 3 últimos años ha cambiado la fisonomía de lo que es un Datacenter. Ya nada será lo mismo, gracias (o por culpa) de la virtualización y el Cloud. Y la industria IT, también. El canal de distribución está pivotando desde la distribución física de cajas a la de servicios virtuales. Y esto, es motivo de otro artículo... Porque se avecinan cambios...

miércoles, marzo 18, 2015

Tu trabajo - muy inspirador

He leido este post y me ha gustado mucho. Lo transcribo y comento aquí para vuestra reflexión y deleite, creo que está muy bien!
Tu puesto de trabajo no es el trabajo. Lo que hagas desde tu corazón y tu alma es tu trabajo.
Tu no eres el cargo que indica tu tarjeta de visita. Eso es algo anecdótico, y a veces, incomprensible (anda que no hay cargos y estructuras empresariales complejas). Tu eres aquello en lo que pones tu energía y compromiso, y ahí es dónde existe una oportunidad de marcar una diferencia y de hacer una contribución que el mercado y tus colegas puedan reconocerte. Esa vocación (o pasión!!) es la que hay que escuchar y dar forma, hay que empaquetarla bien y ponerla en valor para que el mercado la reconozca y la compre. Lo que decía el director de orquesta argentino Ángel Mahler: "El talento tiene que ver con el placer, y el verdadero placer es hacer lo que amas". Entonces, sólo hay una oportunidad para dejar huella...