martes, octubre 25, 2016

Internet es el futuro del mundo rural

¿Quién no se ha planteado instalarse en un pueblo a vivir, después de pasar unos días en él y tener que pasar por el mal trago de retornar a la ciudad? Lo cierto es que a mucha gente le gustaría hacerlo, pero poca tiene el coraje y la iniciativa de tirar adelante con este cambio vital.
Las razones son muchas, pero la mayoría de ellas, poco a poco, van cayendo gracias a internet. Nada impide ya que, viviendo en un pueblo, estemos igual o mejor informados que un urbanita. Y formados también, porque gracias a la educación y los cursos online, estar a la última en nuestra profesión o incluso aprender otras, está al alcance de un click. Debo decir que, cocino, gracias a internet. Y la mayor parte de las cosas que sé del campo, es gracias a internet también, no porque me las haya explicado algún abuelo, a la sombre de una encina.
Pero hay más... Hay emprendedores, como el caso que explicaré ahora, que han elegido un pueblo, su pueblo, para poner en marcha sus negocios. Es el caso de "Aceros de Hispania" o de Tiendatinta. Y mas casos... Se habla del Silicon Valley de "Aragón", aunque a mí, me parece mejor una reinterpretación del mundo rural, un buen ejemplo de que se pueden crear puestos de trabajo de alto nivel en un pueblo alejado de la ciudad... Y es que en Castelserás, en el Bajo Aragón, se vende de todo a través de internet. Desde Alfalfa hasta juguetes, pasado por machetes, cosmética o tinta de impresora. Y realizan envíos a decenas de países de todo el mundo (Aceros de Hispania, por ejemplo, a más de 150 países, con 9 empleados y 700K de facturación). Ricardo Lop, propietario desde 1999 de este extraordinario ecommerce, comenta que vende espadas y cuchillos por todo el mundo, con 58K clientes hasta la fecha. Y que no lo cambiaría por nada en el mundo.
Aunque para conseguirlo, es necesario que se mejore el acceso a internet en el mundo rural. Que se disponga de la misma calidad de acceso que en una ciudad, que no sea un lujo disponer de internet de calidad, sino algo habitual. Y para eso, en algunas zonas de España, aún queda trabajo por hacer...

miércoles, mayo 11, 2016

Federación de Datacenters

Como nos decían nuestras abuelas, la fuerza está en la unión de las pequeñas cosas... Y esto es lo que se está aproximando al mundo del Datacenter, como reacción al inexorable crecimiento de necesidad de computación y almacenamiento que hay detrás nuestro estilo de vida digital y el incipiente #IoT (Internet de las cosas). Gartner estima que Los crecimientos de gasto en IT para posibilitar IoT crecerán con dos dígitos hasta culminar con más de ¢235B USD en 2020. Sé que estas cifras no nos dicen mucho, y que son poco significativas en nuestro quehacer diario, pero sí que podemos vislumbrar algunas tendencias que los proveedores de servicios Cloud y Datacenter deberían tener en cuenta para un futuro a la vuelta de la esquina... 

El primero es la necesidad de interconectar más Datacenters. ¿Por qué? Pues sencillo: muchas aplicaciones de IoT son sensibles a la distancia, es decir, a la latencia de las comunicaciones. Si un coche tiene parte de su capacidad computacional en la nube, la velocidad de subida de los datos que recojan sus sensores y la respuesta que indique parte de su inteligencia "Cloud" es crítica para la respuesta y la seguridad de los pasajeros. Y la latencia, como decía, juega un papel CLAVE. Por ello, no bastará sólo en alojar la plataforma de gestión en un buen Datacenter, sino también que ésta vaya cambiando su ubicación, acercándose al cliente para reducir el tiempo de respuesta. Es obvio que las redes de transporte también introducirán retardo y criticidad a determinadas aplicaciones, por ello, se deberá rediseñar el sistema de transporte de los datos desde el sensor a la plataforma (5G ayudará mucho a ello y es uno de sus "drivers" o motivos de desarrollo global).
Otro motivo para federar Datacenters es la necesidad de disponer de gran capacidad de almacenamiento y computación cercana al usuario, por la misma razón anterior: #IoT precisará en sus aplicaciones, no sólo de una baja latencia, sino de una respuesta casi inmediata de los sistemas. Y para ello, deben estar cerca y con capacidad casi infinita distribuida.
Es obvio que la alta disponibilidad de las plataformas hará que éstas estén redundadas para garantizar una altísima resiliencia: nadie entenderá que dos coches choquen por un corte de conectividad en un Datacenter, o que un paciente fallezca porque la aplicación no ha lanzado las alarmas pertinentes por un problema en el contenedor en el que reside la aplicación. 
Finalmente, la seguridad de todo el sistema o plataforma es un punto de altísima criticidad: nadie sabe cómo asegurar un sistema en el que hay miles de puntos de entrada (datos) que fluyen a través de una red pública (obviamente encriptados) a una federación de Datacenters que alojan las aplicaciones. Es un problema de ingeniería fascinante, pero que debe solucionarse para garantizar el despliegue de miles de aplicaciones en todo el planeta que nos harán la vida más fácil.

Conclusión: La Federación de Datacenters (un nombre un poco "StarWars", por cierto) es necesaria, y seguramente una tremenda oportunidad de negocio para Service Providers pequeño-medianos. Veremos cómo evoluciona, pero es seguro que jugará un papel fundamental en este mundo tan cambiante en el que estamos...

lunes, mayo 02, 2016

Datacenter Tier-IV y 2N+1? Aclarando conceptos

Cuando presentas un Datacenter como un lugar para alojar datos críticos de empresa, la primera pregunta es siempre... ¿Qué certificación tiene?¿Es un tier-II, III o IV? La pregunta es lógica, ya que en el fondo, se quiere conocer su disponibilidad de servicio anual (Tier-III es de 99,982% o 3 nueves, mientras que un tier-IV es de 99,991% o 4 nueves). La disponibilidad tiene una componente que controlas, que el tiempo en el que un sistema no presta el servicio para el que se diseñó porque está "en mantenimiento". Este estado no forma parte de las características de un tier-III o IV, y es una de las diferencias fundamentales con los tier-I o II, no hay "maintenance downtime".  
Antes de seguir, es interesante conocer lo que implica añadir "nueves" al porcentaje de disponibilidad. Si "dos nueves" son 3 días, 15 horas, 40 minutos de interrupción anual, "tres nueves" (tier-III) son 8 horas, 46 minutos, "cuatro nueves" (tier-IV) son 52 minutos, 36 segundos, "cinco nueves" 5 minutos, 15 segundos o "seis nueves" tan sólo 32 segundos anuales de no disponibilidad.
Por otro lado, ¿Qué significa disponer de redundancia "N", "N+1", "2N+1", etc.? N es el número de elementos que proporcionan servicio y capacidad. Lo entenderemos mejor con un ejemplo: un almacén de helados. Ahí N sería el número de neveras en los que se almacenan cajas de helados. Tenemos 50 neveras de 20 cajas de capacidad, es decir, capacidad máxima = 1.000 cajas, y N = 50. Si se estropea una nevera, tendremos que trasladar las cajas a otra que no esté llena, pero si no tenemos espacio vacío (100% de capacidad), se estropearán. Así, introducimos en el almacén una nevera vacía como estrategia (N+1) ante esa eventualidad (nevera que falla). También podríamos disponer de toda la infraestructura redundada al 100% (2N), o incluso, la máxima redundancia, 2N+1. Como se ve, a mayor redundancia, más coste (más neveras) ya que hemos ido pasando de 50 neveras (N) a 51 (N+1), de ahí a 100 (2N) o 101 (2N+1). Evidentemente la ocupación es otra variable en el diseño de la disponibilidad del servicio, ya que la capacidad real la dará lo que estimemos prudente ocupar, si el 100% de la capacidad total o la que se diseñe..
Dicho esto, la clasificación de un Datacenter según el Uptime Institute es como sigue:

Características Tier I Tier II Tier III Tier IV
Redundancia N N+1 N+1 2N+1
Número líneas electricas 1 1 1 x Activo / 1 x Pasivo 2 Activas
Personal Permanente Ninguno 1 solo turno 1 por cada turno 24 x 7 x 365
Puntos únicos de fallo Muchos Muchos Algunos Sólo por incendio o fallo humano
Tolerancia a fallos no planificados No No No Si
Interrupción servicio por mantenimiento anual 2 de mas de 12 horas 1.5 de más de 12 horas 0 0
Interrupción anual de servicio 2 cortes de más de 4 horas 1 corte de más de 4 horas 0 cortes de más de 4 horas 0 cortes de más de 4 horas
Tiempo anual de servicio de mantenimiento 28.8 horas 22 horas 1.6 horas 0.8 horas
Disponibilidad del Servicio 99,671% 99,749% 99,982% 99,991%

lunes, abril 25, 2016

Nos quedamos sin ingenieros????

España, sin ingenieros para la cuarta revolución industrial... Ese es el titular. Las matrículas han descendido un alarmante 25%, y articulistas de muchos medios de comunicación alertan contra este fenómeno. Como ejemplo este análisis de ABC: http://www.abc.es/sociedad/abci-educacion-espana-sin-ingenieros-para-cuarta-revolucion-industrial-201604250803_noticia.html
La falta de motivación de los estudiantes para elegir disciplinas STEM (acrónimo de las siglas de Science, Technology, Engineering and Mathematics), aunque sean las más
demandadas a nivel laboral, es un problema identificado desde hace años por el Ministerio de Educación, que ya alertaba de ello en su informe sobre el curso 2012-2013. En ese trabajo se decía entonces que "uno de los problemas importantes es la pérdida de estudiantes universitarios en la rama de Ciencias, en los últimos diez años se ha reducido el 27,3% y el 8,8% en los últimos veinte años. Es claramente una rama que está perdiendo vocaciones".
Ya podemos ir espabilando y despertando interés por la Ingeniería y la Ciencia en edades más tempranas o nos quedaremos a la cola de la Innovación del mundo... Y creo que hay que empezar desde el Colegio, desde pequeñitos. Soy de los que piensan que si no tienes interés en "destripar" cualquier trasto que no funciona para arreglarlo (destornillador en mano), no vales para ingeniero... ¿Qué pensáis? ¿Ideas?

miércoles, noviembre 11, 2015

Amazon lo quiere todo: Amazon IOT

Asistí la semana pasada al evento de Amazon Web Services en Barcelona, y me quedé francamente sorprendido con lo que se presentó allí. Hubo anuncios sobre nuevas herramientas de gestión (Amazon Cloudwatch Dashboards o las nuevas AWS config rules), seguridad (amazon WS WAF y Amazon Inspector), análisis y Big Data (Amazon Quicksight), Bases de datos (múltiples anuncios), la disponibilidad de Hosts dedicados (algo realmente innovador en Amazon), las nuevas instaciones X1 (pensadas para SAP HANA), el servicio de carga de datos (con un appliance Snowball) o el rompedor AWS Lambda, para automatización de tareas en los entornos de computación (basado en Python). Pero lo que más me sorprendió, con diferencia, fue la nueva arquitectura AWS IOT (Internet of Things), que permitirá la construcción y despliegue rápido de redes sensorizadas de "cosas", que recogerán datos, los procesarán y tomarán decisiones (algunas basadas en Lambda) con un coste de infraestructura ridículo, y con capacidad de gestionar millones de dispositivos y de mensajes generados por estos.

AWS IOT permite recibir mensajes en formato HTTP 1.1 y MQTT (protocolo de comunicación ligero diseñado para mensajes cortos y conexiones intermitentes) a través del dispositivo virtual AWS Device Gateway.
El motor de reglas permite compilar aplicaciones IoT para recabar, procesar, analizar y utilizar datos generados por dispositivos conectados a escala global sin tener que administrar ninguna infraestructura. El motor de reglas evalúa los mensajes entrantes publicados en AWS IoT y los transforma y entrega en otro dispositivo o en un servicio de la nube, conforme a las reglas empresariales establecidas. Una regla se puede aplicar a los datos de uno o varios dispositivos, y puede ejecutar una o varias acciones en paralelo.

Puede crear reglas en la consola de administración o escribirlas con una sintaxis tipo SQL. Las reglas se pueden crear de tal forma que se comporten de manera distinta, en función del contenido del mensaje. Por ejemplo, si una lectura de temperatura excede un umbral determinado, podría activar una regla para transmitir datos a AWS Lambda. Las reglas también se pueden crear para que tengan en cuenta otros datos en la nube, como los datos de otros dispositivos. Por ejemplo, puede dictar que se ejecute una acción si la temperatura es superior al 15% de la media de otros cinco dispositivos.

El motor de reglas ofrece docenas de funciones disponibles que pueden utilizarse para transformar los datos, y se pueden crear más de manera indefinida a través de AWS Lambda. Por ejemplo, si va a trabajar con un amplio abanico de valores, podría calcular la media de los números entrantes. Las reglas también pueden activar la ejecución de código Java, Node.js o Python en AWS Lambda, aportándole máxima flexibilidad y potencia para procesar los datos de los dispositivos.

Los costes parecen muy razonables, no hay coste de entrada y el pago es por uso, básicamente de publicación y de envío de mensajes. Se comentaron varios ejemplos, aunque a mi me resultó particularmente útil de los 100 sensores que envían un mensaje de 400 bytes/minuto, que se envían a otro dispositivo y se almacenan en una Base de Datos no SQL (DynamoDB). EL coste mensual sería de 43,00 USD en Europa.

La capa gratuita de AWS IoT permite comenzar con 250 000 mensajes (bloque de datos de 512 bytes) gratuitos (publicados o enviados) al mes durante 12 meses. AWS IoT no cobra por la entrega a los siguientes servicios de AWS: Amazon S3, Amazon DynamoDB, AWS Lambda, Amazon Kinesis, Amazon SNS y Amazon SQS.

Lo cierto es que, al margen de las prestaciones, lo importante es que es una plataforma para desarrolla rápido y a un coste mínimo de todo tipo de aplicaciones IOT, lo que permitirá acelerar la puesta en marcha de muchos proyectos empresariales muy innovadores. Gracias Amazon. Es una beta, pero o dudamos de que pronto será una realidad muy tangible.

Más información en: https://aws.amazon.com/es/iot/


viernes, agosto 28, 2015

El mundo ha cambiado: Es 100% visual

Pues sí. Nuestro mundo ha cambiado. Es totalmente visual. No hay más que ver cómo aprenden y actúan nuestros hijos. Su proceso de solucionar un problema se inicia "googleando" y buscando un tutorial en youtube. Otra forma de ver que todo está cambiando es analizar cómo se divierten y interactúan entre ellos. El material visual forma parte de su vida, y son grandes productores del mismo. Pero muchas cosas siguen sin cambiar y adaptarse a este nuevo paradigma social. Las empresas, por ejemplo, deberían empezar a realizar esfuerzos en cambiar su comunicación, usando herramientas como Pinterest o Instagram combinados con la seriedad y potencia de Linkedin para realzar y reforzar su comunicación e imagen de marca.
Aplicando lo que comentaba al principio, he hallado infinidad de tutorials y "howtodo" en la red, pero me gustaría compartir uno muy interesante de Elena Charameli, de cómo usar Pinterest para potenciar imagen de marca y comunicación en empresa. Son 21 consejos de marketing con Pinterest, en los que se explica cómo aproximarse a esta herramienta tan potente de comunicación.
Podéis encontrar este tutorial aquí: http://aulacm.com/guia-marketing-pinterest/
Para finalizar este breve artículo postvacacional, añado los errores más típicos en el uso de Pinterest: 
  1. No saber para qué sirve Pinterest y pensar que es un canal directo de venta
  2. Usar todos los tableros como si fueran un catálogo de tus productos
  3. No producir material especial para este medio (infografías p.e.), usando el de los catálogos
  4. Menospreciar el poder de los títulos
  5. No usar palabras clave en el título y en la descripción de cada pin
  6. Pinear pinear y no interactuar con la comunidad de usuarios
  7. Abusar de los hashtag
  8. Sólo utilizar imágenes
  9. Colocar los tableros de forma aleatoria
  10. No contestar a las preguntas, peticiones y avisos
  11. No medir tus resultados
Son errores muy habituales al iniciarse, aunque es cierto que se suelen corregir, el método de prueba y error funciona... :-)

miércoles, julio 29, 2015

El negocio del Cloud se concentra cada vez más...

Según Synergie Research Group, en Q2 de 2015 el negocio Cloud se concentró en 5 proveedores (54%): AWS, Microsoft, IBM y Google.
Esta misma cifra ha ido creciendo desde el 41% (2013, Q2), 46% (2014) y 54% (2015), en una evolución que parece imparable. 
Esta misma tendencia no sólo afecta al negocio de IaaS (Infraestructura como servicio, plataformas de de Cloud pública, híbrida y privada), si no a todos los negocios colaterales. Además, el revenue asociado al Cloud ha crecido un 84% (Q2 2015 vs 2014), mientras que el mercado crece a un 33%, hecho que afianza la idea de concentración a un ritmo acelerado mencionado antes.
El mercado IaaS se estima que alcanzará un volumen de 20.000M USD en 2015, la mitad en Norteamérica, seguido de EMEA y APAC.
John Dinsdale, Chief Analyst and Research Director at Synergy Research Group, ha comentado que: “El mercado de servicios de infraestructura cloud se está concentrando muy claramente, con una brecha cada vez mayor entre los cuatro principales proveedores de la nube y el resto de los actores de este mercado.
¿Y cuál es la razón de esta consolidación? Según este analista, “El desarrollo de infraestructura de centros de datos a hiperescala a nivel global y la capacidad de marketing requerido y de soporte para realizar las operaciones necesarias para llegar al usuario está dejando fuera del mercado al resto de competidores, y concentrando el negocio sólo en manos de un pequeño número de jugadores, y esto no va a cambiar”, dice rotundo, al tiempo que deja una puerta a la esperanza para el resto de los actores del mercado cloud, “la buena noticia para la pléyade de proveedores cloud de tamaño medio y pequeño es que hay buenas oportunidades para aquellos que se centren en nichos de mercado específicos o áreas geográficas locales”. 

Según Cristina López, de Channelpartner: 

AWS lidera el mercado con un 29% de cuota
En un mercado que, finalmente, ha superado el hito de obtener unos ingresos trimestrales de 5.000 millones de dólares, incluso en un momento en el que el fortalecimiento del dólar estadounidense está perjudicando el crecimiento de ingresos en las empresas, AWS ocupa claramente la primera posición del ranking de proveedores cloud con una cuota de mercado del 29%.
El gigante IaaS ahora controla ese 29 por ciento del mercado de proveedores de infraestructura de nube, después de haber crecido un 49 por ciento año tras año. Según los resultados del primer trimestre de Amazon, su división de cloud recaudó 1.500 millones de dólares, obteniendo unos beneficios de 265 millones de dólares.  
Microsoft cree merecerse el primer puesto
Con un ritmo de crecimiento año tras año del 96%, Microsoft “cree que puede competir por ocupar el primer lugar de la lista”, explica Synergy. A pesar de esos incrementos interanuales tan elevados, la consultora señala que “esa meta aún se ve lejos de la realización. Pero Microsoft, aunque no está pisándole los talones a Amazon, es sin duda el que más se separa del resto de la manada”. Gracias a Microsoft Azure, la multinacional de Redmond ganó 600 millones de dólares en concepto de ingresos el último trimestre.  
IBM gana 400 millones de dólares por trimestre
En el último trimestre, IBM registró 400 millones de dólares en ingresos procedentes de su nube pública SoftLayer, su plataforma como servicio Bluemix y sus ofertas de nube privada gestionadas por el gigante azul. Los crecimientos conjuntos de sus empresas supusieron un incremento del 56% año a año, lo que coloca a la multinacional en la tercera posición de la lista de Synergy.  
Google avanza a buen ritmo
El buscador ha sido el último de los cinco actores en entrar en el negocio del cloud hosting, pero ya ocupa el cuarto puesto en el mercado de infraestructura y plataformas cloud.
Google sigue contando con la mitad del mercado de Microsoft, con 300 millones de dólares de facturación  por sus servicios de App Engine y Compute Engine, pero destaca por su elevado ritmo de crecimiento que es de un 74% año a año, según Synergy “será quien pueda ponerse a la altura de Amazon más rápido que nadie que no sea Microsoft”.
IBM podría escalar posiciones si se incluyera en la clasificación de Synergy la parte de hardware asociada a cloud y a los fabricantes de software, así como a proveedores de servicios profesionales.
La quinta posición de Salesforce
Synergy reconoce la quinta posición de Salesforce, pero también aclara que el estudio arriba reseñado sólo compara los servicios de infraestructura de nube y de plataforma como servicio, además de nubes privadas e híbridas, pero no recoge datos sobre el negocio del software como servicio, en lo que Salesforce es potente.
La empresa especializada en la gestión de relaciones con los clientes, incluso más allá de su producto estrella, se movió en los 200 millones de dólares en ingresos en el último trimestre. Según Synergy, Salesforce ya no es el líder dominante en PaaS, pero su plataforma Salesforce1, que combina Heroku con Force.com, todavía se mantiene como un negocio innovador en un grupo selecto de proveedores.