martes, junio 13, 2017

Motivation is more important than knowledge for achieving success

The most important ingredient to becoming successful is having motivation, says Apple co-founder Steve Wozniak.
"Having a purpose, motivation — motivation is worth more than knowledge," says Wozniak says, speaking at eMERGE technology conference in Miami, Fla., Monday. Wozniak co-founded Apple with Steve Jobs in 1976.
"You can teach all the right things and that doesn't matter. If somebody is motivated and wants to do something, wanting — it's emotional. That's the person that is probably going to go out and find a way to actually get it done."
The Internet has made it possible for anyone with the willingness to seek information and gain skills, he says. It doesn't require a traditional academic path anymore. 
"You can find so many answers in books but now you don't need books, you've got the Internet, so you just go on and explore. What are some of the resources that I might use? And what have other people done?" says Wozniak.


"A lot of people say, 'Well I have an idea but I don't have tools, I don't have infrastructure, I don't have parts to build something.'


"Well, you should bring that to yourself," he says. " Wherever you are, anywhere in the world, you can order inexpensive kits and parts and — get yourself a Raspberry Pi," says Wozniak, referring to the small, inexpensive computer. "You can do an awful lot of useful things with it."
In particular, Wozniak says he has observed an impressive amount of passion to invent and make things in Latin America and Eastern Europe.
"Young people being inspired to be entrepreneurs is the most important thing for our world, in my mind," says Wozniak. "I am very hopeful because everywhere I go I see so much passion. I think people want to be in this world of developing new products that change our lives."
He also spoke about Hapiness: Steve Wozniak has a formula for happiness, and it doesn't involve money. In fact, he's been using it since before he co-founded Apple: "'Smiles minus frowns' was my original formula when I was about 20 years old," says Wozniak, who appeared on CNBC's Squawk Box on Monday.
The "smiles" part of the equation means doing things that make you happy, following things that make you happy and having a lot of entertainment in your life, Wozniak says.
"Create jokes, create humor everywhere you go," he says. "Pranks are created jokes, for example."
Wozniak says he and Steve Jobs used to pull a lot of pranks back in the day. For example, when they were building "blue boxes," devices which allowed people to make long-distance phone calls for free, Wozniak rang up the Vatican, saying he was Secretary of State Henry Kissinger calling on behalf of President Richard Nixon. And Jobs says it was a high school prank — one in which they rigged a sign that gave the graduating class the finger — that sealed his friendship with Wozniak.
"That keeps you happy," Wozniak tells Squawk Box.
The other part of the formula is just as important: Avoid frowns. "Don't be bothered when things don't go your way," Wozniak explains. "Just think out how to be constructive."
That advice sounds a lot like "Option B" co-author Adam Grant's theory of resilience. "I don't think there's any skill more critical for success," Grant tells CNBC.
"I think about resilience as the speed and strength of your response to adversity. So when you encounter a difficulty, a hardship, a challenge, how quickly and how effectively are you able to marshal strength and either overcome that challenge or persevere in the face of it?"
Wozniak says he's particularly good at this: "Don't waste your time blaming people and being all upset, because those feelings destroy your psychology."
Interesting... More on: http://emergeamericas.com/es/speaker/steve-wozniak/ 

miércoles, junio 07, 2017

La evolución del gasto en IT

Las empresas dependen 100% de la tecnología. La transformación digital en la que están inmersas, hace que sus operaciones ya sean tecnológicamente dependientes, por lo que es lógico que el gasto global de IT crezca bastante en los próximos años, tras permanecer estancado durante la crisis.
Así, Gartner nos dice en su estudio publicado el pasado mes de mayo, que en 2016 el gasto mundial creció sólo un 0,4% respecto al año 2015, hasta un total de 3.414 mil millones de USD. Por subsectores, la inversión de las empresas en Datacenter se estancó, el software empresarial creció con fuerza (casi 6%), los dispositivos (PC, portátiles y tabletas, smartphones) no crecieron, los IT Services crecieron también (4%) y las comunicaciones decrecieron un -1,4%. Y... ¿Cuáles son las tendencias que se vislumbran para los próximos 2 años, 2017 y 2018). Pues están claro que las empresas ya no compran servidores, alquilan potencia en el Cloud, por lo que la partida de Datacenter no crecerá mucho (entorno al 1,2% en 2018). Y en este segmento, algunos optarán por la nube publica (con la terna Amazon, Google y Microsoft), pero la mayoría lo harán por las estructuras híbridas, aprovechando su Datacenter privado en parte para las aplicaciones más críticas. Otro subsector que crecerá débilmente es el de los devices o dispositivos físicos (1,7%): Y es que el gasto mundial de PCs, tabletas, smartphones, etc, a pesar de tener una parte interesante del pastel, no crecerá como en años anteriores. Las comunicaciones seguirán con su consolidación: más ancho de banda, menos precio por GB, por lo que el balance es bastante plano: un 1,3%. ¿Dónde se espera, entonces, el crecimiento? Pues en los Servicios IT (4,7% crecimiento en 2018) y en el software empresarial (más del 7%). La transformación digital esta impulsando la integración de sistemas y el despliegue de aplicaciones que convierten cada vez a la empresa actual en el sueño de todo directivo: la empresa en tiempo real, con datos de negocio casi instantáneos como para pilotarla como si fuera un barco, con su timonel. Parece a veces un modelo lejano, pero no lo es: cada vez sabemos más de nuestros clientes, de cómo operamos, e incluso la tecnología nos ha permitido desarrollar modelos de negocio insospechados hace tan sólo 5 años. Por ello, el gasto mundial en TI crece, y crecerá de forma sostenida en los próximos años (1,5% en 2017, 3% en 2018). Somos optimistas: entramos en una nueva era de aplicaciones y sistemas, en los que estar cerca de los clientes sera la clave, como siempre lo ha sido.

lunes, marzo 06, 2017

El ordenador cuántico... Lo cambiará todo

El pasado 23 de febrero, en la "Nit de les telecomunicacions" en Barcelona, nos dio una charla el doctor José Ignacio Latorre, catedrático de física teórica en la UB y profesor en el centro de tecnologías cuánticas de Singapur sobre el futuro computador cuántico. Lo cierto es que nos quedamos todos entre fascinados y estremecidos sobre lo que se nos viene encima. Y como siempre, el problema de una tecnología disruptiva es el uso que le da el ser humano. Y ésta, parece que de saque, será para romper la criptografía actual. Todos los gobiernos están poniendo muchos millones de Euros (y dólares) sobre la mesa para ser los primeros en esta carrera: Rusia, China, USA... Y La EU tiene un programa de 1billon Euros para ello, para no quedarse atrás.
Y hoy nos despertamos con la siguiente noticia de IBM, en "El País"... Permanezcamos atentos. Como dijo el profesor Latorre, el tema no es cuándo, que será en 2017, sino quién será el primero:

IBM prepara el primer ordenador cuántico universal

6/3/2017. El País.

La máquina podría resolver problemas que los ordenadores convencionales ni pueden plantearse

La promesa de la computación cuántica está más cerca de cumplirse. IBM ha anunciado que comienza a construir los primeros ordenadores cuánticos universales. Aunque no hay fecha para su disponibilidad comercial, el veterano fabricante informático asegura que sus IBM Q superarán en velocidad y capacidad de cálculo a las supercomputadoras actuales más potentes y de largo.
Con la computación cuántica hay que hacer casi como con la física cuántica: resetear el cerebro y arrinconar las nociones de física clásica. A nivel subatómico, las partículas tienen una serie de extrañas propiedades que escapan a la lógica convencional. La que más interés tiene para la informática es la superposición cuántica, la capacidad que tiene un electrón, por ejemplo, de tener varios estados de forma simultánea. Mientras los bits convencionales, la base de la informática actual, operan la información en dos estados alternativos (ceros o unos, encendido o apagado). Los segundos pueden además presentar ambos valores a la vez. La consecuencia práctica es que, mientras la suma de más bits a una máquina aumenta linealmente su capacidad de gestionar la información, la suma de más qubits la eleva de forma exponencial. "Los ordenadores clásicos son extraordinariamente potentes y seguirán mejorando y sustentando todo lo que hacemos en los negocios y la sociedad. Pero hay muchos problemas con los que nunca podrá enfrentarse un ordenador clásico", decía el vicepresidente de IBM Systems, Tom Rosamilia, durante la presentación del plan para construir los IBM Q. "Para obtener conocimiento desde lo más complejo, necesitamos un ordenador cuántico", añade. El objetivo de IBM es desarrollar un ordenador cuántico con 50 qubits en una primera fase. Aseguran que una máquina así superaría en rendimiento a las mejores supercomputadoras de la lista Top500. Aunque IBM no ha dado fechas de cuando estarán disponibles los primeros IBM Q, no se podrán comprar en las tiendas. Estas máquinas no están pensadas para procesar textos o jugar. Solo grandes corporaciones o centros de investigación pueden sacarle partido. Además, los qubits son muy delicados. Como le sucede a otras partículas, la menor perturbación térmica o electromagnética puede alterar su estado, provocando errores. Por eso los qubits se mantienen a temperaturas cercanas al cero absoluto. Esto hace aún más impracticable la idea de comercializar las máquinas directamente.La idea de IBM es ofrecer los Q como servicio a través de su red de cloud computing, o informática en la nube. Para ello aprovechará el proyecto IBM Quantum Experience, una plataforma estrenada el año pasado sobre un procesador de cinco qubits. Abierta a expertos e investigadores, ha permitido a IBM probar su enfoque de lo que debe ser la informática cuántica.
Y es que IBM no es la única que persigue el sueño cuántico. También lo buscan Microsoft o Google, y cada una con un enfoque diferente. De hecho, ya se pueden comprar ordenadores cuánticos por unos cuantos millones de dólares. Son los D-Wave que fabrica la compañía canadiense del mismo nombre. En enero de este año anunciaron la disponibilidad de su D-Wave 2000Q. La cifra se refiere a los 2.000 qubits que tiene la máquina bajo un complejo sistema de refrigeración.
Pero los 2.000 qubits de D-Wave no son necesariamente más que los 50 qubits de IBM. Es otra las extrañezas de la informática cuántica. Las computadoras canadienses usan un método llamado temple cuántico que, aunque ha facilitado su desarrollo, las limita a tareas muy específicas. Google, por ejemplo, compró una D-Wave para explorar el uso de la inteligencia artificial en las búsquedas.
-->
Por eso IBM ha destacado en su presentación el apellido universal de sus IBM Q. No parece probable que sean algún día máquinas de propósito general como lo son los actuales ordenadores. De hecho, tampoco lo pretenden. Y si no, esta es la lista de posibles aplicaciones que IBM imagina para sus Q: descubrimiento de nuevos fármacos y materiales, impulsar el aprendizaje de las máquinas para la inteligencia artificial o asegurar los datos que viajan por las redes aprovechando las rarezas de la física cuántica.

martes, octubre 25, 2016

Internet es el futuro del mundo rural

¿Quién no se ha planteado instalarse en un pueblo a vivir, después de pasar unos días en él y tener que pasar por el mal trago de retornar a la ciudad? Lo cierto es que a mucha gente le gustaría hacerlo, pero poca tiene el coraje y la iniciativa de tirar adelante con este cambio vital.
Las razones son muchas, pero la mayoría de ellas, poco a poco, van cayendo gracias a internet. Nada impide ya que, viviendo en un pueblo, estemos igual o mejor informados que un urbanita. Y formados también, porque gracias a la educación y los cursos online, estar a la última en nuestra profesión o incluso aprender otras, está al alcance de un click. Debo decir que, cocino, gracias a internet. Y la mayor parte de las cosas que sé del campo, es gracias a internet también, no porque me las haya explicado algún abuelo, a la sombre de una encina.
Pero hay más... Hay emprendedores, como el caso que explicaré ahora, que han elegido un pueblo, su pueblo, para poner en marcha sus negocios. Es el caso de "Aceros de Hispania" o de Tiendatinta. Y mas casos... Se habla del Silicon Valley de "Aragón", aunque a mí, me parece mejor una reinterpretación del mundo rural, un buen ejemplo de que se pueden crear puestos de trabajo de alto nivel en un pueblo alejado de la ciudad... Y es que en Castelserás, en el Bajo Aragón, se vende de todo a través de internet. Desde Alfalfa hasta juguetes, pasado por machetes, cosmética o tinta de impresora. Y realizan envíos a decenas de países de todo el mundo (Aceros de Hispania, por ejemplo, a más de 150 países, con 9 empleados y 700K de facturación). Ricardo Lop, propietario desde 1999 de este extraordinario ecommerce, comenta que vende espadas y cuchillos por todo el mundo, con 58K clientes hasta la fecha. Y que no lo cambiaría por nada en el mundo.
Aunque para conseguirlo, es necesario que se mejore el acceso a internet en el mundo rural. Que se disponga de la misma calidad de acceso que en una ciudad, que no sea un lujo disponer de internet de calidad, sino algo habitual. Y para eso, en algunas zonas de España, aún queda trabajo por hacer...

miércoles, mayo 11, 2016

Federación de Datacenters

Como nos decían nuestras abuelas, la fuerza está en la unión de las pequeñas cosas... Y esto es lo que se está aproximando al mundo del Datacenter, como reacción al inexorable crecimiento de necesidad de computación y almacenamiento que hay detrás nuestro estilo de vida digital y el incipiente #IoT (Internet de las cosas). Gartner estima que Los crecimientos de gasto en IT para posibilitar IoT crecerán con dos dígitos hasta culminar con más de ¢235B USD en 2020. Sé que estas cifras no nos dicen mucho, y que son poco significativas en nuestro quehacer diario, pero sí que podemos vislumbrar algunas tendencias que los proveedores de servicios Cloud y Datacenter deberían tener en cuenta para un futuro a la vuelta de la esquina... 

El primero es la necesidad de interconectar más Datacenters. ¿Por qué? Pues sencillo: muchas aplicaciones de IoT son sensibles a la distancia, es decir, a la latencia de las comunicaciones. Si un coche tiene parte de su capacidad computacional en la nube, la velocidad de subida de los datos que recojan sus sensores y la respuesta que indique parte de su inteligencia "Cloud" es crítica para la respuesta y la seguridad de los pasajeros. Y la latencia, como decía, juega un papel CLAVE. Por ello, no bastará sólo en alojar la plataforma de gestión en un buen Datacenter, sino también que ésta vaya cambiando su ubicación, acercándose al cliente para reducir el tiempo de respuesta. Es obvio que las redes de transporte también introducirán retardo y criticidad a determinadas aplicaciones, por ello, se deberá rediseñar el sistema de transporte de los datos desde el sensor a la plataforma (5G ayudará mucho a ello y es uno de sus "drivers" o motivos de desarrollo global).
Otro motivo para federar Datacenters es la necesidad de disponer de gran capacidad de almacenamiento y computación cercana al usuario, por la misma razón anterior: #IoT precisará en sus aplicaciones, no sólo de una baja latencia, sino de una respuesta casi inmediata de los sistemas. Y para ello, deben estar cerca y con capacidad casi infinita distribuida.
Es obvio que la alta disponibilidad de las plataformas hará que éstas estén redundadas para garantizar una altísima resiliencia: nadie entenderá que dos coches choquen por un corte de conectividad en un Datacenter, o que un paciente fallezca porque la aplicación no ha lanzado las alarmas pertinentes por un problema en el contenedor en el que reside la aplicación. 
Finalmente, la seguridad de todo el sistema o plataforma es un punto de altísima criticidad: nadie sabe cómo asegurar un sistema en el que hay miles de puntos de entrada (datos) que fluyen a través de una red pública (obviamente encriptados) a una federación de Datacenters que alojan las aplicaciones. Es un problema de ingeniería fascinante, pero que debe solucionarse para garantizar el despliegue de miles de aplicaciones en todo el planeta que nos harán la vida más fácil.

Conclusión: La Federación de Datacenters (un nombre un poco "StarWars", por cierto) es necesaria, y seguramente una tremenda oportunidad de negocio para Service Providers pequeño-medianos. Veremos cómo evoluciona, pero es seguro que jugará un papel fundamental en este mundo tan cambiante en el que estamos...

lunes, mayo 02, 2016

Datacenter Tier-IV y 2N+1? Aclarando conceptos

Cuando presentas un Datacenter como un lugar para alojar datos críticos de empresa, la primera pregunta es siempre... ¿Qué certificación tiene?¿Es un tier-II, III o IV? La pregunta es lógica, ya que en el fondo, se quiere conocer su disponibilidad de servicio anual (Tier-III es de 99,982% o 3 nueves, mientras que un tier-IV es de 99,991% o 4 nueves). La disponibilidad tiene una componente que controlas, que el tiempo en el que un sistema no presta el servicio para el que se diseñó porque está "en mantenimiento". Este estado no forma parte de las características de un tier-III o IV, y es una de las diferencias fundamentales con los tier-I o II, no hay "maintenance downtime".  
Antes de seguir, es interesante conocer lo que implica añadir "nueves" al porcentaje de disponibilidad. Si "dos nueves" son 3 días, 15 horas, 40 minutos de interrupción anual, "tres nueves" (tier-III) son 8 horas, 46 minutos, "cuatro nueves" (tier-IV) son 52 minutos, 36 segundos, "cinco nueves" 5 minutos, 15 segundos o "seis nueves" tan sólo 32 segundos anuales de no disponibilidad.
Por otro lado, ¿Qué significa disponer de redundancia "N", "N+1", "2N+1", etc.? N es el número de elementos que proporcionan servicio y capacidad. Lo entenderemos mejor con un ejemplo: un almacén de helados. Ahí N sería el número de neveras en los que se almacenan cajas de helados. Tenemos 50 neveras de 20 cajas de capacidad, es decir, capacidad máxima = 1.000 cajas, y N = 50. Si se estropea una nevera, tendremos que trasladar las cajas a otra que no esté llena, pero si no tenemos espacio vacío (100% de capacidad), se estropearán. Así, introducimos en el almacén una nevera vacía como estrategia (N+1) ante esa eventualidad (nevera que falla). También podríamos disponer de toda la infraestructura redundada al 100% (2N), o incluso, la máxima redundancia, 2N+1. Como se ve, a mayor redundancia, más coste (más neveras) ya que hemos ido pasando de 50 neveras (N) a 51 (N+1), de ahí a 100 (2N) o 101 (2N+1). Evidentemente la ocupación es otra variable en el diseño de la disponibilidad del servicio, ya que la capacidad real la dará lo que estimemos prudente ocupar, si el 100% de la capacidad total o la que se diseñe..
Dicho esto, la clasificación de un Datacenter según el Uptime Institute es como sigue:

Características Tier I Tier II Tier III Tier IV
Redundancia N N+1 N+1 2N+1
Número líneas electricas 1 1 1 x Activo / 1 x Pasivo 2 Activas
Personal Permanente Ninguno 1 solo turno 1 por cada turno 24 x 7 x 365
Puntos únicos de fallo Muchos Muchos Algunos Sólo por incendio o fallo humano
Tolerancia a fallos no planificados No No No Si
Interrupción servicio por mantenimiento anual 2 de mas de 12 horas 1.5 de más de 12 horas 0 0
Interrupción anual de servicio 2 cortes de más de 4 horas 1 corte de más de 4 horas 0 cortes de más de 4 horas 0 cortes de más de 4 horas
Tiempo anual de servicio de mantenimiento 28.8 horas 22 horas 1.6 horas 0.8 horas
Disponibilidad del Servicio 99,671% 99,749% 99,982% 99,991%

lunes, abril 25, 2016

Nos quedamos sin ingenieros????

España, sin ingenieros para la cuarta revolución industrial... Ese es el titular. Las matrículas han descendido un alarmante 25%, y articulistas de muchos medios de comunicación alertan contra este fenómeno. Como ejemplo este análisis de ABC: http://www.abc.es/sociedad/abci-educacion-espana-sin-ingenieros-para-cuarta-revolucion-industrial-201604250803_noticia.html
La falta de motivación de los estudiantes para elegir disciplinas STEM (acrónimo de las siglas de Science, Technology, Engineering and Mathematics), aunque sean las más
demandadas a nivel laboral, es un problema identificado desde hace años por el Ministerio de Educación, que ya alertaba de ello en su informe sobre el curso 2012-2013. En ese trabajo se decía entonces que "uno de los problemas importantes es la pérdida de estudiantes universitarios en la rama de Ciencias, en los últimos diez años se ha reducido el 27,3% y el 8,8% en los últimos veinte años. Es claramente una rama que está perdiendo vocaciones".
Ya podemos ir espabilando y despertando interés por la Ingeniería y la Ciencia en edades más tempranas o nos quedaremos a la cola de la Innovación del mundo... Y creo que hay que empezar desde el Colegio, desde pequeñitos. Soy de los que piensan que si no tienes interés en "destripar" cualquier trasto que no funciona para arreglarlo (destornillador en mano), no vales para ingeniero... ¿Qué pensáis? ¿Ideas?

miércoles, noviembre 11, 2015

Amazon lo quiere todo: Amazon IOT

Asistí la semana pasada al evento de Amazon Web Services en Barcelona, y me quedé francamente sorprendido con lo que se presentó allí. Hubo anuncios sobre nuevas herramientas de gestión (Amazon Cloudwatch Dashboards o las nuevas AWS config rules), seguridad (amazon WS WAF y Amazon Inspector), análisis y Big Data (Amazon Quicksight), Bases de datos (múltiples anuncios), la disponibilidad de Hosts dedicados (algo realmente innovador en Amazon), las nuevas instaciones X1 (pensadas para SAP HANA), el servicio de carga de datos (con un appliance Snowball) o el rompedor AWS Lambda, para automatización de tareas en los entornos de computación (basado en Python). Pero lo que más me sorprendió, con diferencia, fue la nueva arquitectura AWS IOT (Internet of Things), que permitirá la construcción y despliegue rápido de redes sensorizadas de "cosas", que recogerán datos, los procesarán y tomarán decisiones (algunas basadas en Lambda) con un coste de infraestructura ridículo, y con capacidad de gestionar millones de dispositivos y de mensajes generados por estos.

AWS IOT permite recibir mensajes en formato HTTP 1.1 y MQTT (protocolo de comunicación ligero diseñado para mensajes cortos y conexiones intermitentes) a través del dispositivo virtual AWS Device Gateway.
El motor de reglas permite compilar aplicaciones IoT para recabar, procesar, analizar y utilizar datos generados por dispositivos conectados a escala global sin tener que administrar ninguna infraestructura. El motor de reglas evalúa los mensajes entrantes publicados en AWS IoT y los transforma y entrega en otro dispositivo o en un servicio de la nube, conforme a las reglas empresariales establecidas. Una regla se puede aplicar a los datos de uno o varios dispositivos, y puede ejecutar una o varias acciones en paralelo.

Puede crear reglas en la consola de administración o escribirlas con una sintaxis tipo SQL. Las reglas se pueden crear de tal forma que se comporten de manera distinta, en función del contenido del mensaje. Por ejemplo, si una lectura de temperatura excede un umbral determinado, podría activar una regla para transmitir datos a AWS Lambda. Las reglas también se pueden crear para que tengan en cuenta otros datos en la nube, como los datos de otros dispositivos. Por ejemplo, puede dictar que se ejecute una acción si la temperatura es superior al 15% de la media de otros cinco dispositivos.

El motor de reglas ofrece docenas de funciones disponibles que pueden utilizarse para transformar los datos, y se pueden crear más de manera indefinida a través de AWS Lambda. Por ejemplo, si va a trabajar con un amplio abanico de valores, podría calcular la media de los números entrantes. Las reglas también pueden activar la ejecución de código Java, Node.js o Python en AWS Lambda, aportándole máxima flexibilidad y potencia para procesar los datos de los dispositivos.

Los costes parecen muy razonables, no hay coste de entrada y el pago es por uso, básicamente de publicación y de envío de mensajes. Se comentaron varios ejemplos, aunque a mi me resultó particularmente útil de los 100 sensores que envían un mensaje de 400 bytes/minuto, que se envían a otro dispositivo y se almacenan en una Base de Datos no SQL (DynamoDB). EL coste mensual sería de 43,00 USD en Europa.

La capa gratuita de AWS IoT permite comenzar con 250 000 mensajes (bloque de datos de 512 bytes) gratuitos (publicados o enviados) al mes durante 12 meses. AWS IoT no cobra por la entrega a los siguientes servicios de AWS: Amazon S3, Amazon DynamoDB, AWS Lambda, Amazon Kinesis, Amazon SNS y Amazon SQS.

Lo cierto es que, al margen de las prestaciones, lo importante es que es una plataforma para desarrolla rápido y a un coste mínimo de todo tipo de aplicaciones IOT, lo que permitirá acelerar la puesta en marcha de muchos proyectos empresariales muy innovadores. Gracias Amazon. Es una beta, pero o dudamos de que pronto será una realidad muy tangible.

Más información en: https://aws.amazon.com/es/iot/


viernes, agosto 28, 2015

El mundo ha cambiado: Es 100% visual

Pues sí. Nuestro mundo ha cambiado. Es totalmente visual. No hay más que ver cómo aprenden y actúan nuestros hijos. Su proceso de solucionar un problema se inicia "googleando" y buscando un tutorial en youtube. Otra forma de ver que todo está cambiando es analizar cómo se divierten y interactúan entre ellos. El material visual forma parte de su vida, y son grandes productores del mismo. Pero muchas cosas siguen sin cambiar y adaptarse a este nuevo paradigma social. Las empresas, por ejemplo, deberían empezar a realizar esfuerzos en cambiar su comunicación, usando herramientas como Pinterest o Instagram combinados con la seriedad y potencia de Linkedin para realzar y reforzar su comunicación e imagen de marca.
Aplicando lo que comentaba al principio, he hallado infinidad de tutorials y "howtodo" en la red, pero me gustaría compartir uno muy interesante de Elena Charameli, de cómo usar Pinterest para potenciar imagen de marca y comunicación en empresa. Son 21 consejos de marketing con Pinterest, en los que se explica cómo aproximarse a esta herramienta tan potente de comunicación.
Podéis encontrar este tutorial aquí: http://aulacm.com/guia-marketing-pinterest/
Para finalizar este breve artículo postvacacional, añado los errores más típicos en el uso de Pinterest: 
  1. No saber para qué sirve Pinterest y pensar que es un canal directo de venta
  2. Usar todos los tableros como si fueran un catálogo de tus productos
  3. No producir material especial para este medio (infografías p.e.), usando el de los catálogos
  4. Menospreciar el poder de los títulos
  5. No usar palabras clave en el título y en la descripción de cada pin
  6. Pinear pinear y no interactuar con la comunidad de usuarios
  7. Abusar de los hashtag
  8. Sólo utilizar imágenes
  9. Colocar los tableros de forma aleatoria
  10. No contestar a las preguntas, peticiones y avisos
  11. No medir tus resultados
Son errores muy habituales al iniciarse, aunque es cierto que se suelen corregir, el método de prueba y error funciona... :-)

miércoles, julio 29, 2015

El negocio del Cloud se concentra cada vez más...

Según Synergie Research Group, en Q2 de 2015 el negocio Cloud se concentró en 5 proveedores (54%): AWS, Microsoft, IBM y Google.
Esta misma cifra ha ido creciendo desde el 41% (2013, Q2), 46% (2014) y 54% (2015), en una evolución que parece imparable. 
Esta misma tendencia no sólo afecta al negocio de IaaS (Infraestructura como servicio, plataformas de de Cloud pública, híbrida y privada), si no a todos los negocios colaterales. Además, el revenue asociado al Cloud ha crecido un 84% (Q2 2015 vs 2014), mientras que el mercado crece a un 33%, hecho que afianza la idea de concentración a un ritmo acelerado mencionado antes.
El mercado IaaS se estima que alcanzará un volumen de 20.000M USD en 2015, la mitad en Norteamérica, seguido de EMEA y APAC.
John Dinsdale, Chief Analyst and Research Director at Synergy Research Group, ha comentado que: “El mercado de servicios de infraestructura cloud se está concentrando muy claramente, con una brecha cada vez mayor entre los cuatro principales proveedores de la nube y el resto de los actores de este mercado.
¿Y cuál es la razón de esta consolidación? Según este analista, “El desarrollo de infraestructura de centros de datos a hiperescala a nivel global y la capacidad de marketing requerido y de soporte para realizar las operaciones necesarias para llegar al usuario está dejando fuera del mercado al resto de competidores, y concentrando el negocio sólo en manos de un pequeño número de jugadores, y esto no va a cambiar”, dice rotundo, al tiempo que deja una puerta a la esperanza para el resto de los actores del mercado cloud, “la buena noticia para la pléyade de proveedores cloud de tamaño medio y pequeño es que hay buenas oportunidades para aquellos que se centren en nichos de mercado específicos o áreas geográficas locales”. 

Según Cristina López, de Channelpartner: 

AWS lidera el mercado con un 29% de cuota
En un mercado que, finalmente, ha superado el hito de obtener unos ingresos trimestrales de 5.000 millones de dólares, incluso en un momento en el que el fortalecimiento del dólar estadounidense está perjudicando el crecimiento de ingresos en las empresas, AWS ocupa claramente la primera posición del ranking de proveedores cloud con una cuota de mercado del 29%.
El gigante IaaS ahora controla ese 29 por ciento del mercado de proveedores de infraestructura de nube, después de haber crecido un 49 por ciento año tras año. Según los resultados del primer trimestre de Amazon, su división de cloud recaudó 1.500 millones de dólares, obteniendo unos beneficios de 265 millones de dólares.  
Microsoft cree merecerse el primer puesto
Con un ritmo de crecimiento año tras año del 96%, Microsoft “cree que puede competir por ocupar el primer lugar de la lista”, explica Synergy. A pesar de esos incrementos interanuales tan elevados, la consultora señala que “esa meta aún se ve lejos de la realización. Pero Microsoft, aunque no está pisándole los talones a Amazon, es sin duda el que más se separa del resto de la manada”. Gracias a Microsoft Azure, la multinacional de Redmond ganó 600 millones de dólares en concepto de ingresos el último trimestre.  
IBM gana 400 millones de dólares por trimestre
En el último trimestre, IBM registró 400 millones de dólares en ingresos procedentes de su nube pública SoftLayer, su plataforma como servicio Bluemix y sus ofertas de nube privada gestionadas por el gigante azul. Los crecimientos conjuntos de sus empresas supusieron un incremento del 56% año a año, lo que coloca a la multinacional en la tercera posición de la lista de Synergy.  
Google avanza a buen ritmo
El buscador ha sido el último de los cinco actores en entrar en el negocio del cloud hosting, pero ya ocupa el cuarto puesto en el mercado de infraestructura y plataformas cloud.
Google sigue contando con la mitad del mercado de Microsoft, con 300 millones de dólares de facturación  por sus servicios de App Engine y Compute Engine, pero destaca por su elevado ritmo de crecimiento que es de un 74% año a año, según Synergy “será quien pueda ponerse a la altura de Amazon más rápido que nadie que no sea Microsoft”.
IBM podría escalar posiciones si se incluyera en la clasificación de Synergy la parte de hardware asociada a cloud y a los fabricantes de software, así como a proveedores de servicios profesionales.
La quinta posición de Salesforce
Synergy reconoce la quinta posición de Salesforce, pero también aclara que el estudio arriba reseñado sólo compara los servicios de infraestructura de nube y de plataforma como servicio, además de nubes privadas e híbridas, pero no recoge datos sobre el negocio del software como servicio, en lo que Salesforce es potente.
La empresa especializada en la gestión de relaciones con los clientes, incluso más allá de su producto estrella, se movió en los 200 millones de dólares en ingresos en el último trimestre. Según Synergy, Salesforce ya no es el líder dominante en PaaS, pero su plataforma Salesforce1, que combina Heroku con Force.com, todavía se mantiene como un negocio innovador en un grupo selecto de proveedores.

viernes, junio 05, 2015

Subiendo al Cloud...

Llevo ya varios años involucrado en el negocio Cloud, y es curioso ver como poco a poco se va acelerando su despliegue: Pocos CIOs ya se cuestionan su viabilidad, aunque... ¿Sirve para todo? Pues sí y no. Depende de lo que se quiera hacer y dónde, y el cómo es fundamental.
Es bueno recordar que el camino siempre pasa por virtualizar, y que el concepto de la virtualización, en el fondo, es aprovechar al máximo un hardware que en el pasado sólo se usaba menos del 10-15%. Así, gente como VMware, vio la oportunidad de desarrollar una capa de software que presentara a las nuevas máquinas virtuales un interface de hardware virtual. Este nuevo layer o capa hipervisor, es lo que establece con unos SLAs y reservas de elementos físicos (CPU, memoria), la calidad de la virtualización. Muchos de los entornos Cloud actuales no hablan una palabra en sus contratos de garantías de reserva o de sobresuscripciones, y es algo que se debe preguntar siempre.
Otro punto crítico que me llama la atención es la manía de hablar en las características de la conectividad del cloud de un acceso de X Gbps. Esto es como decir que tenemos para llegar a casa una autopista de 6 carriles... Pero compartida. de manera que los atascos existen, y entonces, de Gbps, nada de nada. Para entornos donde el SLA es importante, no se debería usar una conectividad compartida.
También otro tema divertido es la migración. ¿Cuánta información debe subirse? ¿Cuál es la ventana de parada? Empiezan a existir herramientas de migración online que facilitan estas tareas, basadas en la replicación quasi-síncrona (aunque requieren la instalación de agentes).
¿Y qué decir del backup? En los tiempos que corren, un auténtico dolor de cabeza para cualquier administrador de sistemas, con la retención subiendo día a día por requerimientos legales, financieros, etc, y la cantidad de información también. Antes hablábamos de pocos GB... Ahora la unidad son TB... Y subir TB a la red, no es un tema baladí...
Por no extenderme demasiado, tenemos el Disaster Recovery como último punto. Antes, tenías dos alternativas tecnológicas: O el DR basado en el backup de cinta, con RTO y RPO de días, o saltabas a la replicación síncrona de elementos de hardware, carísimos y con restricciones de distancia muy severos, por la naturaleza de dicha replicación. La virtualización nos ha traído nuevas estrategias basadas en snapshots o en replicación quasi-síncrona, etc. que simplifican mucho la construcción de un centro de recuperación de desastres y, sobre todo, su coste y operativa. Sin embargo, es bueno pensar en cosas como el failback (volver a la situación inicial) o en que no todo debe ser susceptible de réplica, por lo que el uso de varias tecnologías no solo es recomendable, sino necesario.
Finalmente, lo cierto es que durante estos 3 últimos años ha cambiado la fisonomía de lo que es un Datacenter. Ya nada será lo mismo, gracias (o por culpa) de la virtualización y el Cloud. Y la industria IT, también. El canal de distribución está pivotando desde la distribución física de cajas a la de servicios virtuales. Y esto, es motivo de otro artículo... Porque se avecinan cambios...

miércoles, marzo 18, 2015

Tu trabajo - muy inspirador

He leido este post y me ha gustado mucho. Lo transcribo y comento aquí para vuestra reflexión y deleite, creo que está muy bien!
Tu puesto de trabajo no es el trabajo. Lo que hagas desde tu corazón y tu alma es tu trabajo.
Tu no eres el cargo que indica tu tarjeta de visita. Eso es algo anecdótico, y a veces, incomprensible (anda que no hay cargos y estructuras empresariales complejas). Tu eres aquello en lo que pones tu energía y compromiso, y ahí es dónde existe una oportunidad de marcar una diferencia y de hacer una contribución que el mercado y tus colegas puedan reconocerte. Esa vocación (o pasión!!) es la que hay que escuchar y dar forma, hay que empaquetarla bien y ponerla en valor para que el mercado la reconozca y la compre. Lo que decía el director de orquesta argentino Ángel Mahler: "El talento tiene que ver con el placer, y el verdadero placer es hacer lo que amas". Entonces, sólo hay una oportunidad para dejar huella... 

martes, febrero 03, 2015

Entrevista: "Cada niño es un genio en algo si le enseñamos a serlo"

Reproduzco a continuación una entrevista publicada en "La Vanguardia" hoy día 3/2/2015, del pedagogo israelí "Yacoov Hecht". En ella habla de que todos tenemos nuestros talentos. Sólo hay que descubrirlos y volcarse en ellos. La educación no puede ser ya "unidireccional", en la que un profesor diserta a un conjunto de alumnos, café para todos. Es ya colaborativa, en la que cada niño, de forma individual, escoge y profundiza en aquellos contenidos que le resultan más apasionantes, alineados con sus capacidades. El esfuerzo también es necesario, para formar el carácter, pero no porque sí, sino motivando e ilusionando. Es el profesor conferenciante vs director de orquesta. Este simil es muy gráfico: en una orquesta, no sólo hay un instrumento, hay muchos y muy diversos. Es labor del director sacar lo mejor de cada miembro, y que el conjunto, además, suene bien. La tecnología es una ayuda también (un buen instrumento, no un fin), y además ayuda a motivar a los chicos.


"Cada niño es un genio en algo si le ayudamos a serlo". 

Yaacov Hecht, pedagogo disléxico; preconiza la educación a medida

De dónde es usted?
De Israel, de Hadera...

¿Me lo deletrea para evitar errores al escribirlo?
Pues mire, no sé deletrearlo.

¿No sabe deletrearlo y es profesor?
Hablo y escribo mal. Y peor aún en inglés.

Tranquilo, aquí pocos lo hablan.

Soy el que peor habla inglés de los asesores del Gobierno. Y de los peores en todo Israel.

Es el primer asesor de gobiernos que me confiesa que habla y escribe mal.
Pues no se fije en lo que hago mal y trate de aprender conmigo de lo que hago bien.

Aquí no asesoría usted a nadie, porque preocupan los malos resultados PISA.
Mi país, Israel, también los saca mediocres en ese test y ojalá los sacara todavía peores.

¡...!
Porque es un test uniformizador que fomenta una escuela que educa para el pasado.

Pues mide competencias en matemáticas o lectura. ¿Ya no servirán en el futuro?
La obsesión PISA lleva a los países a imponer un pensamiento único que educa a los niños para conformarse con ser parte mediocre de las masas sin empleo. Por eso, yo me alegro de que fracasemos en esos tests.

No sé si le sigo.
La escuela piramidal jerarquizada educaba para una sociedad de obreros y soldados obedientes con unas competencias básicas uniformes. El problema es que esa sociedad ya no existe y la nueva necesita otra escuela.

¿Qué propone?
Un día vino a verme al colegio una madre desesperada por las notas de su hijo. Suspendía en todo. Le prometí que hablaría con él.

¿Cuál era el problema?
Me hablaba de asignaturas, pero yo insistí en que me dijera qué le gustaba en la vida.

Está claro que estudiar no era.
Cada niño es un genio en algo si le ayudamos a serlo. Pero si formamos masas de mediocres, todos fracasamos. Yo fracasé, porque la escuela se centraba en lo que yo era malo para convertirme en otro mediocre y no en lo que yo era bueno para mejorarlo.

¿Qué le gustaba, al chico?

El windsurf.

Pues no sé si surfear da para vivir.
Le dije que hiciera windsurf muchos más días. Él respondió que surfearía sólo los días con buen viento y los demás vendría al cole.

Es más razonable.
Le pregunté qué debía aprender para ser windsurfista y razonó bien: geografía, cartografía, matemáticas para calcular vientos y velocidades, e inglés, la lengua surfera.

Un programa educativo completo.

Y Gal Fridman estudió y surfeó hasta ganar el primer -y único- oro olímpico de la historia de Israel. Como Sarit Hadad, a la que convencimos de que se dedicara más a cantar, y hoy es una de nuestras mejores voces.

La economía no funciona con medallas.

Israel tiene una economía de la innovación donde cada uno coopera en red con sus habilidades, porque la pirámide empresarial de células huecas, donde el conocimiento fluye a través de ellas de arriba abajo mientras ellas compiten por ascender sin aportar valor a la empresa, ya no genera riqueza.

Israel también tiene otros problemas.
La escuela democrática educaría a palestinos e israelíes para cooperar sin conflicto.

Necesitamos saberes básicos comunes.

¿Qué le piden hoy en una empresa puntera? Ni notas ni títulos: quieren que les diga qué sabe hacer y cómo lo ha aprendido; en qué es usted genial y qué hace mejor que nadie.

¿Por qué importa cómo he aprendido?
Porque revela si será usted capaz de seguir aprendiendo por su cuenta para estar siempre en vanguardia. Las empresas ya no son pirámides sino redes de células con conocimiento propio, que no compiten, sino que se comunican, cooperan y crean en línea.

Aquí aún nos falta para llegar a eso.
Pero PISA nos educa para el pasado de la escuela piramidal y no para el futuro de la innovación en red. No prepara para el autoempleo sino para el paro. Hoy cada niño tiene que llegar a desarrollar su talento único que le integrará en la red del conocimiento.

Corea y Finlandia sacan buenos resultados PISA y son economías florecientes.

Estuve en Corea asesorando al Gobierno sobre el suicidio escolar, su problema nacional. En Finlandia ya no educan masas. Lo que buscan es precisamente diversidad: originalidad en cada alumno, formar ciudadanos únicos como fineses y como personas.

¿Ya no necesitamos saberes comunes?

Educarse no es sentarse desde los 4 a los 25 años ante un profesor que te suelta el rollo.

Yo lo hice y he sobrevivido.
Esa educación conduce al paro; en cambio, la del talento forma para el autoempleo y la innovación y para colaborar así en red con otros ciudadanos singulares.

Aprender requiere disciplina, esfuerzo, sacrificio, paciencia, memorización...

¿Quiere usted ser un periodista más o ser único?

¿...?
Encuentre la cualidad que le hace diferente y cultívela. No compita con todos los periodistas en los mismos campos, porque es el camino a la medianía. Nuestra escuela democrática forma personas únicas.

jueves, enero 22, 2015

Diferencias entre un servicio VDI y un "Terminal Service".


A veces es un poco confuso y la literatura y los fabricantes no ayudan a distinguir, y la verdad es que en algún caso se mezclan las funcionalidades de un servicio VDI (Virtual Desktop Interface) y otro de "Terminal Server". 
He encontrado este artículo en TechTarget, de Brien Posey, que me ha parecido muy clarificador. Os lo adjunto:

What is the difference between VDI vs. Terminal Services?

There are many differences between VDI vs. Terminal Services, but they can all be summed up as differences between operating systems and how sessions are handled.

Windows Terminal Services -- now called Remote Desktop Services (RDS) in Windows Server 2008 and up -- was Microsoft's early attempt at creating an environment where users were not dependent on the local desktop. Users connect to a session by way of a Remote Desktop Protocol (RDP)-based client, the same way they do in virtual desktop infrastructure (VDI). The similarities between the two environments end there, however.

In a Terminal Services environment, the user sessions are based on Windows Server instances. As such, the sessions become the isolation boundary between one user and another. Users actually work within a Windows Server operating system rather than a desktop operating system, such as Windows 7. In some cases, this can be problematic, because not all applications will run properly (or at all) on a Windows Server OS.

VDI works differently. You can base VDI images on Windows Server if you want to, but that's not the only component at work. Instead, users connect to a connection broker that links the user session to a virtual machine running on top of a hypervisor. This virtual machine typically runs a Windows desktop operating system, such as Windows 7 or 8.

VDI environments tend to be more complex than Terminal Services environments. Despite the added complexity, many administrators prefer VDI to Terminal Services because VDI allows the user to work in a familiar desktop OS, and because VDI tends to be a less susceptible to application compatibility issues.