Ciudades Inteligentes en la era de ‘la nube’

Cloud Server

En los últimos meses, los movimientos de grandes compañías como Google, Amazon o Microsoft se han dirigido hacia el ‘cloud’ de un modo determinante para sus negocios, confirmando una estrategia existente o definiendo nuevas políticas empresariales


Las tecnologías de la información son uno de los pilares fundamentales de las ciudades inteligentes. Sin las redes de comunicaciones o la capacidad de procesamiento de los centros de datos, aún estaríamos anclados a los PC de sobremesa, y fenómenos como las redes móviles o Internet no existirían.

Pero con todo lo recientes que son estos avances tecnológicos (Internet comenzó su andadura en los años 60), a día de hoy hemos adquirido una dependencia notable de los mismos, en parte al haber construido sobre esta base tecnológica una parte importante de nuestra sociedad. La sanidad, la educación, la ciencia, la economía e incluso las relaciones sociales dependen en gran medida de la tecnología. Incluso quienes manifiestan su descontento hacia ella, acaban por depender de servicios e infraestructuras que no serían posibles de no ser por el desarrollo de las TIC.

 

Usuarios de internet

 

Tecnología 3.0. Del procesador a la nube, pasando por Internet 

De un modo planeado, o arrastrados por la sucesión de avances tecnológicos sustentados por la Ley de Moore y el perfeccionamiento en los procesos electrónicos, la última década ha sido única en cuanto a rapidez y relevancia en el avance de tecnologías como los microprocesadores, los sistemas de almacenamiento, las redes de comunicaciones o el desarrollo de software: los móviles de hoy en día tienen más capacidad de procesamiento que un PC de hace una década; los portátiles tienen más potencia que un superordenador de hace unas décadas; o una cámara de fotos tiene más capacidad de almacenamiento que un mainframe. Se mire por donde se mire, las estadísticas son apabullantes.

El proceso de innovación en el campo de la tecnología no ha sido totalmente lineal ni planeado. Sin ir más lejos, estamos en medio de una especie de viaje de vuelta: en un primer momento, los mainframes instalados en los centros de cálculo y computación de las empresas y universidades eran la referencia en cuanto a procesamiento de información. Primero con fichas perforadas, luego con sistemas de entrada de datos y almacenamiento en sistemas con escasa capacidad y dependientes de sistemas de backup en cinta. Se empleaban sistemas dedicados y enormes como herramienta de trabajo. Después se fue migrando hacia los ordenadores PC y portátiles, dejando de lado los sistemas centralizados de procesamiento. Al fin y al cabo, con la introducción de la arquitectura de procesadores x86 y el enunciado de la Ley de Moore (cada dos años, aproximadamente, se duplica el número de transistores en un circuito integrado), parecía que los equipos de sobremesa serían capaces de afrontar todo tipo de cálculos y tareas en el ámbito de la ofimática o el diseño asistido por ordenador.

Paralelamente, se empezaron a conectar los primeros ordenadores a través de la red ARPANET, primero con una interfaz textual y después gráfica con la llegada del consorcio WWW allá por el año 1991, coexistiendo en el tiempo con el desarrollo de la tecnología de comunicaciones móviles 2G, la primera digital.

cartucho

La mensajería, la transmisión de datos o el correo fueron las primeras aplicaciones de los ordenadores conectados, aunque gracias a la web pronto se vio que era mucho más práctico ofrecer servicios directamente alojados en los servidores en vez de usarlos de un modo local. El correo fue uno de los primeros servicios en la nube gracias al webmail, que permitía acceder al email directamente desde un navegador. De hecho, Google o Microsoft, paralelamente a sus servicios de búsqueda, comenzaron su posicionamiento a partir de Gmail o Outlook, respectivamente. Y a partir de ahí, surgieron otros servicios como la gestión y edición de documentos, sin olvidar el almacenamiento online.

Con cada evolución tecnológica en aspectos como la velocidad de las conexiones, la capacidad de procesamiento de los ordenadores de los que se componen los centros de datos, la velocidad de los sistemas de almacenamiento o el aumento de la memoria RAM disponible en los sistemas, se han ido introduciendo mejoras. Las primeras páginas web eran estáticas. Después se introdujo un código que se ejecutaba del lado del servidor, de modo que se añadían elementos dinámicos simples en las páginas web, tales como contadores de visitas o galerías de fotos interactivas. Después se introdujeron las bases de datos y la posibilidad de interaccionar con ellas para realizar búsquedas, introducir datos y gestionar los contenidos de un modo crecientemente complejo.

Posteriormente, y de manera progresiva, se fueron introduciendo servicios adicionales, aunque de un modo unilateral, sin posibilidad de intervención por parte de otras empresas para construir los suyos propios en los servidores de los centros de datos. Procesamiento de imágenes, traducción entre idiomas, aplicaciones de CRM, gestión de contactos o sistemas de almacenamiento con funciones avanzadas para compartir e incluso editar archivos.

Se puede establecer un cierto paralelismo con la evolución de los dispositivos móviles. Los primeros terminales conectados a Internet apenas sí ofrecían algo más que un browser para acceder a las páginas web. El resto de funcionalidades estaba prefijado en el firmware del dispositivo a nivel de hardware, sin posibilidad de modificación alguna por parte de los usuarios. Posteriormente, a medida que la tecnología iba depurándose, optimizándose y flexibilizándose, se introdujo la posibilidad de instalar aplicaciones sobre estos dispositivos móviles. Antes que Apple o Google, Blackberry o Windows Mobile lo permitían de un modo relativamente artesanal y manual, con repositorios de programas disponibles, pero no era sencillo ni inmediato y estaba pensado más para empresas que para una audiencia masiva.

En la actualidad, los smartphones y tabletas son el paradigma de la programabilidad y la versatilidad. Pues bien, con la nube está pasando algo similar: se pasa de un uso del cloud rígido e inflexible, con servicios y aplicaciones ‘preinstaladas’ y ligadas a máquinas concretas y configuraciones inflexibles, a un uso donde los clientes pueden instalar sus propios sistemas y configuraciones de un modo flexible y dinámico. La virtualización ha sido uno de los motores de este cambio, de modo que un mismo datacenter sirve tanto para ejecutar distintas distribuciones de Linux como Windows Server, o incluso servicios y aplicaciones tales como bases de datos. Y todo ello sin necesitar conocimientos técnicos especiales.

Con la nube está pasando lo ocurrido con smartphones y tabletas: más programabilidad y versatilidad

En el reciente evento Google Cloud Platform Live celebrado el 4 de noviembre pasado, Greg DeMichillie, Director de Google Cloud Platform, puso en valor la evolución de la nube afirmando que “generalmente tratamos a las nuevas tecnologías como aquellas que ya conocemos antes de aprovechar todo su potencial”. Y en esta línea, continuaba diciendo que “un datacenter no es una colección de ordenadores, es un único ordenador”.

 

La nube es la nueva normalidad 

Andy Jassy, Vice Presidente de AWS (Amazon Web Services), en la Keynote del evento de Amazon AWS re:Invent, celebrado el pasado 14 de noviembre de 2014, afirmaba: “Cloud has become the new normal”. Es decir, la nube se ha convertido en lo habitual. Esta tendencia se ha consolidado en los últimos años, hasta el punto de que las grandes compañías tecnológicas han tenido que reinventarse para adaptarse a este nuevo paradigma, o reinventarse para seguir liderando el segmento de la nube. En una conversación que mantuvimos recientemente con Carlos Conde, Evangelista de Amazon Web Services, tuvimos la oportunidad de conocer de primera mano la filosofía de AWS, en la línea de esta tendencia que en cierto modo lo es gracias precisamente a compañías como AWS. Servicios tan populares como Dropbox o Netflix dependen de la infraestructura que ofrecen proveedores como la misma Amazon. Otras empresas ofrecen servicios dedicados como Salesforce para CRM, otras proporcionan servicios de alojamiento web, o plataformas de contenidos para otras empresas como LG para sus dispositivos smartTV. Snapchat funciona gracias a la tecnología de Google Cloud, e incluso los gobiernos comienzan a usar tecnologías Cloud para ofrecer sus servicios o desplegar su infraestructura.

La cuestión a la que se enfrentan las empresas está en decidir el ámbito de aplicación de la nube: ya sea el ámbito privado, público o híbrido. Aunque gracias a los progresos en aspectos como la seguridad, las redes definidas por software, la virtualización o la ‘paquetización’ de aplicaciones, las fronteras entre las nubes públicas y privadas se difuminan hasta el punto de poder usar estructuras híbridas o puramente públicas o puramente privadas, según convenga.


Las grandes compañías tecnológicas han tenido que reinventarse para adaptarse al nuevo paradigma: la nube se ha convertido en lo habitual

Otras diferencias que se están difuminando son las que tienen que ver con el modelo de servicio. Tradicionalmente se hablaba de SaaS (software como servicio), IaaS (infraestructura como servicio) y PaaS (plataforma como servicio). SaaS es una modalidad que se reserva para usuarios particulares o usos específicos. Es el modelo de Gmail, por ejemplo, donde sólo se puede acceder a un servicio definido y delimitado por la empresa que lo ofrece (Google en este caso), sin posibilidad de introducir funcionalidades por parte de los usuarios más allá de las que ofrezca la interfaz de acceso.

PaaS e IaaS, sin embargo, han estado diferenciadas tradicionalmente. PaaS es una forma de abstraer las capas de hardware subyacentes para ofrecer entornos de desarrollo rápido de aplicaciones que acaban siendo en su mayor parte servicios web enlazados con bases de datos y sistemas de business intelligence, u otras aplicaciones y servicios, pero sin enfrentarse a la complejidad de las APIs o procesos de depuración complicados. IaaS da acceso al hardware: a las comunicaciones de red y a la virtualización, aunque empiezan a usarse tecnologías, como los contenedores de aplicaciones, que permiten llevar al nivel de plataforma funcionalidades que antes sólo se podían tener en el nivel de infraestructura, y desde el nivel de plataforma es posible interactuar con la infraestructura más allá de las abstracciones sobre el hardware impuestas por los proveedores de servicios Cloud.

Tendencias en ‘cloud computing’

La nube se ha consolidado como tendencia por sí misma. Hoy en día es impensable usar un smartphone sin conexión de Internet, por ejemplo. Y esto es así porque un porcentaje abrumador de los usos del smartphone dependen de los servicios online y aplicaciones web, y estos servicios y aplicaciones están alojados en plataformas y servidores de la nube. En los últimos años, y de forma progresivamente más acusada, han saltado las alarmas en las empresas que aún no estaban alineadas con la nube. O en aquellas que ya lo estaban, se han realizado movimientos para ofrecer modalidades de servicio cloud en todas las modalidades y ámbitos posibles. Como siempre, la curva de las expectativas suele cumplirse, y la de Gartner se presenta como una buena referencia de cara a poner en valor las tendencias.

 

 

Cloud Services

 

Inversiones

Según los estudios de IHS Technology, las inversiones en infraestructura y servicios cloud alcanzarán en 2014 los 174,200 millones de dólares, y predice que en 2017 alcanzarán los 235.100 millones de dólares. Estas cifras suponen un aumento del 20% en 2014 respecto a 2013, y triplicar en 2017 las inversiones de 2011 (78.200 millones de dólares). Otras consultoras como Gartner coinciden en la predicción, confirmando el interés por la nube como apuesta para ofrecer servicios y aplicaciones en el ámbito público o privado.

 

Empresas

Tradicionalmente, las compañías clave en el mundo cloud estaban en un modo cuasi-estático desde los primeros días de los servicios en la nube, allá por el año 2006, con el desembarco de Amazon. Pero ahora, AWS empieza a ver cómo las cifras empiezan a favorecer a otros jugadores que empiezan a mover ficha, como Microsoft de la mano de su nuevo CEO Satya Nadella, o IBM continuando con su estrategia como proveedora de soluciones integrales. Más que mover ficha, compañías como Google orientan sus estrategias cloud en direcciones nuevas. Como VMWare, Cisco o Teradata. Otras refuerzan sus propuestas, como Salesforce.

 

Computación paralela y gráficos virtualizados:

Proveedores de IaaS como Amazon Web Services empiezan a ofrecer tecnologías de paralelismo masivo como parte de sus propuestas. Desde hace algo más de un año, AWS ofrece servicios de computación basados en la tecnología GRID de NVIDIA, abriendo las puertas a HPC (High Performance Computing) y GaaS (Gaming as a Service) entre otras propuestas. Sin ir más lejos, el 13 de noviembre pasado, NVIDIA anunció la disponibilidad de GRID para gaming como servicio en Estados Unidos y posteriormente en Europa y Asia, instalando en la nube sistemas equipados con su tecnología de GPUS virtualizada y baja latencia.

 

IaaS, Paas y contenedores

Otra de las tendencias es la convergencia entre IaaS y PaaS gracias a la irrupción de la tecnología de contenedores como Docker (https://www.docker.com/). La virtualización permitía abstraer el hardware, de modo que una empresa podía usar un mismo servidor para ofrecer diferentes instancias de su servicio. Por ejemplo, Microsoft Exchange necesita una máquina para cada cliente. Virtualizándolas se consiguen aprovechas los recursos de hardware de un modo más eficiente. Google, sin embargo, usa contenedores que funcionan mediante la abstracción a nivel de sistema operativo. En la práctica, los contenedores permiten llevar PaaS a un nivel cercano a IaaS, perfecto para adaptarse a otra de las tendencias del momento: usar la nube no solo a nivel de infraestructura, sino de aplicaciones.

 

De la nube para infraestructura, a la nube para aplicaciones

La nube se ha empleado tradicionalmente como una forma de ahorrar costes en infraestructura o para ofrecer software como servicio, pero las empresas están llevando la filosofía de las aplicaciones al mundo del cloud. Y para ello tienen que enfrentarse a demandas de uso masivas, para lo cual los contenedores se muestran mucho más eficientes que las máquinas virtuales.

 

SDx, o Software Defined Everything

En un intento por parte de las empresas para maximizar el uso de las infraestructuras, se ha introducido el concepto ‘Software Defined’. Se comenzó por los dispositivos de red, que antaño estaban definidos por hardware, de modo que sólo podían desempeñar determinadas tareas de gestión de las comunicaciones, y los cambios en las mismas venía dados de forma limitada por actualizaciones de firmware. Ahora, las funcionalidades de los sistemas de comunicaciones empiezan a estar definidas mediante software, aportando flexibilidad y elasticidad. El concepto se está extendiendo a los centros de datos, a través del concepto ‘Software Defined Data Center’ o SDDC. Básicamente se trata de extender el concepto de virtualización al almacenamiento, la conectividad de red y la seguridad. Empresas como VMWare están a la cabeza de este movimiento, así como Cisco, por poner dos ejemplos sobradamente conocidos.

 

Big Data

El Big Data es uno de los elementos clave en el desarrollo del cloud computing, y viceversa: Big Data puede llegar al ámbito de empresas pequeñas y medianas gracias al cloud computing. Ejemplos como BigQuery de Google o Watson de IBM empiezan a ser herramientas de utilidad a medida que otras empresas enlazan sus motores de analítica o visualización con estos recursos computacionales. Incluso empresas ‘tradicionales’, enfocadas a soluciones bare metal para empresas, están moviendo sus ofertas de servicios de analítica de datos a la nube, como sucede con Teradata, que empieza a construir centros de datos para hacer llegar sus servicios a empresas no tan grandes como para afrontar una inversión grande en infraestructura.


Datos como servicio

De aquí se llega a otra de las tendencias: los datos como servicio. Los datos son la nueva materia prima en la economía digital, y empresas como Oracle ya tienen esta modalidad de DaaS como una posible diversificación de sus propuestas para las plataformas Cloud. Fi-Ware es otro ejemplo de iniciativa donde los datos juegan un papel relevante como soporte para construir servicios y aplicaciones en el contexto de las ciudades inteligentes. Fi-Ware es un proyecto europeo, liderado por Telefónica, una compañía que también está apostando por la nube de un modo determinante en áreas como IoT o incluso a nivel de operadora con Tuenti.

 

IoT y la nube

El Internet de las Cosas es otro de los elementos constituyentes de la nube. O visto de otro modo, cloud computing permite llevar el IoT a una escala mucho mayor que con el enfoque tradicional de infraestructuras ad hoc. Conectar los sensores a una plataforma cloud hace que los datos estén disponibles de forma inmediata para su procesamiento. Libelium (www.libelium.com) es un ejemplo de este tipo de conexiones entre sensores y soluciones cloud (esri, sentilo, Telefónica, MQTT, ThingWorks y Axeda), así como Telefónica con Thinking Things (www.thinkingthings.telefonica.com), por poner ejemplos cercanos.

Por otro lado, empresas como Amazon, Microsoft, IBM o Google ya integran en sus soluciones cloud propuestas específicas para el IoT. Google lo llama ‘la web física’; Amazon ya tiene un portal específico para ofrecer soluciones en este campo con clientes que conectan dispositivos con aplicaciones a través de los datos. En el último evento TechEd de Microsoft, celebrado en Barcelona, se habló de Windows 10 para el IoT, y de nuevas funcionalidades para su plataforma cloud, como Stream Analytics y Data Factory, especialmente pensadas para procesar grandes cantidades de datos no estructurados y estructurados, y en tiempo real.

 

Smart Cities

Dentro de este panorama de tendencias, las ciudades inteligentes empiezan a ser una de las áreas de aplicación idóneas para las tecnologías Cloud, al tiempo que la nube es un motor determinante en el desarrollo de las mismas.

 

Microsoft Accelerating cloud

 

 

Las ciudades inteligentes en la era de la nube

El despliegue de las Smart Cities depende en gran medida de los avances en las tecnologías cloud. Una ciudad inteligente depende de plataformas abiertas, escalables y transversales, capaces de ofrecer servicios en tiempo real y con capacidades de análisis de datos que entran dentro del área del Big Data.

La idea de ofrecer la ciudad como servicio (CaaS) empieza a estar presente en los planes de los encargados de definir los modelos de ciudades inteligentes en las próximas décadas. Pero antes es preciso definir estándares y arquitecturas que permitan desplegar servicios para los ciudadanos de un modo rápido y universal. Y la forma más rápida y económica de desplegarlos es a través de plataformas cloud.

La seguridad está dejando de ser un obstáculo para contratar servicios en nubes públicas, y de hecho AWS ha sido certificada hace pocos meses por el Departamento de Defensa de los Estados Unidos para manejar datos ‘sensibles’ y clasificados. Por otro lado, las ciudades son ejemplos perfectos de clientes para plataformas en la nube:

  • Los recursos económicos son limitados y exigen un nivel de inversiones comedido y entendible por la población.
  • Se necesitan sistemas escalables y dinámicos de acuerdo con una demanda generalmente variable e impredecible en algunos casos.
  • Se necesitan herramientas de análisis de datos en tiempo real y que manejen grandes cantidades de datos estructurados y no estructurados provenientes de sensores. Y la capacidad de proceso Big Data es más asequible si se contrata a los proveedores de servicios cloud.
  • Se necesitan estructuras transversales y universales para conectar servicios y aplicaciones en ciudades repartidas por todo el mundo. Y la nube contempla esta universalidad y transversalidad por definición, con servidores interconectados en áreas geográficas de todo el mundo.
  • La interconexión de las redes de sensores es inmediata si se realiza a través de conectores con plataformas cloud existentes.
  • El despliegue de aplicaciones y actualizaciones para las plataformas cloud puede organizarse de un modo jerárquico y modular si se realiza a través de la nube en vez de usar plataformas propietarias.
  • Es compatible con despliegues de nubes privadas, si así fuese necesario, por imposiciones legislativas dependiendo del país o la zona geográfica.
  • Es interoperable, siempre y cuando así esté especificado, pero es más sencillo definir esta interoperabilidad cuando se trabaja con plataformas en la nube.
  • Open Data es uno de los elementos vertebradores de las ciudades inteligentes. Y las plataformas cloud son las idóneas para construir soluciones en esta dirección. Sin ir más lejos, Barcelona está ofreciendo una plataforma Open Data para uso de empresas, ciudadanos y organizaciones alrededor de las soluciones cloud de Microsoft como Azure, o a más alto nivel como CityNext, su solución específica para las Smart Cities.

 

La forma más rápida y económica para las Smart Cities de desplegar servicios para los ciudadanos de modo rápido y universal es a través de plataformas cloud

 

En el reciente evento Smart City Expo World Congress Barcelona 2014, las soluciones cloud se consolidaron como una parte esencial de la definición de las ciudades inteligentes. Desde Esri hasta Thales, pasando por IBM, Libelium, Oracle, Indra o Microsoft, las soluciones cloud se integran en sectores como la educación, el sector público, la sanidad, la energía, el transporte, el turismo o las infraestructuras.

 



Las caídas de la nube

Uno de los problemas de las soluciones cloud es el de su resiliencia y robustez. Más que un problema es un riesgo, medido estadísticamente en muchos casos, que determina que un sistema computacional está expuesto a caídas en el servicio. El tiempo que la estadística determina como probable para estas caídas se mide en porcentajes del 0,06 para servicios de Microsoft, por ejemplo. Y aún con más decimales para servicios críticos. Pero no es cero. De ahí que en algún instante, no determinado, los servicios estarán inoperativos. De todos los problemas con la nube, el que afectó a Blackberry en octubre de 2011 durante tres días supuso un antes y un después para esta compañía, y puso en tela de juicio la viabilidad de la nube como solución tecnológica.
En junio de 2012 fue el turno de Amazon Web Services, con servicios como los de Instagram, Netflix, Pinterest o Flipboard (entre otros), afectados por problemas en la plataforma. En abril de 2011, un problema de seguridad forzó a Sony a cerrar su plataforma PSN durante 23 días. Y entre medias, todos los proveedores de servicios cloud han visto cómo en un momento u otro sufrían caídas más o menos importantes.
De todos modos, es una cuestión estadística, con probabilidades cada vez menores, hasta el punto de no ser en caso alguno significativas de cara a la viabilidad de los servicios ofrecidos. La redundancia inherente a los despliegues de infraestructura de las grandes compañías cloud es capaz de reconstruir un servicio y los datos asociados en cuestión de minutos, o incluso segundos.

 

Caídas de la nube


Qué es la nube

Se habla tanto de ‘la nube’ que es fácil perder de vista que realmente estamos hablando de elementos muy concretos y tangibles. El término ‘cloud computing’ se pierde de vista con mucha rapidez a poco que nos descuidemos, pero en la práctica estamos hablando de centros de datos a gran escala, repartidos por todo el mundo e interconectados por redes de muy alta velocidad, con una capacidad de procesamiento conjunta tal que, por ejemplo, permitiría a Amazon estar entre los 64 primeros en el Top 500 de los súper ordenadores en la lista top500.org.

La nube es la deslocalización del procesamiento y de los datos. En el momento en el que la CPU, la memoria o el almacenamiento que intervienen en la ejecución de una aplicación, de un proceso o de un servicio, están instalados físicamente en una ubicación que no es la del dispositivo que tenemos en nuestras manos o frente a nosotros… eso es la nube, para almacenar datos y archivos o para ejecutar aplicaciones o servicios.

Los centros de datos son granjas de servidores, con decenas, centenas, miles y hasta centenares de miles de ellos dependiendo de cómo se diseñen y para qué usos.
Existen nubes privadas, creadas y configuradas para el uso de empresas y organizaciones, y sin acceso público a las mismas. Se diseñan para un uso específico de determinadas aplicaciones y servicios. Y también públicas, gestionadas por compañías que obtienen ingresos a partir del ‘renting‘ de sus infraestructuras, de sus plataformas o de sus servicios.
Las híbridas son aquellas que combinan ambas modalidades de uso por parte de los clientes, con una parte de nube gestionada por el propio cliente, y otra parte gestionada por la empresa cloud.

 

Utilizamos cookies propias y de terceros para posibilitar y mejorar su experiencia de navegación por nuestra web. Si continua navegando, consideramos que acepta su uso.