En lo que llevamos de año, cada vez más y con mayor insistencia oigo hablar del edge computing, también denominado fog computing. Ciertamente es un tema apasionante, sobre todo para aquél que esté vinculado a las TIC en su sentido más amplio pues conjuga lo mejor de ambos mundos: las tecnologías de la información y las comunicaciones.
La posibilidad de llevar una capa más allá la inteligencia de la red siempre ha sido un reto de las operadoras de comunicaciones. A día de hoy se empiezan a escuchar voces a favor de la misma estrategia en los servicios de computación y almacenamiento.
Y, en este sentido, las operadoras disponen de activos diferenciales: no es comparable la capilaridad de red de una Telco frente al número de data centers de Amazon o Microsoft, incluso estamos hablando de una diferencia de casi tres órdenes de magnitud. Si tomamos como referencia Amazon web services y asumimos que cada zona de disponibilidad de su servicio equivale a un data center, estaríamos hablando de 35 en la actualidad, frente a las más de 8.000 centrales de las que dispone Telefónica en España y cerca de quince data centers.
Si analizamos estos datos y revisamos los diferentes anuncios del mercado en las últimas semanas sobre la intención de los hyperscalers de incrementar la capilaridad de sus servicios, la realidad es que las Telco no somos conscientes de que no necesitamos seguir buscando el santo grial en el negocio del cloud, hace años que lo tenemos y está en la capilaridad de nuestras infraestructuras.
De hecho, como actores TIC nos enfrentamos en los próximos años a una serie de retos importantes como las necesidades de tecnologías tan disruptivas por ejemplo para los coches autónomos, tanto en lo que a las capacidades de red se refiere -y donde el 5G permitirá que el intercambio de información en tiempo real sea posible- como en lo que a capacidades de procesado, análisis y toma de decisión sobre esa información respecta y donde big data, la inteligencia artificial y la computación distribuida jugarán un papel importante.
La verdad es que acercar los servicios al extremo de la red ha sido el reto desde que Internet se convirtió en un servicio universal y la demanda y consumo de contenidos se generalizó; prueba de ello son los servicios que se crearon para acercar el contenido al usuario: las CDN o Content Delivery Network tenían como objetivo principal mejorar la experiencia de usuario a la hora de visualizar contenidos desde una página, funcionando como una mega cache distribuida a lo largo de la red, que optimiza y acelera los protocolos de entrega de contenido.
En la actualidad las redes de los operadores están sufriendo una profunda transformación con la virtualización de los elementos de red y la estandarización de los elementos hardware que los sustentan, por lo que la diferencia entre un data center y una central en cuanto a elementos de computación y almacenamiento no diferirán mucho en los próximos años. Aquí el punto principal de discusión es la rentabilidad de las inversiones; resulta mucho más rentable construir y operar un “mega data center” que cientos de centrales distribuidas a lo largo del territorio nacional. Además, en este momento, la arquitectura de los servicios cloud – véase como referencia el caso de Openstack o VMware- presentan ciertas limitaciones para gestionar de forma de remota los elementos de infraestructura en los que la latencia de las comunicaciones sigue siendo un punto crucial a la hora de garantizar la disponibilidad de los mismos.
Pero romper las barreras tecnológicas y de arquitectura de servicios cloud distribuidos puede que no sea un reto como tal. La realidad es que si pensamos en los servicios o aplicaciones en capas superiores que serían capaces de operar de forma distribuida, probablemente se podrían contar con los dedos de la mano. La cruda realidad es que aquí las empresas de Internet nos llevan tres cuerpos de ventaja por su capacidad de construir servicios nativos pensados para la computación en la nube, independientemente del data center donde se aloje la información.
El paradigma de “todo definido por software” cada vez tiene más sentido. Nos permitirá mover hacia el borde de la red servicios que están ahora alojados en los data centers y aquéllos que están físicamente en casa del cliente. Y para muestra un botón: ya hay prototipos y pilotos para llevar el decodificador de video que tenemos en nuestros hogares a la central. De igual manera, el video podría ser distribuido o cacheado en la central en función de los gustos o prioridades de los usuarios de un determinado barrio. Incluso, ¿os imagináis que en el futuro el buzón de correo electrónico se fuese replicando entre centrales para que la transferencia de datos y la experiencia de usuario fuese lo más satisfactoria posible, en función de si alguien está trabajando desde casa o desde la oficina?
El tiempo dirá, pero creo que cada vez más la capilaridad y cercanía de los servicios cloud acabarán siendo un factor diferencial y, para ello, la virtualización de red, así como la computación distribuida serán claves. ¿Qué pensáis vosotros? ¿Realmente la arquitectura de los servicios en la nube será más parecida a una red de comunicaciones o a la arquitectura de los servicios TI implementados en un data center?
Imagen: FHG Photo

Soluciones y Sectores
Te puede interesar
-
Entrevista a Alfonso Hernández-Maureta, CFO de Sincrolab
Sincrolab es una empresa de e-health que desarrolla tratamientos digitales de prescripción dirigidos a la recuperación y el desarrollo de las ...
-
La inteligencia artificial: ¿Una solución o un problema para el arbitraje deportivo?
La tecnología digital va transformando todos los ámbitos de la vida ¿Por qué no habría de hacerlo con el ...
-
Talent Day 2023: El año del bienestar emocional en las empresas
El pasado mes Telefónica participó en uno de los eventos de referencia en el ámbito de la gestión de ...