Puede que esto de la hiperconvergencia, el nuevo concepto del momento, aún no os resulte familiar. La virtualización, que ahora nos parece tan común, cuando surgió, hace ya un tiempo, también nos pareció muy novedoso y en aquel momento pocos fueron capaces de adivinar el gran impacto que tendría en el mundo de las Tecnologías de la Información (TI).
Vino a solventar muchos problemas que existían en los centros de datos, como eficiencia, flexibilidad, agilidad… Estas preocupaciones eran comunes a todos los data centers, por lo que una vez superado el recelo inicial respecto a la nueva tecnología, la virtualizacion tuvo una enorme aceptación por parte de los clientes.
En la actualidad es prácticamente imposible encontrar un data center sin servidores virtuales. Además de solucionar las dificultades mencionadas, la clave del éxito de su adopción ha sido su simplicidad. Independientemente del tipo de virtualización elegido, con un buen diseño es posible obtener una infraestructura bastante sencilla de implementar y administrar.
Y, antes de seguir, me gustaría destacar el significado de simplicidad en lo relativo a la TI, que es: “Si algo no es simple, no sirve y tampoco se implanta”.
En los últimos años han ido apareciendo nuevos conceptos como cloud computing, software defined data center y recientemente la hiperconvergencia.
Cloud surge con el objetivo inicial de simplificar la administración de los entornos virtuales pero ya han transcurrido varios años desde su aparición y su implantación no ha sido masiva, quizá también por el cambio cultural necesario.
La siguiente etapa en el fondo se trata de un nuevo salto en la virtualización, en busca de una mayor simplicidad: el Software Defined Anything (SDx), como soluciones de red (VMware NSX) y almacenamiento (VSAN, Nutanix, Simplivity, etc.).
Estas nuevas tecnologías están provocando un cambio radical en los fabricantes tradicionales de almacenamiento y redes, que ven amenazado su modelo de negocio, y a la vez han supuesto la irrupción en los últimos cinco años de nuevos actores que están plantando cara a los anteriores.
Podríamos decir que el comienzo de la hiperconvergencia fueron los servidores blade, en los que el cómputo estaba unido al almacenamiento. Pero ¿qué es un sistema hiperconvergente? Aquél que integra computación, almacenamiento y redes en un único dispositivo físico definido por software. Es importante destacar que por encima de este hardware debe existir una capa software, que es la que permite virtualizar los componentes.
Se trata de automatizar y simplificar las tareas de gestión y administración de la infraestructura bajo el paraguas de un mismo fabricante. Estas tecnologías hiperconvergentes están pensadas para hacer más eficientes las operaciones, el consumo energético y el alojamiento en los data centers.
El escenario actual de estos centros hoy en día es que integran y administran de manera compleja soluciones multifabricantes con una gestión de soporte multifabricante también.
La hiperconvergencia, que ha llegado para quedarse, pretende simplificar toda esta amalgama de fabricantes en uno solo. Estoy convencido de que en aproximadamente un lustro estará totalmente introducida en las empresas de cualquier tamaño, primero en las grandes y, poco a poco, irá llegando a las pequeñas.
Imagen: Dionisio Fernández Mora

Soluciones y Sectores
Te puede interesar
-
Edificios sostenibles para un turismo más inteligente y competitivo
El sector turístico representó el año pasado el 12,2% del PIB en España. Se trata, por tanto, de un ...
-
La capacitación en industria 4.0, condición sine qua non para su transformación
Recientemente leía un artículo sobre “Desafíos de la industria europea en la nueva coyuntura socioeconómica”. En él se apuntaba, ...
-
Hospitalización domiciliaria: un nuevo paradigma en la gestión de pacientes crónicos
Como explicaba en un post anterior, asistimos a la transformación de la atención médica para mejorar la calidad de ...