Todos usamos un ordenador que básicamente funciona gracias al diseño tradicional, en el que el microprocesador (la roca) es como su cerebro (siempre me he preguntado con qué parte se correspondía el corazón…). Podríamos decir que la arquitectura es CPU-centric, todo el ordenador “gira” en torno a él: coordina el uso de la memoria, buses de comunicaciones, discos de almacenamiento, buffers, interfaces, etc. Pero ¿y si no fuese así? ¿Y si el centro fuese otra cosa, por ejemplo, la memoria?
¿Y por qué poner en el centro la memoria? Pues porque en el mundo en el que vivimos, resulta que si algo consumen las máquinas virtuales y las aplicaciones en general es memoria. La CPU no suele ser un gran problema, salvo que hagamos cálculo intensivo, rendering o cálculos vectoriales masivos. Pero lo que sí se necesita siempre para que el ordenador “vuele” es más memoria.
Por eso desde HP han decidido poner un pool grande de memoria (unos 160 TB), y darle acceso a ello a muchos procesadores con conexiones fotónicas (no, no me lo estoy inventando, la fibra está llegando al interior de los ordenadores). El resultado es un ordenador unas 8.000 veces más rápido de lo que estamos acostumbrados, y eso que la Ley de Moore nos viene advirtiendo desde hace tiempo de límites.
A todo esto, no debemos confundir MDC (Memory Driven Computing), con IMC (In Memory Computing). Esto último es una tendencia cada vez más en boga, debido a que para realizar las transacciones se usa directamente la memoria RAM o si acaso la caché del procesador porque así se ahorran ciclos de computación y energía y se traduce en una computación más rápida y eficiente. El enfoque IMC elimina la dependencia de modelos rígidos y se ha hecho muy popular con HANA, que básicamente responde a este planteamiento.
Pero MDC va más allá aún, porque supone un cambio radical en la arquitectura de ordenadores que hemos conocido y usado durante el medio siglo precedente. Hasta cierto punto me atrevería a compararlo con el cambio de válvulas a transistores en el campo de la electrónica.
De momento MDC solo es una prueba de concepto, pero una prueba de concepto que responde a una necesidad: cloud, IoT, big data, la inteligencia artificial… están evolucionando rápido y generan grandes cargas de trabajo, que requieren nuevos ordenadores con nuevas arquitecturas.
En un primer momento lógicamente esto no llegará al usuario corriente, pero si tenemos en cuenta la velocidad a la que las tecnologías se abaratan, adaptan y llegan, al menos al mercado empresarial, yo no pensaría en demasiado tiempo antes de que MDC empiece a ser algo tan común como en su día lo fue el microprocesador 486.
Imagen: ospanacar

Soluciones y Sectores
Te puede interesar
-
SMART Workplace y la gestión del puesto de trabajo
Todo se ha transformado en los últimos años en lo relacionado al puesto de trabajo, y sigue evolucionando sin ...
-
Industria 4.0: nuestros casos de éxito
El concepto y las herramientas de la Industria 4.0 han supuesto un profundo cambio en los modelos de negocio, ...
-
El e-learning como oportunidad de negocio para las empresas
¿Cómo las empresas pueden sacar ventaja de los beneficios del e-learning?