Hewlett Packard Enterprise (HPE) acaba de anunciar lo que considera un parte aguas en términos de cómputo, creando un prototipo de computadora con un solo banco de memoria que puede procesar cantidades enormes de información. La computadora, conocida como The Machine, es un dispositivo hecho pensando en la era del Big Data.
HPE dijo que ha creado la computadora más grande con un solo banco de memoria. Esto es parte del programa más grande de investigación y desarrollo de HPE, la división empresarial de HP que está separada de la división enfocada al consumidor. Si el proyecto funciona, podría transformar a la sociedad, pero es claro que el tamaño de este esfuerzo implica además toda una nueva generación de software.
“El secreto de la siguiente gran revolución científica, de las innovaciones en una industria que cambia continuamente o en tecnología que altera la vida, se esconde detrás de una montaña de datos que creamos todos los días”, dice Meg Whitman, director general de Hewlett Packard Enterprise, y agrega: “Para poder realizar esta promesa, no podemos confiar en la tecnología del pasado. Necesitamos una computadora construida para la era del Big Data”.
El prototipo mostrado contiene 160 TB de memoria, capaz de trabajar simultáneamente con todos los libros de la Biblioteca del Congreso unas cinco veces, es decir unos 160 millones de libros. Nunca antes fue posible manejar este tamaño de datos en un sistema con esta memoria. Esto habla del potencial inmenso de la computación manejada por memoria, dijo HPE.
El actual prototipo podría ser escalado, espera HPE, de manera que se pudiese alojar exabytes de memoria y más allá, es decir, una cantidad prácticamente ilimitada de memoria, unos 4,096 Yottabytes. Para ponerlo en contexto, esto es unas 250 mil veces todo el universo digital actual.
Con esa cantidad de memoria, HPE dice que podría trabajarse simultáneamente con cada registro de salud digital de cada persona en la Tierra, cada dato de Facebook, cada viaje de Google en sus vehículos autónomos y cada conjunto de datos de la exploración espacial, todo al mismo tiempo, logrando así respuestas y descubriendo nuevas oportunidades a velocidades sin precedentes.
“Creemos que la computación manejada por memoria es la solución a la que debe moverse la tecnología para permitir nuevos avances en todos los aspectos de la sociedad”, dijo Mark Potter, CTO de HPE y director de Hewlett Packard Labs. “La arquitectura que ahora mostramos puede ser aplicada a cualquier categoría de cómputo, desde dispositivos inteligentes hasta supercomputadoras”, indicó.
La computación basada en memoria pone precisamente la memoria y no el procesador, en el centro de la arquitectura de la computadora. Elimina así las deficiencias de cómo la memoria, el almacenamiento y el procesador interactúan en los sistema tradicionales que hoy día tenemos. Esta nueva técnica puede reducir el tiempo que se necesita para procesar problemas complejos que van de días a horas, de horas a minutos y de minutos a segundos para así entregar inteligencia en tiempo real. “La Máquina tiene la arquitectura con la que los dispositivos serán construidos en el futuro”, dice Patrick Moorhead, analista de Moor Insight & Strategy.
El nuevo prototipo tiene 160 TB de memoria compartida en 40 nodos físicos, interconectados vía un protocolo de alto desempeño. Está optimizado para un sistema operativo Linux optimizado, corriendo bajo ThunderX2, una nueva generación de sockets duales ARMv8-A, que son sistemas completos en un chip optimizados. Tiene además enlaces fotónicos y ópticos de comunicación, incluyendo el módulo X1 fotónico. HPE ha construido las herramientas de programación de software para sacar ventaja de esta cantidad de memoria persistente.
Bob Sorenson, analista en Hyperion Research, dijo:
“Básicamente la Máquina es un intento de construir, en esencia, una nueva arquitectura de computadora que integre procesadores y memoria de manea simple usando un esquema flexible de interconexión. Aunque HPC (la división para consumo), ofrece cada año más capacidad computacional, la habilidad de estos sistemas de la memoria al procesador y viceversa, se está convirtiendo en un cuello de botella significativo para el desempeño”.
No se tiene fecha para que este nuevo desarrollo se vea comercialmente, pero HPE tiene un punto: está buscando un nuevo paradigma que bien podría ser muy importante para el futuro del desarrollo del hardware para los próximos años. Pudiese ser que a mediano plazo las arquitecturas que hoy usemos terminen por volverse obsoletas. Habrá que esperar. Tiempo al tiempo.
Referencia: Venture Beat, HP