Compartir

NVIDIA anunció hoy que planea integrar una interconexión de alta velocidad llamada NVLink a sus futuras tarjetas, lo que permite que las GPU y las CPU compartan datos de cinco a doce veces más rápido de lo que lo hacen en la actualidad. Esto eliminará el “cuello de botella” de datos y ayudará a preparar el camino para una nueva generación de supercomputadoras de exascala, de 50 a 100 veces más rápidas que los sistemas más poderosos de la actualidad.

NVIDIA agregará NVLink a su arquitectura de GPU Pascal (prevista para lanzamiento en 2016), como continuación de la nueva arquitectura Maxwell que verá la luz este año. La nueva interconexión se desarrolló en conjunto con IBM, que la incorporará en las futuras versiones de sus CPU POWER.

“Las GPU NVIDIA han surgido como el procesador paralelo preferido para la computación de alto rendimiento debido a sus resultados de computación y eficiencia enérgica”, afirmó Brian Kelleher, Vicepresidente Senior de Ingeniería de GPU de NVIDIA. “NVLink libera todo el potencial de la GPU al mejorar de forma impresionante el movimiento de datos entre la CPU y la GPU, reduciendo el tiempo que tiene que esperar la GPU para que se procesen los datos.”

  • Ventajas en comparación con PCI Express 3.0

Las GPU actuales están conectadas a CPU basadas en x86 mediante la interfaz PCI Express (PCIe), lo que limita la capacidad de la GPU de acceder al sistema de memoria de la CPU y es de cuatro a cinco veces más lento que los sistemas de memoria de la CPU típica. PCIe representa un embotellamiento aún mayor entre la GPU y las CPU IBM POWER, que tienen un ancho de banda mayor que las CPU x86. Como la interfaz NVLink coincidirá con el ancho de banda de los sistemas de memoria de la CPU típica, permitirá que las GPU accedan a la memoria de la CPU con todo su ancho de banda.

Esta interconexión de alto ancho de banda mejorará de forma impresionante el rendimiento acelerado de la aplicación de software. Debido a las diferencias del sistema de memoria (las GPU tienen memorias rápidas pero pequeñas, y las CPU tienen memorias grandes pero lentas), las aplicaciones de computación acelerada suelen mover los datos de la red o del almacenamiento en disco a la memoria de la CPU y, luego, copian los datos en la memoria de la GPU antes de que la GPU pueda procesarlos. Con NVLink, los datos se mueven entre la memoria de la CPU y la memoria de la GPU a velocidades mucho más altas, lo que hace que las aplicaciones aceleradas por la GPU se ejecuten mucho más rápido.

  • Recurso Unified Memory

El movimiento de datos más rápido, aunado a otro recurso conocido como Unified Memory, simplificará la programación del acelerador de la GPU. Unified Memory permite que el programador trate las memorias de la CPU y la GPU como un solo bloque de memoria. El programador puede operar en los datos sin preocuparse de que resida en la memoria de la CPU o de la GPU.

Aunque las futuras GPU NVIDIA seguirán admitiendo PCIe, NVLink se usará para conectar las GPU a las CPU aptas para NVLink, así como para brindar las conexiones de alto ancho de banda directamente entre múltiples GPU. También, a pesar de su alto ancho de banda, NVLink brinda un uso mucho más eficiente de la energía por bit transferido que PCIe.

NVLink permitirá que los sistemas estrechamente integrados que brindan una ruta hacia supercomputadoras escalables a nivel de exascala y con gran eficiencia energética se ejecuten a 1.000 petaflops (1 x 1018 operaciones de punto flotante por segundo), o de 50 a 100 veces más rápido que los sistemas más rápidos de la actualidad.

Comentarios

comentarios