¡NVIDIA se adelanta!
NVIDIA presenta la plataforma de superchip de próxima generación GH200 Grace Hopper para la era de la computación acelerada y la IA generativa
El primer procesador HBM3e del mundo ofrece una memoria y ancho de banda revolucionarios; capacidad para conectar múltiples GPUs para un rendimiento excepcional; diseño de servidor fácilmente escalable
8 de agosto de 2023
NVIDIA presenta la plataforma de superchip de próxima generación GH200 Grace Hopper para la era de la computación acelerada y la IA generativa SIGGRAPH—NVIDIA anunció hoy la plataforma de próxima generación NVIDIA GH200 Grace Hopper™, basada en un nuevo superchip Grace Hopper con el primer procesador HBM3e del mundo, construido para la era de la computación acelerada y la IA generativa.
Creada para manejar las cargas de trabajo de IA generativa más complejas del mundo, que abarcan grandes modelos de lenguaje, sistemas de recomendación y bases de datos vectoriales, la nueva plataforma estará disponible en una amplia gama de configuraciones.
La configuración dual, que ofrece hasta 3.5 veces más capacidad de memoria y 3 veces más ancho de banda que la oferta de la generación actual, comprende un solo servidor con 144 núcleos Arm Neoverse, ocho petaflops de rendimiento de IA y 282GB de la última tecnología de memoria HBM3e.
"Para satisfacer la creciente demanda de IA generativa, los centros de datos requieren plataformas de computación acelerada con necesidades especializadas", dijo Jensen Huang, fundador y CEO de NVIDIA. "La nueva plataforma de superchip GH200 Grace Hopper ofrece esto con una tecnología de memoria excepcional y un ancho de banda para mejorar el rendimiento, la capacidad de conectar GPUs para agregar rendimiento sin compromiso, y un diseño de servidor que se puede implementar fácilmente en todo el centro de datos".
La nueva plataforma utiliza el superchip Grace Hopper, que puede conectarse con otros adicionales mediante NVIDIA NVLink™, permitiéndoles trabajar juntos para implementar los modelos gigantes utilizados para la IA generativa. Esta tecnología coherente de alta velocidad da a la GPU acceso completo a la memoria de la CPU, proporcionando un total de 1.2TB de memoria rápida en configuración dual.
La memoria HBM3e, que es un 50% más rápida que la HBM3 actual, ofrece un total de 10TB/seg de ancho de banda combinado, permitiendo a la nueva plataforma ejecutar modelos 3.5 veces más grandes que la versión anterior, mientras mejora el rendimiento con un ancho de banda de memoria 3 veces más rápido.
Creciente demanda de Grace Hopper Los principales fabricantes ya están ofreciendo sistemas basados en el superchip Grace Hopper previamente anunciado. Para impulsar la adopción generalizada de la tecnología, la plataforma de Grace Hopper de próxima generación con HBM3e es totalmente compatible con la especificación de servidor NVIDIA MGX™ presentada en COMPUTEX a principios de este año. Con MGX, cualquier fabricante de sistemas puede agregar rápidamente y de manera rentable Grace Hopper a más de 100 variaciones de servidores.
Disponibilidad Se espera que los principales fabricantes de sistemas entreguen sistemas basados en la plataforma en el segundo trimestre del año calendario 2024.