Ya podemos conocer a la Nvidia Hopper H100. La GPU más rápida del mundo.

En el GTC 2022, NVIDIA presentó su GPU Hopper H100, una potencia informática diseñada para la próxima generación de centros de datos. Ha pasado un tiempo desde que hablamos sobre este poderoso chip, pero parece que NVIDIA le dedicó un primer plano a su chip insignia a los medios seleccionados.

CNET logró apoderarse no solo de la tarjeta gráfica en la que se fusiona la GPU H100, sino también del propio chip H100. La GPU H100 es un chip monstruoso que viene con la última tecnología de 4 nm e incorpora 80 mil millones de transistores junto con la tecnología de memoria HBM3 de última generación. Según el medio tecnológico, el H100 se basa en la placa PCB PG520 que tiene más de 30 VRM de potencia y un intercalador integral masivo que utiliza la tecnología CoWoS de TSMC para combinar la GPU Hopper H100 con un diseño HBM3 de 6 stacks.

De esos seis stacks, se mantienen dos stacks para garantizar la integridad del rendimiento. Pero el nuevo estándar HBM3 permite capacidades de hasta 80 GB a velocidades de 3 TB/s que son una locura. A modo de comparación, la tarjeta gráfica para juegos más rápida actual, la RTX 3090 Ti, ofrece solo 1 TB/s de ancho de banda y capacidades de VRAM de 24 GB. Aparte de eso, la GPU Hopper H100 también incluye el último formato de datos FP8 y, a través de su nueva conexión SXM, ayuda a acomodar el diseño de potencia de 700 W alrededor del cual está diseñado el chip.

En cuanto a las especificaciones, la GPU NVIDIA Hopper GH100 se compone de un diseño de chip masivo de 144 SM (multiprocesadores de transmisión) que se presenta en un total de 8 GPC. Estos GPC tienen un total de 9 TPC que se componen además de 2 unidades SM cada uno. Esto nos da 18 SM por GPC y 144 en la configuración completa de 8 GPC. Cada SM está compuesto por hasta 128 unidades FP32 lo que nos debería dar un total de 18.432 núcleos CUDA. Las siguientes son algunas de las configuraciones que puede esperar del chip H100:

  • 8 GPC, 72 TPC (9 TPC/GPC), 2 SM/TPC, 144 SM para la GPU
  • 128 FP32 CUDA Cores por SM, 18432 FP32 CUDA Cores para la GPU
  • 4 núcleos tensoriales de cuarta generación por SM, 576 para la GPU
  • 6 pilas HBM3 o HBM2e, 12 controladores de memoria de 512 bits
  • 60 MB de caché L2
  • NVLink de cuarta generación y PCIe Gen 5

Estamos ante un aumento de 2.25x sobre la configuración completa de la GPU GA100. NVIDIA también está aprovechando más núcleos FP64, FP16 y Tensor dentro de su GPU Hopper, lo que aumentaría enormemente el rendimiento. Y eso va a ser una necesidad para competir con el Ponte Vecchio de Intel, que también se espera que presente 1:1 FP64.

La memoria caché es otro espacio en el que NVIDIA ha prestado mucha atención, llevándola a 48 MB en la GPU Hopper GH100. 

Redondeando las cifras de rendimiento, la GPU Hopper GH100 de NVIDIA ofrecerá 4000 TFLOP de FP8, 2000 TFLOP de FP16, 1000 TFLOP de TF32 y 60 TFLOP de FP64 de rendimiento informático. Estas cifras que rompen récords diezman a todos los demás aceleradores de HPC que lo precedieron. En comparación, esto es 3,3 veces más rápido que la propia GPU A100 de NVIDIA y un 28 % más rápido que el Instinct MI250X de AMD en el cómputo FP64. En computación FP16, la GPU H100 es 3 veces más rápida que la A100 y 5,2 veces más rápida que la MI250X, que es literalmente una locura.

La variante PCIe, que es un modelo reducido, se incluyó recientemente en Japón por más de 30.000 USD , por lo que uno puede imaginar que la variante SXM con una configuración más robusta costará fácilmente alrededor de 50 mil.

Publicaciones relacionadas

La última actualización de firmware de Nvidia soluciona los errores de pantalla en blanco de las 4080 y 4090

admin

Geforce RTX 4060. La gráfica con el rendimiento de una RTX 3070 al precio de una RTX 3060 Ti

admin

¿Raptor Lake refresh para 2023? no será la única novedad de Intel

admin

Deja un comentario