Para los que aún no conozcáis bien las Radeon Instinct, es bastante normal si tenemos en cuenta que dichas GPU no van a salir al mercado gaming. Pero si tenemos clara una cosa y es que son las primeras GPU de AMD fabricadas en el proceso de fabricación de 7 nm por lo que la densidad de transistores por mm² es mayor. En realidad son gráficas utilizadas para procesos «machine learning» y está especialmente diseñadas para el mercado HPC.
Pues bien, los datos sobre la Radeon Instinct MI100 (la hermana mayor de la MI50 y la MI60) se fugaron el pasado 21 de julio en un artículo de Adored TV que parecía tener visos de ser un simple rumor y muchos tacharon de fake al afirmar que son más potentes que la nueva Ampere A100 de Nvidia en FP32 Compute.
La MI100 de AMD formaría parte de un tipo de servidor específico que AMD estaría diseñanando y que, con su diseño 2P, contaría con dos CPU AMD EPYC (no se sabe si Rome o Milan) y que se conectarían a dos aceleradoras Radeon Instinct MI100 a traves de Infinity fabric. Las cuatro GPU podrían entregar una salida sostenida de 136 TFLOP de FP32 (SGEMM) que señala alrededor de 34 TFLOP de cómputo FP32 por GPU. Cada GPU Radeon Instinct MI100 tendrá un TDP de 300W.
Dicho servidor estaría disponible a partir de diciembre de 2020.

El segundo servidor, que sería de 3U, se lanzaría en marzo de 2021 y ofrecería 8 GPU Radeon Instinct MI1000 conectadas a 2 CPU EPYC. Cada grupo de cuatro Instinct MI 100 se conectaría a través de un XGMI (100 GB/s bidireccional) y un ancho de banda cuádruple de 1.2 TB/s. Los cuatro aceleradores Instinct equivaldrían a un total de 272 TFLOP de cómputo FP32, 512 GB por segundo de ancho de banda PCIe, 9.8 TB/s de ancho de banda HBM y 256 GB de capacidad de memoria DRAM. El bastidor tendría un consumo de potencia nominal de 3kW.



Comparación con Ampere A100
En términos de rendimiento, el AMD Radeon Instinct MI100 se comparó con los aceleradores de GPU NVIDIA Volta V100 y NVIDIA Ampere A100 . Curiosamente, las diapositivas mencionan un acelerador Ampere A100 de 300 W, aunque no existe tal configuración, lo que significa que estas diapositivas se basan en una configuración hipotética A100 en lugar de una variante real que viene en dos versiones, la configuración de 400 W en el factor de forma SXM y la configuración de 250 W que viene en el factor de forma PCIe.
Según los puntos de referencia, el Radeon Instinct MI100 ofrece un rendimiento de FP32 alrededor de un 13% mejor en comparación con el Ampere A100 y más del doble de aumento de rendimiento en comparación con las GPU Volta V100. La relación rendimiento/valor también se compara con el MI100 que ofrece alrededor de 2,4 veces mejor valor en comparación con el V100S y un valor 50% mejor que el Ampere A100. También se muestra que la escala de rendimiento es casi lineal incluso con hasta 32 configuraciones de GPU en Resenet, lo cual es bastante impresionante.






Dicho esto, las diapositivas también mencionan que AMD ofrecerá un rendimiento y un valor mucho mejores en tres segmentos específicos que incluyen Oil & Gas, Academia y HPC & Machine Learning. En el resto de las cargas de trabajo de HPC, como la computación FP64, la inteligencia artificial y el análisis de datos, NVIDIA ofrecerá un rendimiento muy superior con su acelerador A100. NVIDIA también tiene el beneficio de la arquitectura de GPU de varias instancias sobre AMD. Las métricas de rendimiento muestran un rendimiento FP64 2.5 veces mejor, un rendimiento FP16 2 veces mejor y el doble del rendimiento del tensor gracias a los núcleos Tensor de última generación en la GPU Ampere A100.
Una cosa que debe destacarse es que AMD no ha mencionado los números de escasez de NVIDIA en ninguna parte de los puntos de referencia. Con poca amplitud, el Ampere A100 de NVIDIA cuenta con hasta 156 TFLOP de potencia, aunque parece que AMD solo quería hacer una comparación de referencia específica en comparación con el Ampere A100. Por lo que parece, el Radeon Instinct MI100 parece ser una oferta de HPC decente si los números de rendimiento y valor se mantienen en el lanzamiento.
Fuente Wccftech