NVIDIA acaba de introducir la plataforma HGX-2, combinando HPC (High Performance Computing) e Inteligencia Artificial. Es una plataforma pensada para servidores, pero los usuarios se beneficiarán de ella una vez que proveedores de servicios cloud como Google, Amazon o Microsoft se decidan a instalar esta plataforma de computación en sus centros de datos.

Esta plataforma es capaz de alcanzar precisiones FP64 y FP32 para cálculos de alta precisión y científicos así como para simulaciones. También es posible usar precisiones de FP16 o Int8 para aplicaciones de entrenamiento de modelos o para cálculo de inferencias en el campo de la Inteligencia Artificial. Esta plataforma se ha presentado en el ámbito del evento GPU Technology Conference en Taiwan.
Los incrementos de rendimiento en las arquitecturas para CPUs se han ralentizado, mientras que los de arquitecturas dedicadas al procesamiento paralelo incrementan su potencia de cálculo significativamente gracias a la implementación de nuevos tipos de chips dedicados. La plataforma HGX-2 usa GPUs especializadas para el cálculo de operaciones bajo APIs como las de Google y su framework Tensor Flow. Las tarjetas "gráficas" empleadas son las Tesla V100 en configuraciones de nada menos que 16 de ellas para conformar una unidad de procesamiento HGX-2.
Así, HGX-2 ha conseguido procesar hasta 15.500 imágenes por segundo en el benchmark ResNet-50. Otro dato interesante es que puede reemplazar a 300 servidores basados en CPUs únicamente. Fabricantes como Lenovo o Supermicro ofrecerán soluciones HGX-2 a lo largo del año, y algunos ODMs están preparando configuraciones para vender a centros de datos de Amazon, Facebook o Microsoft.