NVIDIA parece que seguirá estando en lo más alto del ranking de empresas tecnológicas gracias a su nueva generación de GPUs Blackwell en sus variantes para servidores. El chip base es el B200, y vendrá montado en plataformas específicas para tareas como el entrenamiento de modelos de IA por parte de empresas como OpenAI.

Los centros de datos construidos sobre Blackwell B200 son los más rápidos del mundo y las grandes empresas involucradas en el desarrollo de herramientas de IA están ansiosas por hacerse con esta tecnología, al precio que sea. Parece que OpenAI es una de las primeras empresas que pondrán en producción esta tecnología de NVIDIA, tal y como se recoge en su cuenta de X (antes Twitter).

La plataforma DGX B200 es una plataforma de IA unificada diseñada para entrenamiento de modelos, optimización de los mismos y generación de inferencias usando GPUs Blackwell B200. Cada DGX B200 usa ocho GPUS B200 con hasta 1,4 TB de memoria HBM3E con un ancho de banda de hasta 64 TB/s. El rendimiento de las DGX B200 ofrece hasta 72 peta FLOPS para entrenamiento y hasta 144 peta FLOPS para inferencias.
Otras empresas como Amazon, Google, Meta, Microsoft, Tesla, xAI o Dell usarán esta tecnología también. xAI usará 50.000 GPUS B200, además de la base instalada de 100.000 GPUs H100. Foxconn también ha anunciado que construirá el superordenador más rápido de Taiwán usando GPUs B200.
La plataforma DGX B200 es tres veces más rápida en entrenamiento y quince veces mejor en inferencias que la generación anterior Hopper.
Fuente: @OpenAI