El auge de la IA y de herramientas como ChatGPT Plus o Bing Chat está potenciando el crecimiento de Nvidia, proveedor de potentes tarjetas gráficas como NVIDIA A100 y NVIDIAH100. Esta situación ha derivado en un incremento notorio de las acciones de la entidad a un 2,1% en la sesión del pasado 14 de noviembre, cerrando un máximo histórico y registrando su décima sesión consecutiva de ganancias.
La última actualización de sus procesadores de IA ayudó a impulsar las acciones de la compañía a un 22%, agregando un valor de mercado en torno a los 219.000 millones de dólares, según Blooomberg. Este liderazgo está siendo contrarrestado por otras empresas competidoras, que buscan arrebatarle la cuota de mercado.
NVIDIA alcanzó los 1,1 billones de dólares de capitalización de mercado. Pese a todo, su director ejecutivo, Jensen Huang, durante el evento ´Future of Business de Harvard Business Review´, señaló que el éxito no está garantizado, ya que el auge de sus rivales y el endurecimiento de las normas estadounidenses sobre las exportaciones de tecnología a China podría derivar en la pérdida de miles de millones de dólares tras la cancelación de las entregas previstas.
En lo que va de año, las acciones de Nvidia acumulan una subida del 222%, desde el mínimo de referencia de octubre de 2022, por lo que la cotización ha crecido en un 343%. No obstante, aunque se trata de la sexta empresa más grande del mundo, el valor de sus acciones parece no crecer lo suficiente. Su valor aproximado es de 35 veces sus ventas, siendo la acción más costosa del S&P 500.
H200, la GPU para entrenar los modelos de IA del futuro
La gran mayoría de las compañías que necesitan entrenar modelos de IA optan por el hardware de NVIDIA. Es por ello que el fabricante ha optado por el lanzamiento de una nueva GPU para IA; la NVIDIA H200, la cual le permitirá aumentar notablemente su valor accionarial.
El HGX H200 es una unidad de procesamiento gráfico diseñada para el entrenamiento y despliegue de modelos de IA que impulsen el auge de la IA Generativa. Presenta mejoras importantes con respecto a H100 (el chip empleado por OpenAI para su modelo GPT-4). No obstante, los chips H100 precisan de un laborioso y costoso proceso de entrenamiento que no todas las compañías pueden afrontar.
El H200 incluye 141 GB de memoria de nueva generación ´HBM3´, que ayuda al chip a realizar inferencias. Además, es capaz de generar resultados casi el doble de rápido que su predecesor.
El H200 de Nvidia cuenta con una arquitectura Hopper dotada de 141 GB de VRAM HBM3E y un ancho de banda de hasta 4,8TB/s. Es una mejora cuantitativa y cualitativa con respecto al H100, que presentaba 80 GB de VRAM HBM3E con un ancho de banda de 3,35TB/s.
La NVIDIA H200 cuenta con una interfaz SXM que le permite alcanzar 3,958 teraFLOPS en FP8 (punto flotante de 8 bits para Transformer Engine). Esto se traduce en el doble de rendimiento para tareas de inferencia en LLM.
Se han realizado pruebas en Llama 2 70B que demuestran que pueden realizarse hasta 1,9 veces más rápido. En GPT-3 175B los resultados son de 1,6 veces más rápido. De este modo, se abre la posibilidad de que se mejora la performance de la tarjeta gráfica más allá de la IA.
La NVIDIA HGX H200 es capaz de fusionar la potencia de la GPU con interconexiones de alta velocidad NVLink y NVIDIA InfiniBand que se puede aplicar en los centros de datos. La NVIDIA HGX H200 llegará en configuraciones de cuatro y ocho vías y serán compatibles con el hardware existente HGX de las H100.
De este modo, un HGX H200 con ocho vías podría ofrecer más de 32 petaFLOPS en FP8 y hasta 1,1 TB de memoria con ancho de banda de elevado rendimiento.
La demanda del nuevo modelo de NVIDIA
El efecto revolucionario de NVIDIA HGX H200 ha llevado a empresas de la talla de Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure a reservar sus primeras unidades. No obstante, se espera que el nuevo modelo de Nvidia no se encuentre disponible hasta las primeras semanas del próximo año 2024.