Aprovechando la previa al CES 2024 el equipo de NVIDIA ha presentado las nuevas GeForce RTX 40 SUPER. Dicha presentación nos ha dejado tres renovaciones clave dentro de la gama alta: la GeForce RTX 4070 SUPER, la GeForce RTX 4070 TI SUPER y la GeForce RTX 4080 SUPER.
Este ha sido el anuncio más importante de NVIDIA, pero no ha sido el único. El gigante verde también ha anunciado una gran apuesta por la IA generativa con tres grandes claves:
-NVIDIA TensorRT, un kit de desarrollo de alto rendimiento para aprendizaje profundo totalmente optimizado del popular modelo Stable Diffusion XL para flujos de trabajo de conversión de texto a imagen.
-NVIDIA RTX Remix, una conocida plataforma que permite implementar NVIDIA RTX (trazado de rayos y DLSS 3) fácilmente a juegos clásicos que ahora pasa a contar con herramientas de texturizado apoyadas por IA generativa.
-NVIDIA ACE, siglas de Avatar Cloud Engine, bajo el modelo de microservicios, una API en la nube que integra un conjunto de soluciones de inteligencia artificial en tiempo real para crear e implementar NPCs inteligentes en juegos, y que permite crear también avatares interactivos y humanos digitales en aplicaciones a escala.
-NVIDIA TensorRT-LLM (TRT-LLM), una biblioteca de código abierto que acelera y
optimiza el rendimiento de inferencia de los últimos modelos de lenguajes de gran tamaño (LLM), que tras su última actualización soporta más modelos preoptimizados para PC. Acelerado por TRT-LLM y chat con RTX. El gigante verde lanzará a lo largo de este mes una demo técnica con la que podremos interactuar.
NVIDIA sube de nivel las estaciones de trabajo
Las estaciones de trabajo portátiles equipadas con tarjetas gráficas NVIDIA mejoran sus capacidades trabajando con inteligencia artificial gracias al software NVIDIA AI Enterprise, una solución que incluye TensorRT y NVIDIA RAPIDS para simplificar y asegurar el desarrollo de la IA generativa y de la ciencia de datos. Cada GPU NVIDIA A8000 de 40 GB incluye una licencia de tres años de NVIDIA AI Enterprise.
Para ayudar a los desarrolladores a acelerar y simplificar sus cargas de trabajo relacionadas con la creación, la prueba y la personalización de modelos de IA generativa preentrenados y sus LLMs utilizando equipos de tipo PC, los de verde han anunciado el kit de herramientas NVIDIA AI Workbench, una solución que será muy fácil de utilizar, y cuyo lanzamiento está previsto para este mismo mes.
Este kit ofrecerá acceso a repositorios populares como Hugging Face, GitHub y NVIDIA NGC, y tendrá una interfaz de usuario simplificada que hará que los desarrolladores puedan empezar a sacarle el máximo partido sin tener que pasar por un periodo previo de adaptación. También podrán reproducir, colaborar, migrar y escalar fácilmente sus proyectos.
La compañía que dirige Jensen Huang anunció también una colaboración con HP para simplificar el desarrollo de modelos de IA gracias a la integración de NVIDIA AI Foundation Models and Endpoints, que incluye modelos de IA y kits de desarrollo de software con aceleración RTX en HP AI Studio. Esto nos permitirá buscar, importar e implementar fácilmente modelos optimizados en PC y la nube, dando forma a un espacio de trabajo híbrido.
Cuando los desarrolladores creen sus modelos de IA para distintos escenarios de uso en PC podrán optimizarlos fácilmente NVIDIA TensorRT. Este proceso de optimización les permitirá aprovechar al máximo los núcleos tensor de las GPU RTX, que están especializados en IA y ofrecen una enorme potencia trabajando con este tipo de cargas de trabajo.
Por último, aunque no por ello menos importante, NVIDIA extendió el soporte de TensorRT a aplicaciones basadas en texto con TensorRT-LLM para Windows, una biblioteca de código abierto para acelerar LLM. La última actualización de TensorRT LLM ya está disponible y agrega Phi-2 a la creciente lista de modelos preoptimizados para PC, consiguiendo una ejecución hasta 5 veces más rápida en comparación con otros backends de inferencia.