Banner Edicion Impresa

Monitor Más Monitor


OVHcloud anuncia soluciones serverless y servidores con GPU para IA

OVHcloud anuncia soluciones serverless y servidores con GPU para IA
Las soluciones serverless para IA de la compañía se han desarrollado con AI Notebooks, AI Training y AI Deploy.

Publicación:26-01-2024
++--

OVHcloud ha decidido facilitar la adopción de la IA a sus clientes que necesiten la infraestructura adecuada para trabajar con IA de manera sencilla.

 

 Para ello ha lanzado varias novedades en soluciones serverless de gama alta y servidores bare metal, caracterizadas por incorporar GPUs caracterizadas por contar con una potencia elevada.

Estas novedades están en línea con la estrategia de Inteligencia Artificial de la compañía, centrada en ofrecer cuatro elementos principales: recursos de cálculo potentes, conjuntos de datos pulidos, herramientas de software y talento de primer nivel.

Como complemento a las soluciones Nvidia DGX H100 disponibles hasta ahora, OVHcloud acaba de lanzar instancias Compute GPU con 1x a 4x GPU PCIe Nvidia H100, gran capacidad de memoria y almacenamiento local de alto rendimiento. Están disponibles de inmediato para aumentar la oferta de soluciones Nvidia A100, y pronto se le unirán las nuevas opciones de GPU para centros de datos Nvidia L40S, L4 y A10.

En cuanto a los nuevos servidores bare metal de OVHcloud, son los HGR-AI-2, con GPU Nvidia L40S, con chips Tensor Core de cuarta generación y motores de transformación FP8, y preparados para entrenar modelos e inferencia para cargas de trabajo de IA.

Hacia finales de este año, OVHcloud tiene previsto lanzar varias referencias GPU Bare Metal Scale en servidores bare metal con GPU. Con tres nuevas referencias de Scale, la compañía ofrecerá facilidades para clientes con casos de uso concretos. Como el renderizado 3D, el proceso de vídeo y la inferencia de datos. Todos respaldados por las GPU L4 de Nvidia para centros de datos. Esta GPU está destinada a cargas de trabajo de uso general com funciones mejoradas de IA y vídeo. Además, ofrece recursos de cálculo especialmente indicados para gráficos, simulación o ciencia y analítica de datos.

Además de estas novedades, OVHcloud ha subrayado la disponibilidad de Data Platform, una plataforma de datos integral que ofrece una solución low code para gestión de analítica y datos. Permite recopilar datos, para lo que cuenta con más de 50 conectores, además de almacenarlos, gestionarlos, analizarlos y visualizarlos. También se encarga de garantizar la seguridad de los datos y cumple con las leyes y normativas relacionadas con ellos.

Las soluciones serverless para IA de la compañía se han desarrollado con AI Notebooks, AI Training y AI Deploy. En conjunto, las soluciones de IA de OVHcloud se han creado para que su uso sea sencillo y permitan experimentar con datos, entrenar modelos o ponerlos en producción. OVHcloud está además desarrollando AI Endpoints, una solución serverless para desarrolladores e integradores.

Con ellas, facilitan el acceso a diversos modelos de IA a través de endpoints de API que requieren pocos conocimientos para poder utilizarlos. Además, respetará la confidencialidad de los datos y permitirá a los desarrolladores probar sus endpoints antes de tener que hacer llamadas a la API. Cuando se lance ofrecerá de salida acceso a diversos modelos, entre los que estarán BERT, YOLO y Mistral 7B.

La empresa está también trabajando en el lanzamiento de la solución gestionada serverless AI App Builder, para generar asistentes con IA generativa contextualizada. Quienes la utilicen podrán introducir sus datos privados en un entorno cloud de confianza. Además, contarán con acceso a varios modelos grandes de lenguaje con solo unos clicks, y podrán desplegar código listo para usar en las aplicaciones. Por el momento se encuentra en una fase temprana de pruebas.

Las instancias basadas en Nvidia H100 PCIe ya están disponibles en OVHcloud Public Cloud desde 2,80 euros por hora, mientras que las AI Solutions basadas en H100 PCIe lo están también a partir de 3.10 euros por hora, con granularidad por minutos.

En cuanto a las instancias GPU con base en Nvidia L40S, L40 y A10, llegarán en primavera a través de Public Cloud desde 1,40 euros por hora en el caso de las L40S y de 0,75 por hora las L4. Los servidores bare metal HGR-AI-2 estarán disponibles bajo petición desde marzo en Europa, Canadá y Estados Unidos. Posteriormente se lanzarán en Asia. Las GPU Scale llegarán a final de 2024 en las mismas regiones.



« Especial »