Microsoft utilizará sus propios chips para Inteligencia Artificial

Microsoft ha anunciado sus propios chips, diseñados por ellos, que utilizarán para tareas de Inteligencia Artificial.


Por el momento son dos modelos, que tal como confirma Reuters no pondrán a la venta, ya que solo planean utilizarnos a nivel interno, en infraestructura utilizada para impulsar su oferta de software de suscripción y sus servicios de computación en la nube Azure.

La compañía ha llevado a su conferencia para desarrolladores, que está celebrando en Seattle, ambos chips, a los que ha llamado Maia y Cobalt. El primero, diseñado para ejecutar modelos grandes de lenguaje, está destinado a la aceleración de tareas de computación de Inteligencia Artificial, como base de la infraestructura para su servicio Copilot para empresas y desarrolladores que quieren crear servicios de IA a medida.

Además de facilitar a la compañía la gestión y la ejecución de sus servicios con IA, el diseño y desarrollo propio de estos chips permite que sus responsables puedan solucionar otro problema: reducir el elevado coste derivado de las cargas de trabajo de la Inteligencia Artificial, que puede ser hasta 10 veces mayor que el derivado de los servicios tradicionales, como los motores de búsqueda.

Desde Microsoft ya han asegurado que planean reducir estos costes derivando prácticamente todos sus proyectos e iniciativas de inserción de IA en sus productos y servicios a través de un paquete de modelos de IA fundacionales, impulsados por una infraestructura que irá integrando progresivamente sus chips. Maia está especialmente diseñado para ello, y optimizado para trabajar con IA.

Pero con Maia y Cobalt, Microsoft no tiene intención de sustituir por completo los chips de terceros que utilizan. Además, a partir del próximo año ofrecerá a sus clientes que utilizan los servicios cloud de Azure una infraestructura con los nuevos chips de gama alta de Nvidia y AMD. Además, está probando GPT-4 sobre chips de AMD. Maia, mientras tanto, permitirá a la compañía vender servicios de IA en la nube hasta que lleguen dispositivos hardware de consumo y para empresa más potentes y que sean capaces de gestionarlos.

El segundo de los chips para IA de Microsoft, Cobalt, está pensado para ahorrar costes a nivel interno, pero también como respuesta a AWS, el principal rival de Microsoft en el sector de la nube. Está creado a partir de arquitectura de ARM, y por ahora lo están probando para la infraestructura que hay detrás de su herramienta de comunicación para empresas Teams. Al parecer, también quieren dar acceso directo a Cobalt a sus clientes, para competir con AWS y sus chips Graviton, al que ya tienen acceso unos 50.000 de sus clientes.

Por ahora, los de Redmond han ofrecido muy pocos detalles de sus chips, lo que dificulta saber cómo son de avanzados con respecto a los chips tradicionales. Según ha manifestado el Vicepresidente de sistemas e infraestructuras de Azure, Rani Borkar, ambos están creados con tecnología de fabricación de 5 nanómetros, y la compañía encargada de su fabricación es TSMC. Además, ha añadido que Maia incorporará cableado de red Ethernet convencional, en vez de la tecnología de red de Nvidia personalizada que Microsoft utilizó en los superordenadores fabricados para OpenAI.