Banner Edicion Impresa

Monitor Más Monitor


OpenAI tendrá su primer chip para IA en 2026

OpenAI tendrá su primer chip para IA en 2026
OpenAI ha estado trabajando desde hace meses con Broadcom

Publicación:31-10-2024
++--

OpenAI ha confirmado que tendrá listo su primer chip para impulsar sus sistemas de IA a lo largo de 2026, de la mano de Broadcom y TSMC.

 

Pero a diferencia de lo que se planteaba hace unos meses, no lo desarrollará de manera interna, sino que será un desarrollo externo. Para ello, la compañía se ha aliado con Broadcom y TSMC. Además, según Reuters, también sumará a sus sistemas chips de AMD y Nvidia para cubrir sus necesidades de infraestructura para trabajar con Inteligencia Artificial.

La compañía lleva ya un tiempo valorando opciones para reducir costes y diversificar el suministro de chips que necesita. En un primer momento pensaron en desarrollar todo a nivel interno, para lo que querían conseguir más financiación. Su objetivo: construir una red de fábricas para fabricar chips. Pero finalmente han abandonado sus planes por los elevados costes que supondría la fabricación interna.

OpenAI necesita una elevadísima potencia de computación para entrenar y hacer funcionar sus sistemas y modelos. Es uno de los principales compradores de GPUs de Nvidia, y usa chips tanto para entrenar modelos en los que la IA aprende de datos, como para inferencia, aplicando la IA para las predicciones y decisiones que toma con base en la información nueva que reciben.

Al parecer, OpenAI ha estado trabajando desde hace meses con Broadcom para que su primer chip de IA sea para inferencia, aunque ahora la demanda es mayor para los chips dedicados a entrenamiento. Pero las predicciones de cara a futuro elevan la necesidades de chips de inferencia, que a medio plazo podrían adelantar en demanda a los de entrenamiento a medida que se desplieguen más aplicaciones de IA.

Por ahora, los planes de OpenAI para entrenar modelos pasan por utilizar chips de AMD a través de la plataforma cloud de Microsoft Azure. Hasta ahora han dependido casi por completo de GPUs de Nvidia para hacerlo, pero han cambiado de sistema por la escasez de chips y los retrasos en infraestructura, así como por el alto coste del entrenamiento siguiendo únicamente dicho sistema.

Además, OpenAI está valorando si desarrolla o compra otros elementos que necesita para diseñar más tipos de chip, y puede que llegue a acuerdos con más compañías para hacerse con ellas. Mientras tanto, su dirección ha creado un grupo dedicado a los chips, compuesto por una veintena de personas y con ingenieros que han desarrollado en su momento TPUs (Unidades de proceso Tensor) en Google como responsables.

 



« Especial »