Banner Edicion Impresa

Monitor Software


Microsoft desarrolla una IA más pequeña y barata que OpenAI

Microsoft desarrolla una IA más pequeña y barata que OpenAI
Microsoft quiere reducir su dependencia de OpenAI

Publicación:25-01-2024
++--

La empresa quiere ser menos dependiente de OpenAI, por lo que estaría trabajando en un nuevo modelo de lenguaje más pequeño que GPT-4.

 

 

Microsoft estaría desarrollando un modelo de inteligencia artificial más pequeño y barato. La compañía busca ofrecer una alternativa a GPT, pero sin los requerimientos de hardware y mantenimiento que implica esta tecnología. El objetivo a largo plazo es construir una IA que esté al nivel de lo que ofrecen OpenAI y otras empresas.

De acuerdo con un reporte de The Information, Microsoft formó un equipo para desarrollar una inteligencia artificial conversacional que requiere menos poder de cómputo que ChatGPT. La nueva división, conocida como GenAI, será liderada por Misha Bilenko, antiguo director de Azure AI. El gigante tecnológico echará mano de sus desarrolladores de IA con más experiencia y los reubicará en GenAI desde este mes.

La tarea de Bilenko y su equipo será construir un modelo de lenguaje pequeño (SLM) optimizado para consumir menos recursos. Microsoft quiere crear una IA que iguale (o supere) a la de OpenAI, aunque sin los requerimientos de hardware que representa.

A diferencia de los modelos de lenguaje grandes (LLM), como GPT-4 o Gemini, los SLM tienen menos parámetros y pueden ejecutarse en dispositivos móviles. Otra característica de los modelos de lenguaje pequeños es que requieren menos cantidad de datos para entrenarlos. Actualmente, Microsoft tiene dos modelos de este tipo: Phi 2 y Orca 2, este último basado en de Llama 2.

La tecnológica quiere reducir la huella de carbono que representan los modelos grandes. Un estudio efectuado por investigadores de la Universidad de California encontró que el entrenamiento de un LLM puede costar hasta 100.000 millones de dólares y produce la misma cantidad de emisiones de CO2 que la ciudad de Nueva York durante un mes.

La primera evidencia de que Microsoft trabajaba en este modelo surgió en septiembre de 2023.

Microsoft quiere reducir su dependencia de OpenAI

La idea de desarrollar un modelo de lenguaje pequeño es otro paso de Microsoft en su estrategia por consolidar su apuesta por la inteligencia artificial. Si bien realizó una inversión multimillonaria en OpenAI, el gigante tecnológico no quiere depender exclusivamente de esta tecnología.

En una entrevista con Bloomberg durante el foro de Davos, Satya Nadella declaró que sus productos no se basan en un solo modelo. El director ejecutivo de Microsoft mencionó que invertirán en modelos con distintas capacidades, aunque aclaró que existe un vínculo muy profundo con OpenAI.

"Siento que somos muy capaces de controlar nuestro propio destino. Nos preocupamos por tener el mejor modelo de frontera, que hoy es GPT-4", dijo Nadella. "Pero también tenemos Mixtral en Azure como modelo como servicio. Usamos Llama en algunos lugares. Tenemos Phi, que es el mejor SLM de Microsoft."

La asociación entre Microsoft y OpenAI ha sido objeto de escrutinio por los reguladores de varios países. La Autoridad de Competencia y Mercados de Reino Unido (CMA) afirmó en diciembre que monitorea de cerca el impacto de las alianzas en la industria de la inteligencia artificial. La CMA teme que esta alianza debilite la competencia en el desarrollo de modelos de lenguaje.

Por otro lado, la FTC abrió la puerta a una investigación para conocer si la inversión de Microsoft en OpenAI es sujeta a la Ley de Fusiones de Estados Unidos. Al igual que la CMA, la autoridad estadounidense considera que estaríamos ante un escenario de fusión, aunque la empresa de Sam Altman es una organización sin ánimos de lucro, por lo que no está sujeta a estas leyes.

La última en sumarse a la mesa es la Comisión Europea, quien hizo un llamado a todos los involucrados para comentar si la asociación entre OpenAI y Microsoft atenta contra la competencia.



« Especial »