Meta estaba perdiendo la carrera de la IA: acaba de dar un giro de 180 grados con el anuncio de su chip especializado

 


Cuando Facebook, Inc. se convirtió en Meta Platforms, Inc. en octubre de 2021, a menos que tuviese la extraordinaria capacidad de vislumbrar el futuro, Mark Zuckerberg posiblemente no se imaginaba que su ambiciosa apuesta por el metaverso se toparía con un obstáculo monumental aproximadamente un año más tarde.

En noviembre de 2022 OpenAI presentó ChatGPT y en cuestión de días casi todo el mundo estaba hablando de las características del chatbot conversacional. Para muchos este movimiento fue el punto de partida de una carrera por liderar en el campo de la inteligencia artificial que sacudió fuertemente a la industria tecnológica.

Algunas compañías se encontraban en una posición más favorable que otras. Microsoft, indudablemente, era una de ellas. Los de Redmond habían invertido 1.000 millones de dólares en la compañía dirigida por Sam Altman en 2019 y, al ver lo que estaba sucediendo, volvieron a sacar la chequera, esa vez por 10.000 millones de dólares.

El gran cambio de Meta

A todo esto, Meta seguía quemando una fortuna en el metaverso, una idea a largo plazo que se presentaba con numerosos desafíos. Para alcanzar los resultados deseados hacían falta importantes avances en en el campo de la realidad virtual y aumentada. Se tenía que desarrollar un modelo de negocio sólido. Y, por último, tardaría años en ser rentable.

Las oportunidades, aparentemente, estaban en el mundo de la inteligencia artificial, pero en el más alto nivel. Y no es que la compañía de redes sociales no hubiera tenido experiencia en este sector, por ejemplo, sus sistemas de recomendación de contenidos y su plataforma publicitaria se sostienen principalmente por algoritmos avanzados.

Sino que su capacidad para demostrar avances significativos para desarrollar modelos de lenguaje de próxima generación estaba un paso atrás. Según documentos vistos por Reuters, la infraestructura de la compañía necesitaba cambios sustanciales para ponerse al día mientras el uso en producción de un chip de IA propio no cuajaba del todo.

Las filtraciones señalan que el golpe de timón definitivo se concretó a finales del verano de 2022, pero ahora es cuando empezamos a ver los resultados. Aunque Meta asegura que sigue comprometida con el metaverso, demuestra claramente un fuerte enfoque hacia la IA, con proyectos que incluyen a los algoritmos generativos y más allá.

Si bien estas juegan un papel fundamental en los centros de datos dedicados al entrenamiento de modelos de IA, según la compañía de redes sociales, no son tan eficientes en el proceso de inferencia. Para poner un poco de contexto, la inferencia es la segunda fase del proceso de aprendizaje automático, la que se presenta después del entrenamiento.

En el entrenamiento, como hemos mencionado antes, el modelo aprende de los datos y se ajustan sus parámetros para que brinde respuestas en un proceso que demanda mucho tiempo y capacidad de cálculo. En la inferencia se pone en práctica lo aprendido dando respuestas, pero con una fracción de la potencia utilizada en el entrenamiento.

CPU MEJOR QUE GPU PARA EL PROCESO DE INFERENCIA

Partiendo de esta premisa, Meta cambió su enfoque. En lugar de utilizar sistemas basados en GPU para los procesos de inferencia, apostó por utilizar CPU (Unidad Central de Procesamiento). Esto significó una oportunidad para desarrollar su propia familia de chips llamados Meta Training and Inference Accelerator (MTIA) específicos para la inferencia.

Si bien este proyecto tiene su origen en 2020, ahora es cuando la compañía ha decidido hablar públicamente de él. Y esto llega con algunos datos técnicos interesantes. Estamos frente a chips fabricados bajo el proceso de fotolitografía de 7 nanómetros de TSMC cuyo TDP es de 25 W. Está diseñado para soportar hasta 128 GB de memoria.

Cada CPU está montado en placas M.2 que se conectan a través de ranuras PCIe Gen4 x8. Recordemos que los centros de datos tienen múltiples de estos chips que funcionan al unísono para ofrecer elevados niveles de potencia de cálculo. Estas características, mencionadas a grandes rasgos, no son definitivas y siguen evolucionando.

Desconocemos cuánto entrarán en juego estos chips desarrollados por Meta y fabricados por TSMC, pero el siguiente punto puede servirnos de guía. La compañía ya está trabajando en sus centros de datos de próxima generación, que complementarán el trabajo del SRC. Precisamente, el corazón de estos data center serán los chips MTIA.

Meta asegura que controlar de raíz los componentes físicos y de software de sus próximos centros de datos se traduce en una “experiencia de extremo a extremo” que les permitirá mejorar sustancialmente su capacidad de centros de datos, aunque no menciona fechas. Eso sí, recordemos que estamos en medio de una carrera.

Imágenes: Meta

Fuente : Xataka 




0 Comentarios

Publicar un comentario
Noticias Similares : ×