Meta, la empresa propietaria de Facebook, está probando su primer chip interno para entrenar sistemas de inteligencia artificial (IA), un hito en su búsqueda por diseñar más chips personalizados y reducir su dependencia de proveedores como Nvidia.
Presupuesto de inversión estimado de 119 mil millones de dólares
Meta, la empresa de redes sociales más grande del mundo, ha comenzado a realizar pruebas del chip a pequeña escala y planea aumentar la producción para un uso generalizado si la prueba tiene éxito.
Meta, la empresa propietaria de Facebook, está probando su primer chip interno para entrenar sistemas de inteligencia artificial (IA).
El impulso para desarrollar chips internos es parte del plan a largo plazo de Meta para reducir sus enormes costos de infraestructura, mientras la compañía apuesta a lo grande por las herramientas de IA para impulsar el crecimiento.
Meta, que también posee Instagram y WhatsApp, pronostica que el gasto total en 2025 oscilará entre 114.000 y 119.000 millones de dólares, incluidos hasta 65.000 millones de dólares en gastos de capital, impulsados en gran medida por inversiones en infraestructura de inteligencia artificial.
El nuevo chip de entrenamiento de Meta es un acelerador dedicado, lo que significa que está diseñado para gestionar únicamente tareas específicas de IA, según una fuente. Esto lo hace más eficiente energéticamente que las unidades de procesamiento gráfico (GPU) integradas que se suelen utilizar para cargas de trabajo de IA.
Según la fuente, Meta está cooperando con el mayor fabricante de chips por contrato del mundo, TSMC, para producir este chip.
El despliegue de prueba comenzó después de que Meta completara el primer "tape-out" del chip, un hito importante en el desarrollo de chips de silicio que implica enviar el diseño inicial a una planta de fabricación de chips. Un proceso típico de "tape-out" cuesta decenas de millones de dólares y tarda entre tres y seis meses en completarse, sin garantía de éxito. Si falla, Meta deberá diagnosticar el problema y repetir el paso de "tape-out".
El chip es el último en la línea Meta Training and Inference Accelerator (MTIA) de la compañía, un programa que ha tenido un comienzo difícil a lo largo de los años y que ha visto cancelado un chip en una etapa similar de desarrollo.
Sin embargo, el año pasado, Meta comenzó a usar un chip MTIA para realizar inferencias (el proceso de ejecutar un sistema de IA a medida que los usuarios interactúan con él) para los sistemas de recomendación que deciden qué contenido aparece en los feeds de noticias de Facebook e Instagram.
Meta planea utilizar chips de entrenamiento internos para 2026
Los ejecutivos de Meta dicen que quieren comenzar a usar chips internos en 2026 para entrenamiento, que es el proceso computacionalmente intensivo de alimentar a un sistema de IA con cantidades masivas de datos para "enseñarle" cómo operar.
Los ejecutivos de Meta dicen que quieren comenzar a utilizar chips internos para capacitación en 2026.
Al igual que con el chip de inferencia, el objetivo del chip de entrenamiento es comenzar con sistemas de recomendación y luego usarlo para productos de IA generativa como el chatbot Meta AI, según informaron los ejecutivos. "Estamos analizando cómo realizamos el entrenamiento para los sistemas de recomendación y luego cómo concebimos el entrenamiento y la inferencia para la IA generativa", declaró Chris Cox, director de producto de Meta, en la conferencia de tecnología, medios y telecomunicaciones de Morgan Stanley la semana pasada.
El Sr. Cox describió los esfuerzos de desarrollo del chip de Meta como "una situación de caminar, gatear y luego correr" hasta ahora, pero dijo que los ejecutivos consideran que el chip de inferencia de primera generación para sistemas de recomendación es "un gran éxito".
Meta canceló previamente un chip de inferencia personalizado interno después de que fallara en una implementación de prueba a pequeña escala similar a la actual para el chip de entrenamiento, y en su lugar volvió a ordenar miles de millones de dólares en GPU de Nvidia en 2022.
Desde entonces, la empresa de redes sociales se ha mantenido como uno de los principales clientes de Nvidia, acumulando una flota de GPU para entrenar sus modelos, incluyendo sus sistemas de recomendación y publicidad, y su familia de modelos de plataforma Llama. Estas unidades también realizan inferencias para los más de 3 mil millones de personas que usan sus aplicaciones a diario.
El valor de esas GPU ha sido cuestionado este año a medida que los investigadores de IA se han vuelto cada vez más escépticos sobre cuánto progreso adicional se puede lograr al continuar "ampliando" modelos de lenguaje grandes agregando más datos y poder de cómputo.
Estas dudas se vieron reforzadas por el lanzamiento a finales de enero de nuevos modelos de bajo coste de la empresa china DeepSeek, que optimizan la eficiencia computacional al confiar más en la inferencia que la mayoría de los modelos actuales.
Las acciones de Nvidia llegaron a perder hasta una quinta parte de su valor durante una ola de ventas global de acciones de IA provocada por DeepSeek. Desde entonces, han recuperado gran parte de sus pérdidas, ya que los inversores apostaron a que los chips de la compañía seguirían siendo el estándar de la industria para entrenamiento e inferencia, aunque desde entonces han retrocedido debido a preocupaciones comerciales más amplias.
[anuncio_2]
Fuente: https://www.baogiaothong.vn/meta-bat-dau-thu-nghiem-chip-dao-tao-ai-noi-bo-dau-tien-192250312120123752.htm
Kommentar (0)