Broadcom y Nvidia volvieron al centro del debate sobre infraestructura de inteligencia artificial, luego de que Goldman Sachs reafirmara su preferencia por ambas dentro del “ecosistema de computación”, apoyándose en una comparación directa de costos de inferencia entre GPU y ASIC, y en el rol creciente de las redes como pieza crítica del gasto de capital en IA, según un reporte de Investing.com del 20 de enero de 2026.
- Qué midió Goldman con su “curva de costo de inferencia”
- TPU v7: el salto que presiona el binomio GPU vs ASIC
- Por qué Broadcom entra en la conversación, aun sin ser “la GPU”
- La defensa de Nvidia: “time to market” y el foso de CUDA
- Dónde queda AMD y el resto del stack, según el mismo reporte
- Movimientos recientes que el reporte incorpora al mapa competitivo
- El telón de fondo: infraestructura y costo eléctrico como condición de escala
- Datos duros que Goldman pone sobre la mesa en esta comparación
Qué midió Goldman con su “curva de costo de inferencia”
El banco construyó una “curva de costo de inferencia” para comparar soluciones de distintos fabricantes de chips y su competitividad a lo largo del tiempo. El foco del ejercicio es el punto que hoy tensiona a los inversionistas: qué tan rápido se está cerrando la brecha entre aceleradores GPU (dominados por Nvidia) y diseños ASIC usados por hiperescaladores (donde Broadcom aparece por su relación con TPU de Google).
TPU v7: el salto que presiona el binomio GPU vs ASIC
En el reporte citado, Goldman sostiene que el TPU de Google/Broadcom está cerrando rápidamente la brecha frente a las soluciones GPU de Nvidia en costo computacional. El dato más sensible: el TPU v7 lograría aproximadamente 70% de reducción del costo por token frente al TPU v6, quedando a la par o levemente mejor que el GB200 NVL72 de Nvidia en costo absoluto.
Te puede interesar
Wall Street: Las Siete Magníficas sufren su mayor ajuste desde 2022 por dudas sobre la IA
Intel y Google sellan alianza estratégica para potencia en infraestructura de IA
Este punto no instala un “ganador único”, pero sí vuelve más estrecha la ventaja histórica de las GPU cuando el criterio principal es costo de inferencia y no solo flexibilidad.
Por qué Broadcom entra en la conversación, aun sin ser “la GPU”
Goldman fundamenta su preferencia por Broadcom en su exposición a componentes y redes vinculadas al gasto de capital en IA que considera más “sostenible”. La lectura es directa: incluso con presión en cómputo (GPU vs ASIC), el crecimiento de cargas de trabajo obliga a escalar interconexión y redes, y eso abre una avenida de captura de valor para actores bien posicionados en esa capa.
En esa misma lógica, el peso de la infraestructura física que sostiene la IA sigue ampliándose, desde capacidad eléctrica hasta diseño de instalaciones y continuidad operacional, un tema que ya viene tensionando el despliegue global de centros de datos, como se ha visto en las nuevas restricciones físicas que están golpeando el despliegue de data centers.
La defensa de Nvidia: “time to market” y el foso de CUDA
Pese a la presión competitiva que Goldman atribuye al avance del TPU, el banco remarca dos ventajas de Nvidia:
- Tiempo de comercialización (“time to market”) frente a alternativas que llegan después.
- CUDA como ventaja competitiva clave para clientes empresariales.
En otras palabras, aunque el costo por token se apriete desde el mundo ASIC, el ecosistema de software y la velocidad para poner plataformas en producción siguen pesando en la adopción real.
El contexto bursátil también ha reforzado el escrutinio sobre cómo se monetiza el ciclo de inversión en IA y quién captura valor a medida que el mercado separa ganadores y rezagados, un punto que ya se venía observando en la divergencia reciente entre Nvidia y Alphabet en bolsa.
Dónde queda AMD y el resto del stack, según el mismo reporte
Goldman señala que las soluciones Trainium de Amazon y AMD habrían entregado alrededor de 30% de reducción de costos, quedando por detrás de Nvidia y Google en costo absoluto. En el mismo reporte se citan métricas de mercado para AMD, incluyendo:
- PER 121,77.
- Crecimiento de ingresos 31,83% en los últimos doce meses.
- Proyección de +32% de ingresos para el año fiscal 2025.
- Retorno bursátil de 90,87% en el último año y +4,91% en la última semana.
Movimientos recientes que el reporte incorpora al mapa competitivo
El mismo documento menciona hechos recientes en torno a AMD y el entorno de infraestructura:
- Riot Platforms: acuerdo de arriendo y servicios de centro de datos por 10 años con AMD en Rockdale (Texas), con despliegue inicial de 25 MW y potencial expansión a 200 MW, con inicio previsto en enero de 2026.
- Wells Fargo: reiteración de “Overweight” y precio objetivo de US$345 para AMD como elección principal para 2026 por potencial en IA.
- RBC Capital: inicio de cobertura con “Sector Perform” y precio objetivo de US$230 para AMD.
- Mención a una asociación multianual con Cerebras valorada en más de US$10.000 millones para integrar sistemas de IA en infraestructura de OpenAI hasta 2028, citada como factor de mercado tras una caída en acciones de AMD y Nvidia.
El telón de fondo: infraestructura y costo eléctrico como condición de escala
Más allá del debate GPU vs ASIC, el reporte se inserta en un problema operacional que crece más rápido que la oferta: la necesidad de energía, redes y continuidad para operar inferencia a gran escala. La discusión sobre inversión en infraestructura ya venía elevándose en paralelo al aumento del gasto y a las dudas de rentabilidad de los grandes planes, en línea con las comparaciones recientes entre el ciclo de inversión IA y episodios anteriores de sobreinversión tecnológica.
Datos duros que Goldman pone sobre la mesa en esta comparación
- TPU v7: ~70% menos costo por token vs TPU v6.
- TPU v7: costo absoluto a la par o levemente mejor que GB200 NVL72.
- Trainium y AMD: ~30% de reducción de costos (por detrás de Nvidia/Google en costo absoluto).
- AMD: PER 121,77, ingresos +31,83% (12 meses), proyección +32% FY2025, retorno +90,87% (12 meses).
