La era digital está dominada por monopolios que han logrado su colossal crecimiento al controlar sectores específicos. Google revolucionó las búsquedas en Internet, Meta se posicionó como un gigante en redes sociales, Microsoft se consolidó gracias a Windows y su software empresarial, y Amazon se asocia con el comercio electrónico. Actualmente, Nvidia se destaca como el principal proveedor de chips para inteligencia artificial (IA), superando ampliamente a sus competidores.
Las unidades de procesamiento gráfico (GPUs) de Nvidia son consideradas la mejor opción para entrenar y ejecutar modelos de IA. Empresas desarrolladoras de IA, como OpenAI y Google, además de varias startups, compiten ferozmente por asegurarse estos chips. Este dominio ha llevado a Nvidia a convertirse en la compañía más valiosa del mundo, aunque sus clientes buscan alternativas debido a la falta de competencia real que limite los precios de sus productos.
La situación se complica para Nvidia ante el aumento de la demanda y una lista interminable de órdenes de compra. La competencia en este sector es escasa, con Intel mostrando un crecimiento lento y AMD intensificando su presencia, mientras que startups como Cerebras y Groq han empezado a desarrollar procesadores especializados. Sin embargo, estos esfuerzos aún no son suficientes.
Inversión en Desarrollo de Chips Propios
Las grandes empresas de IA están invirtiendo cada vez más en el desarrollo de sus propios chips. A finales del año pasado, Amazon presentó su chip Trainium3, y Google anunció su séptima generación de unidades de procesamiento tensorial (TPUs), llamada Ironwood. Por su parte, Microsoft indicó que planea depender mayoritariamente de sus propios chips para sus operaciones, y OpenAI ya ha establecido un acuerdo con Broadcom para crear sus propios procesadores.
Fernando Maldonado, analista principal de Foundry, destaca que existe un interés estratégico en romper la dependencia de Nvidia y sus precios: «Los grandes proveedores de servicios en la nube están diseñando sus propios chips para diferentes tareas, aunque solo Google puede ofrecer cierta competencia a corto plazo”.
Acuerdos Prometedores en el Sector
Google ha sorprendido al sector anunciando que su último modelo de IA, Gemini 3, fue entrenado exclusivamente con sus TPUs. Esto marca un cambio significativo, ya que modelos anteriores utilizaban una combinación de chips de Nvidia y otros. La startup Anthropic también ha manifestado su interés en alquilar TPUs de Google en un acuerdo multimillonario.
Además, Meta podría estar en conversaciones para alquilar capacidad de computación y, potencialmente, adquirir TPUs para integrar en sus centros de datos. Estas iniciativas indican un movimiento claro hacia la diversificación y la mejora de la competitividad en el sector.
Perspectivas del Mercado de Chips para IA
Se prevé que el mercado de chips aceleradores de IA crezca a un ritmo anual del 16%, alcanzando los 604.000 millones de dólares en 2033, según Bloomberg Intelligence. De este total, Nvidia se quedaría con un 70-75% del mercado, mientras que AMD ocuparía un 10%. Los chips de arquitectura ASIC, diseñados para tareas específicas, representarán el 19% del mercado, donde se incluyen los procesadores de Google, Amazon, Microsoft, Meta y OpenAI.
«No diría que el mercado de Nvidia está en riesgo, pero seguramente notará un impacto en su crecimiento», afirma Jemish Parmar, CTO de la empresa española Ideaded. Aunque Nvidia ha demostrado adaptarse a distintas demandas computacionales, el aumento de competencia podría influir en sus ventas futuras.
Los Retos Energéticos en el Sector
Una de las preocupaciones generales es el costo de las GPUs, especialmente dado el contexto de monopolio de Nvidia. La compañía ha mantenido precios elevados, aunque la presión por innovar podría hacerla reconsiderar su estrategia. La versatilidad de las GPUs se debe a su programación general, pero eso también implica un mayor consumo energético porque partes del chip pueden no estar optimizadas para las tareas específicas que se realizan.
En este aspecto, las TPUs de Google presentan ventajas al ser más eficientes en funciones concretas, aunque el rendimiento total de un centro de datos depende de múltiples factores, no solo del chip utilizado. A medida que la industria avanza, se prevé una evolución en la eficiencia en el manejo de carga de trabajo de IA, acompañada de un cambio hacia fuentes de energía más limpias.
Las proyecciones indican que el consumo energético en centros de datos podría duplicarse para 2030, representando el 3% del consumo global de energía, siendo Estados Unidos y China responsables del 80% de dicho incremento.