El yen japonés se debilitó en las operaciones asiáticas el lunes frente a una cesta de divisas, tanto principales como secundarias, reanudando su declive tras una breve pausa en la sesión anterior frente al dólar estadounidense y acercándose de nuevo a sus niveles más bajos en diez meses. La moneda se mantiene bajo una clara presión ante la persistente preocupación por las políticas de estímulo del primer ministro Sanae Takaichi.
Al mismo tiempo, los analistas ven pocas posibilidades de una intervención directa para apoyar al yen antes de que alcance los 160 por dólar. Los inversores también esperan nuevas pistas sobre la trayectoria del Banco de Japón hacia la normalización de su política monetaria y posibles subidas de tipos.
Resumen de precios
• El USD/JPY subió alrededor de un 0,3% a 156,80¥ desde un nivel de apertura de 156,37¥, después de tocar un mínimo de sesión de 156,37¥.
• El yen terminó la sesión del viernes con una ganancia de 0,7% frente al dólar (su primer avance en seis días), apoyado por compras de oferta después de haber alcanzado un mínimo de diez meses de 157,89 el día anterior.
• La moneda perdió un 1,2% la semana pasada, marcando una segunda caída semanal consecutiva, presionada por el paquete de estímulo de Takaichi.
Las políticas de estímulo de Takaichi
El gabinete japonés, encabezado por Sanae Takaichi, aprobó a finales de la semana pasada un paquete de estímulo económico de 21 billones de yenes (135 000 millones de dólares), la primera iniciativa política importante del gobierno. El programa refleja su enfoque fiscal expansivo, destinado a apoyar la lenta actividad económica de Japón.
El paquete incluye 17,7 billones de yenes en gastos generales, superando con creces los 13,9 billones de yenes del año pasado, lo que lo convierte en el mayor estímulo desde la pandemia de COVID-19. También incluye 2,7 billones de yenes en recortes de impuestos. El gobierno planea aprobar un presupuesto suplementario el 28 de noviembre para obtener la aprobación parlamentaria antes de fin de año.
Vistas y análisis
• Christopher Wong, estratega de divisas de OCBC, dijo que no se descarta una intervención antes de que el USD/JPY alcance 160, y agregó que cualquier movimiento podría ser brusco dadas las escasas condiciones de liquidez.
• Michael Boutros, estratega jefe de StoneX, señaló que existe un tira y afloja constante entre el Banco de Japón y el nuevo primer ministro, que es “muy pro-empresarial y quiere que los mercados se mantengan muy cómodos”.
• Boutros añadió: «No creo que vayan a modificar los tipos de interés a corto plazo. Lo que podríamos ver, en cambio, son conversaciones sobre intervención y más advertencias a medida que continúen estas medidas».
Tasas de interés japonesas
• Actualmente el mercado estima una probabilidad de aproximadamente el 35% de un aumento de las tasas del BOJ de 25 puntos básicos en diciembre.
• Para reevaluar estas probabilidades, los inversores están observando los próximos datos sobre inflación, desempleo y crecimiento salarial en Japón.
Las criptomonedas cayeron en general el viernes, extendiendo las fuertes pérdidas que las han arrastrado muy por debajo de los máximos recientes, con el Bitcoin cayendo por debajo de los 82.000 dólares.
El descenso se produce en un contexto de apuestas encontradas sobre la política de la Reserva Federal. El último informe de empleo de EE. UU. redujo las esperanzas de una bajada de tipos en diciembre, pero esas expectativas resurgieron hoy tras las declaraciones de un alto funcionario de la Fed.
John Williams, presidente de la Reserva Federal de Nueva York, dijo el viernes que espera que el banco central tenga mayor margen para reducir los tipos de interés.
El influyente responsable político explicó, durante sus declaraciones en Chile, que considera que los riesgos que enfrenta el mercado laboral son mayores que los relacionados con la inflación, haciéndose eco de las opiniones de los miembros más moderados del FOMC.
Williams añadió: “Considero que la política monetaria sigue siendo moderadamente restrictiva, aunque menos que antes de nuestras recientes medidas. Por lo tanto, sigo viendo margen para un ajuste adicional a corto plazo del rango objetivo para la tasa de fondos federales, con el fin de acercar la política a la neutralidad y mantener el equilibrio entre nuestros dos objetivos”.
Según la herramienta CME FedWatch, la probabilidad de un recorte de tipos de 25 puntos básicos en la reunión de diciembre subió al 75%, frente al 39% del día anterior y el 44,4% de hace una semana.
Los datos gubernamentales publicados hoy mostraron que el PMI manufacturero de EE. UU. disminuyó a 51,9 en noviembre desde 52,5 anteriormente, cerca de las expectativas de 52.
Mientras tanto, el PMI de servicios subió a 55 este mes desde 54,8, desafiando los pronósticos de una caída a 54,6.
La encuesta de confianza del consumidor de la Universidad de Michigan también mejoró, pasando de 50,3 a 51 y superando las expectativas de 50,6.
Ethereum
En cuanto a las operaciones, Ethereum cayó un 3,7% hasta los 2.739,9 dólares a las 21:11 GMT, lo que eleva sus pérdidas de la semana al 13,2%.
Nvidia superó todas las expectativas el miércoles, al reportar ganancias disparadas impulsadas por sus unidades de procesamiento gráfico (GPU), que destacan en la ejecución de tareas de inteligencia artificial. Sin embargo, otras clases de chips para IA están empezando a ganar terreno.
Todos los principales proveedores de servicios en la nube están diseñando sus propios circuitos integrados de aplicación específica (ASIC), desde la TPU de Google hasta Trainium de Amazon, pasando por los planes de OpenAI con Broadcom. Estos chips son más pequeños, económicos y fáciles de usar, y podrían reducir la dependencia de estas empresas de las GPU de Nvidia. Daniel Newman, de Futurum Group, declaró a CNBC que prevé que los chips ASIC «crezcan más rápido que el mercado de las GPU en los próximos años».
Además de las GPU y los ASIC, existen las matrices de puertas programables en campo (FPGA), que pueden reconfigurarse tras su fabricación para aplicaciones como el procesamiento de señales, las redes y la IA. También existe toda una generación de chips de IA diseñados para ejecutarse directamente en los dispositivos, en lugar de a través de la nube; un segmento liderado por empresas como Qualcomm y Apple.
CNBC habló con expertos y personas con información privilegiada de las principales empresas tecnológicas para analizar este panorama tan saturado y los diferentes tipos de chips de IA.
GPU para computación de propósito general
Las GPU, que antes se usaban principalmente para videojuegos, convirtieron a Nvidia en la empresa pública más valiosa del mundo al convertirse en el motor de la IA moderna. Nvidia distribuyó aproximadamente 6 millones de unidades de sus GPU «Blackwell» de última generación el año pasado.
El cambio de los videojuegos a la IA comenzó en 2012, cuando los investigadores entrenaron la red neuronal AlexNet utilizando GPU de Nvidia, un avance que muchos consideran el detonante de la revolución moderna de la IA. AlexNet compitió en un prestigioso concurso de reconocimiento de imágenes y, gracias al uso de GPU en lugar de CPU, logró una precisión asombrosa y una importante ventaja competitiva.
La misma capacidad de procesamiento paralelo que permite a las GPU generar gráficos realistas también las hace ideales para entrenar modelos de aprendizaje profundo, que aprenden a partir de datos en lugar de programación explícita.
Actualmente, las GPU se venden para sistemas de centros de datos, donde se combinan con CPU para ejecutar cargas de trabajo de IA basadas en la nube. Las CPU cuentan con un número reducido de núcleos potentes para tareas secuenciales, mientras que las GPU tienen miles de núcleos más pequeños especializados en operaciones paralelas, como la multiplicación de matrices.
Gracias a su capacidad para ejecutar una gran cantidad de operaciones simultáneamente, las GPU son ideales tanto para el entrenamiento como para la inferencia. El entrenamiento enseña a los modelos de IA a encontrar patrones en conjuntos de datos enormes; la inferencia utiliza esos modelos para tomar decisiones sobre nueva información.
Las GPU siguen siendo el motor principal tanto para Nvidia como para su competidor más cercano, AMD. El software es un factor clave que los diferencia: Nvidia se basa en su ecosistema CUDA, mientras que AMD ofrece una plataforma mayoritariamente de código abierto.
Ambas compañías venden GPU en la nube a proveedores como Amazon, Microsoft, Google, Oracle y CoreWeave, que luego alquilan la potencia informática a desarrolladores de IA.
El acuerdo de Anthropic con Nvidia y Microsoft, por valor de 30.000 millones de dólares, incluye, por ejemplo, el equivalente a 1 gigavatio de capacidad informática basada en hardware de Nvidia. AMD también ha conseguido recientemente importantes compromisos de OpenAI y Oracle.
Nvidia también vende directamente a gobiernos y empresas de IA —incluyendo al menos 4 millones de GPU a OpenAI— y a gobiernos extranjeros como Corea del Sur, Arabia Saudita y el Reino Unido.
La compañía informó a CNBC que cobra aproximadamente 3 millones de dólares por cada gabinete de servidor que contiene 72 GPU Blackwell, y que envía alrededor de 1.000 gabinetes de este tipo cada semana.
Dion Harris, director sénior de infraestructura de IA de Nvidia, afirmó que nunca imaginó que la demanda alcanzaría este nivel. «Cuando hablamos con las empresas sobre un sistema de ocho GPU hace años, les pareció excesivo».
Circuitos integrados de aplicación específica (ASIC) para IA especializada en la nube
El entrenamiento basado en GPU impulsó la primera generación de grandes modelos de lenguaje, pero la inferencia ha cobrado cada vez más importancia a medida que los modelos maduran. La inferencia puede ejecutarse en chips menos flexibles y de menor coste, diseñados específicamente para ciertas operaciones matemáticas; aquí es donde entran en juego los ASIC.
Si una GPU es una “navaja suiza” que puede ejecutar muchas tareas paralelas diferentes, un ASIC es una herramienta de propósito único: extremadamente rápida y eficiente, pero limitada a un solo tipo de operación una vez fabricada.
“Una vez grabados en el silicio, estos chips no se pueden modificar”, afirmó Chris Miller, autor de *Chip War*. “Existe un equilibrio entre eficiencia y flexibilidad”.
Las GPU de Nvidia son lo suficientemente versátiles como para cubrir innumerables necesidades de IA, pero son caras (hasta 40 000 dólares por unidad) y difíciles de conseguir. Las empresas emergentes dependen de ellas en parte porque diseñar un ASIC personalizado puede costar decenas de millones.
Sin embargo, los gigantes de la nube están invirtiendo fuertemente en ASIC porque prometen importantes ahorros a gran escala.
“Estas empresas quieren tener más control sobre las cargas de trabajo que generan”, dijo Newman. “Pero seguirán trabajando con Nvidia y AMD; la demanda de computación es enorme”.
Google fue la primera empresa en desarrollar un ASIC de IA personalizado, lanzando la Unidad de Procesamiento de Tensores (TPU) en 2015. El trabajo comenzó en 2006, pero se volvió urgente en 2013 cuando Google se percató de que la IA podría duplicar el tamaño de sus centros de datos. En 2017, la TPU contribuyó a habilitar la arquitectura Transformer, que sustenta la mayor parte de la IA moderna.
Google presentó la TPU de séptima generación en noviembre. Anthropic entrenará su modelo Claude en un millón de TPU. Algunos creen que las TPU rivalizan con las GPU de Nvidia, o incluso las superan.
“Mucha gente espera que Google eventualmente haga que las TPU estén disponibles de forma más generalizada”, dijo Miller.
AWS siguió adelante con sus propios chips después de adquirir Annapurna Labs en 2015. Lanzó Inferentia en 2018 y Trainium en 2022, y se espera que Trainium3 llegue pronto.
Amazon afirma que Trainium ofrece una relación precio-rendimiento entre un 30 % y un 40 % superior a la de las alternativas. Anthropic utiliza actualmente medio millón de chips Trainium2 para entrenar sus modelos.
Para fabricar circuitos integrados de aplicación específica (ASIC) personalizados, los proveedores de servicios en la nube dependen de empresas como Broadcom y Marvell, que aportan propiedad intelectual crítica y experiencia en redes. «Por eso Broadcom se ha convertido en uno de los mayores beneficiarios del auge de la IA», afirmó Miller.
Broadcom ayudó a diseñar las TPU de Google y los aceleradores 2023 de Meta, y está fabricando chips personalizados para OpenAI a partir de 2026.
Microsoft ha desarrollado el Maia 100. Qualcomm cuenta con el A1200. Intel ofrece la línea Gaudi. Tesla trabaja en su chip AI5. Empresas emergentes como Cerebras y Groq impulsan arquitecturas innovadoras.
En China, Huawei, ByteDance y Alibaba están diseñando sus propios ASIC a pesar de las restricciones a la exportación de Estados Unidos.
Inteligencia artificial a nivel de dispositivo con NPU y FPGA
Una tercera categoría de chips de IA está diseñada para ejecutar modelos directamente en los dispositivos, en lugar de hacerlo a través de la nube. Estos chips suelen integrarse en sistemas en chip (SoC) y se conocen como procesadores de IA en el borde. Permiten que las funciones de IA se ejecuten de forma local y eficiente, preservando la duración de la batería y la privacidad.
“Podrás ejecutar tareas de IA directamente en tu teléfono con una latencia extremadamente baja”, dijo Saif Khan, exasesor de IA y tecnología de la Casa Blanca. “Y sin enviar datos a un centro de datos”.
Las Unidades de Procesamiento Neuronal (NPU) constituyen una parte importante de esta categoría, desarrolladas por Qualcomm, Intel, AMD y otros.
Apple no utiliza el término NPU, pero incorpora un “motor neuronal” en sus chips Mac de la serie M y en sus chips móviles de la serie A.
“Ese enfoque ha demostrado ser increíblemente eficaz”, dijo Tim Millet, vicepresidente de arquitectura de plataforma de Apple. “Es rápido y nos da más control sobre la experiencia”.
Los chips Snapdragon en los teléfonos Android, las NPU personalizadas de Samsung y los procesadores de IA en el borde de NXP y Nvidia impulsan la IA en automóviles, robots, cámaras y dispositivos domésticos inteligentes.
“Actualmente, la mayor parte del gasto se destina todavía a centros de datos”, dijo Miller. “Pero eso cambiará a medida que la IA se extienda a teléfonos, automóviles, dispositivos portátiles y todo lo demás”.
Los FPGA ofrecen aún más flexibilidad porque pueden reprogramarse después de su fabricación, aunque son menos eficientes energéticamente que los ASIC o las NPU.
AMD se convirtió en el mayor fabricante de FPGA tras adquirir Xilinx por 49.000 millones de dólares en 2022. Intel ocupa el segundo lugar tras comprar Altera por 16.700 millones de dólares en 2015.
En resumen: Nvidia sigue muy por delante.
Todas estas empresas de chips de IA dependen de un único fabricante: TSMC en Taiwán.
TSMC está construyendo una enorme planta de fabricación en Arizona, donde Apple trasladará parte de su producción. El CEO de Nvidia, Jensen Huang, afirmó en octubre que las GPU Blackwell también han alcanzado la "plena producción" en dicha planta.
A pesar de la creciente competencia en el mercado, desbancar a Nvidia sigue siendo extremadamente difícil.
“Nvidia está en esta posición porque se la ha ganado”, dijo Newman. “Pasó años construyendo este ecosistema de desarrolladores, y es el que ha ganado”.
La mayoría de los índices bursátiles estadounidenses subieron el viernes al resurgir el optimismo sobre posibles recortes de tipos por parte de la Reserva Federal.
John Williams, presidente de la Reserva Federal de Nueva York, afirmó el viernes que prevé que el banco central tendrá mayor margen para bajar los tipos de interés. El influyente responsable de la política monetaria, durante su intervención en Chile, señaló que los riesgos para el mercado laboral superan ahora a los relacionados con la inflación, haciéndose eco de la postura de los miembros más moderados del FOMC.
Williams declaró: “Considero que la política monetaria sigue siendo moderadamente restrictiva, aunque menos que antes de nuestras recientes medidas. Por lo tanto, sigo viendo margen para un ajuste adicional a corto plazo del rango objetivo de la tasa de fondos federales para acercar la política a la neutralidad y mantener el equilibrio entre nuestros dos objetivos”.
En la sesión bursátil, el Promedio Industrial Dow Jones subió un 0,4% (185 puntos) hasta los 45.937 a las 16:15 GMT. El índice S&P 500 avanzó un 0,1% (7 puntos) hasta los 6.545, mientras que el Nasdaq Composite ganó un 0,1% (38 puntos) hasta los 22.040.