- La CPU deja de ser el único protagonista: comparte trabajo con GPUs y NPUs en arquitecturas híbridas y heterogéneas.
- AMD e Intel integran IA en todas sus gamas, con Zen 6, Ryzen AI y Core Ultra 200 centrados en rendimiento por vatio.
- La plataforma se fragmenta en chipsets y SoCs muy especializados, mientras ARM gana peso con soluciones eficientes.
El futuro de las CPUs está mucho más ligado a la inteligencia artificial de lo que pensamos, hasta el punto de que la clásica unidad de procesamiento va a compartir protagonismo (y en algunos casos cederlo) con nuevas piezas clave del silicio como las NPUs, las GPUs integradas y la memoria de última generación. Ya no basta con tener muchos núcleos y una frecuencia alta: ahora importan los TOPS de IA, la eficiencia por vatio y cómo se reparte el trabajo entre todos los bloques del chip.
Al mismo tiempo, los grandes fabricantes están moviendo ficha con nuevas arquitecturas, nodos de fabricación avanzados y plataformas muy segmentadas, tanto para sobremesa como para portátiles y centros de datos. AMD, Intel e incluso los ecosistemas ARM (Apple, Qualcomm y compañía) se están posicionando para un escenario donde la IA local, el gaming extremo y la eficiencia energética marcan el ritmo. Vamos a ver qué viene en los próximos años y por qué elegir bien CPU, NPU y chipset será cada vez más importante.
Del reinado absoluto de la CPU a la era híbrida con NPU y GPU
Durante décadas la CPU ha sido la pieza central de cualquier ordenador, el famoso “cerebro” encargado de ejecutar instrucciones de forma secuencial y coordinar todo el sistema. Primero se le añadió la FPU o coprocesador matemático, después irrumpieron las GPUs como aceleradores gráficos masivos y, más recientemente, ha aparecido un tercer actor en juego: las NPUs especializadas en inteligencia artificial.
Una NPU (Neural Processing Unit) está diseñada específicamente para ejecutar inferencias de redes neuronales, con una arquitectura optimizada para operaciones matriciales y convolucionales. En lugar de ser genérica como una CPU, se centra en multiplicaciones y sumas vectoriales, convoluciones y patrones que se repiten constantemente en modelos de IA, logrando un rendimiento por vatio muy superior.
La tendencia actual es clara: estamos en plena transición hacia la computación heterogénea, donde CPU, GPU y NPU trabajan en equipo en lugar de dejar todo el peso a la CPU. En SoCs modernos como Apple A‑Series y M‑Series, Intel Core Ultra, AMD Ryzen con motor Ryzen AI o los Qualcomm Snapdragon orientados a PC, la NPU ya se encarga de tareas como reconocimiento de voz, traducción en tiempo real, clasificación de imágenes o asistentes inteligentes que funcionan directamente en el dispositivo.
Esto implica una redistribución física del silicio dentro del chip: cada vez se reserva más área del die para la NPU, reduciendo espacio para núcleos de propósito general o añadiendo más tiles/chiplets dedicados a IA. Intel calcula que para 2028 más del 80 % de los PCs integrarán capacidades avanzadas de IA gracias a NPUs integradas, lo que deja claro que ya no hablamos de un coprocesador accesorio, sino de un bloque fundamental.
El precio a pagar por esta especialización es un aumento considerable de la complejidad del diseño: más interconexiones, más ancho de banda de memoria, dependencia creciente de empaquetado 2.5D y 3D (tipo Foveros) y una jerarquía de buses pensada para alimentar de datos constantes a la NPU sin cuellos de botella.

Retos técnicos de una NPU que no deja de crecer
El crecimiento de las NPUs también trae un buen puñado de desafíos técnicos y de software, porque no basta con meter más bloques de IA en el silicio si luego el sistema operativo, los frameworks y las aplicaciones no saben aprovecharlos de forma eficiente.
Uno de los problemas más serios a día de hoy es la fragmentación del software de IA: no todos los modelos están optimizados para NPUs, las APIs cambian entre fabricantes y aún falta una estandarización sólida que garantice que un modelo se ejecute igual de bien en una NPU de Intel, AMD, Apple o Qualcomm sin rehacer medio stack.
La gestión térmica es otro cuello de botella importante. A medida que la NPU gana peso en el uso real, también suben su consumo y calor generado. Los fabricantes están teniendo que rediseñar portátiles, mini PCs y sobremesas compactos con nuevas cámaras de vapor, heatpipes y distribución térmica más inteligente para evitar que la NPU estrangule el rendimiento cuando se activa de forma intensa y prolongada.
La seguridad y la privacidad entran además en un terreno nuevo al ejecutar IA de manera local. Modelos que analizan voz, vídeo, historiales financieros o datos médicos se procesan dentro del propio dispositivo, lo que mejora la privacidad frente a la nube, pero abre la puerta a nuevos vectores de ataque: manipulación de modelos, extracción de datos a través de canales laterales o inyecciones maliciosas en el flujo de inferencia.
Por último, el equilibrio dinámico entre CPU, GPU y NPU se vuelve crítico. Hacen falta orquestadores inteligentes en el sistema operativo y en los drivers que decidan dónde ejecutar cada parte de la carga: qué va a la NPU, qué se deja en la GPU, qué mantiene la CPU y cómo se realiza el fallback si algún operador no está soportado por hardware.
¿Puede la NPU quitarle el trono a la CPU?
La gran duda que mucha gente se hace es si la CPU va a acabar siendo un mero comparsa ante el empuje de las NPUs y GPUs. La respuesta más honesta es que la CPU seguirá siendo imprescindible, pero en muchas cargas dejará de ser la protagonista absoluta.
En tareas con fuerte componente de IA, la NPU ya barre a la CPU en rendimiento por vatio: asistentes personales, análisis de imágenes médicas, sistemas de recomendación, clasificación masiva de datos o visión artificial se benefician muchísimo más de una NPU especializada que de lanzar el modelo sobre núcleos x86 o ARM tradicionales.
Los compiladores y frameworks de IA se están adaptando justo a ese cambio de rol. Herramientas como ONNX Runtime, TensorFlow Lite, Core ML o los SDKs específicos de AMD, Intel o Qualcomm permiten exportar modelos y mandarlos directamente a la NPU, minimizando la intervención de la CPU, que en muchos casos se limita a preparar datos, coordinar y recoger resultados.
Donde la CPU conserva un papel absolutamente crítico es en la coordinación del sistema. Por ejemplo, en un portátil con Windows 11 y SoC Snapdragon X Elite ejecutando Copilot localmente, la CPU se encarga de gestionar el sistema operativo, los drivers, las llamadas al kernel, la planificación de tareas y decidir cuándo delegar en la NPU o, si hace falta, en la GPU.
Además, la CPU asume el preprocesado y postprocesado de los datos: formatea entradas (texto, audio, imagen) para que el modelo las entienda, lanza la inferencia en la NPU, integra los resultados en la interfaz de usuario, controla la entrada/salida (teclado, ratón, pantalla, red) y se ocupa de operaciones lógicas o de seguridad que no están aceleradas por IA.
En escenarios donde la NPU no soporta ciertos operadores o se queda corta, la CPU sigue siendo el plan B, apoyada si es necesario por la GPU discreta. Esto garantiza compatibilidad, aunque sacrifiquemos eficiencia. Así que sí, la CPU perderá parte del foco en cargas específicas, pero aún queda muy lejos un mundo “sin CPU”.
Nuevas arquitecturas híbridas: iNPU, NPU discretas y chiplets
La evolución hacia sistemas heterogéneos está destrozando la idea clásica de una CPU monolítica. En lugar de un solo bloque grande, cada vez vemos más diseños modulares con chiplets y tiles dedicados: bloques de CPU, GPU, NPU, E/S y memoria que se interconectan en el mismo paquete.
Con la NPU ocurrirá algo muy parecido a lo que ya vimos con las GPUs: tendremos NPUs integradas (iNPU) en la propia CPU/APU y, al mismo tiempo, aceleradoras de IA discretas, montadas en tarjetas de expansión o incluso como módulos M.2 o soluciones externas para cargas muy exigentes.
AMD ya ha dejado caer que está estudiando seriamente NPUs discretas, al estilo de sus Radeon o de las actuales tarjetas de IA para centros de datos. Esto permitiría escalar el rendimiento de IA local sin depender tanto de la GPU tradicional o de la propia CPU, reforzando estaciones de trabajo y PCs creativos que necesiten mover modelos enormes sin pasar por la nube.
En el lado del empaquetado, tecnologías como Foveros de Intel permiten apilar y combinar chiplets de CPU, GPU y NPU en un solo paquete, reduciendo latencias y mejorando el ancho de banda entre bloques. Google, Hailo y otros proveedores de edge AI ya venden aceleradores para inferencia local que prácticamente prescinden de la CPU clásica en favor de un pequeño microcontrolador de apoyo.
Todo este ecosistema obliga a cambiar la forma en la que los desarrolladores escriben software. Ya no vale con pensar en “la CPU” y poco más: hay que diseñar aplicaciones y motores que repartan correctamente la carga entre CPU, GPU, NPU, que entiendan las limitaciones de memoria de cada bloque y que se adapten a arquitecturas muy distintas entre fabricantes.
AMD Zen 6, Ryzen AI y la apuesta agresiva por la IA local
AMD está preparando un salto importante con su arquitectura Zen 6, prevista para 2026 en nodos de 3 nm, tanto en gama de consumo como en centros de datos. El enfoque se centra en tres frentes: más rendimiento, mayor eficiencia energética y capacidades de IA mucho más potentes integradas directamente en CPU y APU.
Zen 6 traerá más núcleos, cachés más grandes y nuevas instrucciones ISA orientadas a IA, pensadas para acelerar tanto inferencia como ciertas partes del entrenamiento ligero en local. Para startups y empresas que quieran hacer machine learning o visión por computadora sin depender siempre de GPUs caras, esto abre una puerta interesante.
En el frente móvil y de consumo, AMD ha dibujado un roadmap muy ambicioso entre 2026 y 2027. Habrá sustitutos para las gamas de máxima potencia (como los actuales Fire Range), que darán lugar a la familia Gator Range, con configuraciones de hasta 24 núcleos y 32 hilos basados en Zen 6/Zen 6c en nodos de 3 nm, orientados a portátiles de alto rendimiento.
También veremos procesadores Medusa Point en variantes distintas: una gama alta filtrada hace meses con Zen 6 a 3 nm, y una familia Medusa BB de corte más moderado, pensada para gamas medias (Ryzen 5 y 7) con configuraciones mixtas como 4+4+2 núcleos (Zen 6, Zen 6c y LP Zen 6) para equilibrar potencia y eficiencia.
A todo esto se suma la estrategia de Ryzen AI. En el CES 2026, AMD dejó claro que sus PC con IA ya no son un concepto futurista, sino el nuevo estándar. La serie Ryzen AI 400, con arquitectura Zen 5 de hasta 12 núcleos/24 hilos y motor XDNA2 capaz de rondar los 60 TOPS, está pensada para ejecutar Copilot+ y otros asistentes locales con un consumo ajustado.
Para los perfiles más exigentes llegan las APU Ryzen AI Max+, auténticas bestias con hasta 16 núcleos Zen 5, 40 CUs RDNA 3.5 y hasta 128 GB de memoria unificada. El objetivo aquí es claro: permitir a desarrolladores de IA, artistas 3D y creadores de contenido ejecutar modelos grandes (LLM, difusores de imágenes, etc.) en local sin depender continuamente de hardware empresarial o de la nube.
Gaming, 3D V‑Cache y el papel de la CPU en los juegos del futuro
En el terreno gaming, la CPU sigue siendo clave, pero el enfoque también está cambiando. Cada generación se centra menos en subir solo la frecuencia y más en mejorar latencias, caché, interacción con la GPU y capacidad de alimentar al motor gráfico y a la IA en tiempo real.
AMD, por ejemplo, lleva ventaja con sus procesadores X3D, como el Ryzen 7 9850X3D y el Ryzen 9 7950X3D, gracias a la tecnología 3D V‑Cache. Al apilar caché L3 sobre el chip, se mejora el acceso a datos críticos del juego y se logran aumentos de rendimiento notables en muchos títulos sin disparar el consumo.
El Ryzen 7 9850X3D combina Zen 5 con 3D V‑Cache para alcanzar frecuencias de hasta 5,6 GHz, mejorando en torno a un 27 % el rendimiento en más de 35 juegos frente a generaciones anteriores y rivales directos. Estos procesadores han calado hondo en el mercado entusiasta, hasta el punto de que integradores como Alienware ya han anunciado sobremesas de gama alta centrados en ellos.
En paralelo, la experiencia visual se está transformando gracias a técnicas como FSR Redstone, que aplica IA para mejorar el rendimiento en escenarios con Ray Tracing hasta 4,7 veces, reduciendo la penalización de activar trazado de rayos. Con más de 200 juegos soportados, se convierte en una alternativa seria frente a DLSS de NVIDIA para democratizar gráficos avanzados en hardware Radeon.
Todo esto deja la CPU con un rol muy interesante en gaming: debe ser lo bastante potente para alimentar a GPUs cada vez más rápidas, gestionar físicas, lógica del juego, IA de enemigos y sistemas de streaming de datos, mientras coopera con la NPU para tareas auxiliares (mejora de voz, escalado inteligente, asistentes in‑game, etc.), y ayuda a quienes desean montar un PC gaming equilibrado.
Intel: Arrow Lake, Ultra 200, Nova Lake-S y la IA en el centro
Intel tampoco se queda de brazos cruzados y está reestructurando toda su gama alrededor de la IA. Tras Meteor Lake y la litografía Intel 4, llegó Arrow Lake con una arquitectura en tiles (bloques funcionales separados) y la inclusión de NPUs de serie en gran parte de la gama Core Ultra.
Los nuevos Intel Core Ultra 200HX, H, U y S llevan la bandera de Arrow Lake a portátiles y sobremesa. Los modelos HX apuntan a portátiles gaming y estaciones móviles, con chips desbloqueados para ajustar voltajes y frecuencias; los H se centran en rendimiento equilibrado para portátiles; los U priorizan eficiencia; y los S llegan como ediciones especiales para sobremesa.
La joya móvil es el Core Ultra 9 285HX, con 24 núcleos (8 de rendimiento y 16 de eficiencia) que alcanzan hasta 5,5 GHz, 4 núcleos de GPU integrados y una NPU de unos 13 TOPS. En la gama H, el Ultra 9 285H ofrece 16 núcleos (6P + 8E), 8 núcleos de GPU y alrededor de 77 TOPS combinando CPU, GPU y NPU, pensado para exprimir aplicaciones de IA local.
Según los datos de Intel, estos nuevos chips mejoran notablemente frente a generaciones previas: hasta 2,2 veces más rendimiento en visión artificial con Procyon, 3,3 veces más eficiencia ejecutando Llama 3 y hasta 2,3 veces mejor en Stable Diffusion 1.5 comparando Arrow Lake con generaciones anteriores como Raptor Lake.
En sobremesa, Intel también está moviendo ficha con su futura plataforma Nova Lake‑S y socket LGA1954. La compañía lanzará cinco chipsets diferentes (B960, Z970, Z990, Q970 y W980) con segmentación muy marcada en carriles PCIe, conectividad, overclock y enfoque de mercado, pensados para la familia Core Ultra 400S.
El chipset B960 será la base para PCs gaming y de trabajo equilibrados, con 34 carriles PCIe totales, 14 carriles PCIe 4.0 desde el chipset, enlace DMI Gen5 x2, un PCIe 5.0 x16 desde la CPU para GPU y un PCIe 5.0 x4 para NVMe, permitiendo overclock de memoria pero no de CPU ni BCLK.
Por encima, Z970 sube teóricamente de gama pero en la práctica añade pocas mejoras reales, manteniendo 34 carriles y DMI Gen5 x2, sin PCIe 5.0 adicional desde el chipset y sin overclock por BCLK, aunque sí permite overclock de CPU vía IA OC y RAM. Es más una gama media‑alta que un tope de gama.
El único chipset realmente entusiasta será Z990, con 48 carriles PCIe totales, 12 carriles PCIe 5.0 desde el chipset, DMI Gen5 x4, hasta 8 puertos SATA y soporte completo de IA OC, BCLK OC y overclock de memoria, ideal para configuraciones con varias unidades de alta velocidad y GPUs potentes.
Q970 y W980 se orientan a empresa y workstation, con más carriles, DMI Gen5 x4 y funciones como vPro o soporte de ECC, pero sin opciones de overclock. Intel, además, limita el margen de ajuste extremo incluso en Z990: los LP E‑cores no se pueden overclockear, los núcleos se desactivan por clúster, el TJMax no es modificable y el thermal throttling no se puede deshabilitar, lo que evidencia un mayor control sobre cómo se puede “trastear” la plataforma.
La guerra a tres bandas: x86 frente a ARM en el PC del futuro
Mientras AMD e Intel se pelean por el trono x86, la arquitectura ARM está ganando peso en el mercado de PCs, sobre todo en portátiles ultraligeros y equipos centrados en autonomía y conectividad permanente.
Apple con sus chips Silicon (M‑Series) y Qualcomm con Snapdragon X Elite han redefinido las expectativas en cuanto a rendimiento por vatio, integración de GPU e IA y experiencia de usuario en portátiles. Estos SoCs ofrecen CPUs eficientes, NPUs muy capaces y GPUs integradas que compiten con soluciones dedicadas de gama media.
Los análisis de mercado apuntan a que ARM podría rondar el 15 % de cuota en PCs para 2025, lo que está metiendo presión a AMD e Intel para optimizar cada vez más la eficiencia en rangos de 15 W a 45 W, justo donde competirán de lleno con los nuevos Snapdragon X y los portátiles con M‑Series.
Esta “guerra a tres bandas” acelera la innovación en IA local y en integración de NPU. Todas las plataformas están empujando el concepto de “PC con IA” o “AI PC”: equipos capaces de ejecutar asistentes avanzados, generación de contenido y agentes locales sin recurrir constantemente a la nube, ofreciendo mejor privacidad, menor latencia y, en muchos casos, ahorro económico al reducir el uso de servicios externos.
Para los usuarios finales y los profesionales, esto se traduce en un abanico enorme de opciones: desde mini PCs con i3 o Ryzen 3 de entrada para juegos ligeros y tareas cotidianas, hasta portátiles premium con i9, Ryzen 9 o SoCs ARM con NPUs potentes y estaciones de trabajo con CPUs de 24 o 32 núcleos acompañadas de aceleradores de IA dedicados.
En este contexto, elegir CPU ya no es solo mirar cuántos núcleos tiene y qué frecuencia alcanza, sino también cuántos TOPS de IA ofrece la NPU, qué compatibilidad tiene con tus herramientas de IA, qué margen de actualización admite la placa base y cómo encaja todo con tu GPU y memoria (DDR4/DDR5) para evitar cuellos de botella a medio plazo.
El panorama que se dibuja para los próximos años es el de PCs y portátiles cada vez más especializados, donde la CPU comparte espacio con NPUs integradas y discretas, GPUs muy capaces y memorias más rápidas, y donde la clave del rendimiento estará tanto en la arquitectura del silicio como en el software que orquesta todo ese potencial para juegos, productividad e inteligencia artificial.