HBM3/HBM3E vs GDDR7 vs DDR5: qué hace cada una, por qué se están encareciendo y por qué la crisis de memoria no se arregló porque Google movió una perilla

Tecnologia
Daniel Felicita

Si has visto titulares sobre HBM, GDDR7 y DDR5 y sentiste que internet estaba mezclando peras, tornillos y una nave espacial, tranquilo: pasa todo el tiempo. No son tres memorias que compiten de la misma forma. HBM3/HBM3E es la memoria de lujo extremo que se pega al acelerador para IA; GDDR7 es la memoria pensada para GPUs y gráficos de alto ancho de banda; DDR5 es la RAM generalista que vive en PCs, portátiles y servidores. Y sí, esta semana hubo una pequeña bocanada de aire en algunos precios minoristas tras el anuncio de TurboQuant de Google, pero eso no significa que la crisis se acabó: lo que se enfrió fue parte del sentimiento del mercado retail, no el cuello de botella industrial.

En una línea: cuál es cuál

HBM3/HBM3E es memoria apilada en 3D con TSV y un bus ultraancho, pensada para trabajar pegada a aceleradores de IA y HPC; Samsung habla de hasta 1.180 GB/s por stack y Micron ya vende cubos HBM3E de 24 GB y 36 GB.

GDDR7 es la memoria gráfica moderna para GPUs: sigue siendo externa al chip, pero mucho más rápida que GDDR6 gracias a PAM3, menor voltaje y mejor eficiencia. Micron la sitúa en hasta 32 Gb/s por pin y más de 1.5 TB/s de ancho de banda de sistema en ciertas configuraciones; Samsung empuja su variante de 24 Gb hasta 40 Gb/s y habla de hasta 42.5 Gb/s según entorno.

DDR5 es la memoria del sistema: la que compras como kit para tu PC o la que usan servidores y portátiles. Su gran salto frente a DDR4 no es solo “más MHz”, sino una arquitectura con dos subcanales independientes, más densidad y un PMIC en el módulo para gestionar mejor la energía.

Cómo funciona cada una, explicado sin convertir esto en clase de ingeniería

HBM3/HBM3E: apilar memoria para que el chip no muera de hambre

HBM existe porque los aceleradores modernos tienen un problema brutal: pueden calcular más rápido de lo que la memoria tradicional les puede alimentar datos. La solución fue apilar varios dies de DRAM uno encima de otro y conectarlos con Through-Silicon Vias (TSV), creando un bloque de memoria muy ancho y muy cercano al procesador. Samsung describe HBM3E como una pila avanzada de 12 capas; Micron ya la pone en producción-capaz con 36 GB en formato 12-high.

La clave aquí no es que HBM “sea más rápida” en abstracto, sino que ofrece muchísimo ancho de banda por paquete sin depender de frecuencias absurdas. Por eso domina en IA: no porque sea barata ni versátil, sino porque es la forma más eficaz de darle de comer a GPUs y aceleradores que tragan datos como si fueran adolescentes frente a una nevera abierta.

GDDR7: la memoria de la GPU que quiere más ancho de banda sin incendiar la tarjeta

GDDR7 sigue la filosofía clásica de la memoria gráfica: chips alrededor de la GPU, bus relativamente ancho y muchísimo ancho de banda total. El gran cambio técnico aquí es PAM3, que usa tres niveles de señal en vez del esquema NRZ de GDDR6. Micron explica que eso permite transmitir 1.5 veces más información por ciclo con mejor equilibrio entre velocidad, consumo y complejidad que otras alternativas más agresivas.

Eso suena muy de folleto, pero traducido al jugador común significa algo bastante simple: más ancho de banda sin disparar tanto el consumo ni el calor como si solo subieras frecuencia a lo bruto. Por eso GDDR7 encaja tan bien en GPUs gamer y también en hardware gráfico que necesita sostener ray tracing, texturas grandes y cargas visuales cada vez más pesadas. Micron incluso la posiciona para gaming, AI inference y consolas.

DDR5: la RAM del sistema que hace el trabajo menos glamoroso, pero igual de vital

DDR5 no vive pegada al chip como HBM ni está especializada para GPU como GDDR7. Su terreno es otro: capacidad, coste por GB y uso general. Lo que cambió frente a DDR4 es más elegante de lo que parece: cada módulo estándar pasa a tener dos subcanales independientes, lo que mejora concurrencia y planificación del controlador, y añade un PMIC en el propio módulo, moviendo parte de la regulación de energía fuera de la placa base.

Por eso DDR5 no es “la memoria lenta y aburrida”. Es la que hace viable que un PC de escritorio, un portátil o un servidor manejen cargas reales con más capacidad y mejor paralelismo sin tener que pagar la locura de HBM. El problema es que, cuando el mercado aprieta, es también la que más rápido siente el golpe en retail.

Cómo se fabrica cada una y por qué no cuesta lo mismo escalarla

HBM3/HBM3E: aquí se paga la fiesta del apilado, el empaque y el rendimiento por watt

HBM3E es cara de escalar por una razón muy sencilla: no basta con fabricar DRAM, también hay que apilarla, perforarla con TSV, manejar calor, mantener rendimiento eléctrico y luego integrarla con empaquetado avanzado. Samsung destaca el uso de TSV, materiales térmicos específicos y reducción de huecos entre stacks para bajar resistencia térmica. Y ahí todavía no termina la película: SemiAnalysis explica que la anchura del bus obliga a usar interposer y ensamblajes 2.5D como CoWoS, porque ese nivel de ruteo simplemente no cabe en un PCB normal.

La consecuencia es brutal: en 2025 los cuatro grandes diseñadores de chips de IA consumieron alrededor de 90% del suministro global de HBM y de capacidad CoWoS por valor, según Epoch AI. O sea: el problema ya no es solo “hacer más chips”, sino hacer más memoria apilada y empaquetarla. Ese es uno de los motivos por los que HBM no escala al ritmo que escalan las ganas de las big tech.

GDDR7: menos exótica que HBM, pero tampoco barata

GDDR7 no necesita interposer ni apilado 3D como HBM, así que es más sencilla de desplegar a gran escala. Pero no sale gratis: exige procesos DRAM avanzados, controladores nuevos, mejor diseño térmico y señalización PAM3, que no es compatible hacia atrás con GDDR6. Micron deja claro que GDDR7 requiere controladores nuevos y Samsung añade que usa nodo avanzado, manejo de reloj y diseño de doble VDD para contener consumo y fugas.

Dicho sin maquillaje: GDDR7 es más barata y más fácil de industrializar que HBM, pero sigue siendo memoria premium. Por eso no verás que mágicamente todo producto con GPU salte a GDDR7 de la noche a la mañana; primero entra donde el ancho de banda y la eficiencia justifican el costo.

DDR5: la más “normal”, pero no inmune a la crisis

DDR5 es la más razonable en coste por GB, pero no vive en una burbuja. Micron explica que los módulos DDR5 incorporan PMIC, más electrónica activa y nuevos esquemas de señal e integridad, lo que inicialmente elevó costos frente a DDR4. A eso súmale lo que está pasando en 2026: los fabricantes están redirigiendo capacidad a productos con mejores márgenes, como HBM y DRAM/server memory, dejando a PC DRAM más apretada.

Entonces, ¿qué le conviene a cada tipo de producto?

La forma práctica de entenderlo es esta: HBM3/HBM3E es para aceleradores de IA y HPC; GDDR7 es para GPUs y gráficos de alto rendimiento; DDR5 es para RAM del sistema en PCs, portátiles y servidores. No son tres sustitutos directos. Si armas un PC gamer, tú no eliges entre HBM o DDR5 como quien elige entre dos ventiladores: una va en la tarjeta o acelerador, la otra en la placa base.

La parte caliente del artículo: ¿la escasez aflojó esta semana o no?

La respuesta corta es: aflojó un poco en retail, no en la industria. Google presentó TurboQuant el 24 de marzo, una técnica de compresión para KV cache y vector quantization que, según Google, reduce memoria con cero pérdida de precisión en ciertos escenarios. Esa noticia agitó el mercado y ayudó a alimentar el debate de si la IA podría empezar a necesitar menos memoria por carga de trabajo.

Y sí, hubo reacción visible en precios minoristas. TrendForce reportó esta semana que algunos kits DDR5 cayeron con fuerza en retail: en Alemania se habló de un -7.2% mensual en marzo, en EE. UU. algunos kits de 32 GB bajaron más de 20% desde su pico reciente, y en China ciertos módulos mainstream retrocedieron alrededor de 25%–30% desde máximos de enero-febrero.

Pero aquí viene el “no cantes victoria tan rápido”. El mismo TrendForce dice que esos retrocesos siguen siendo correcciones de canal y sentimiento, no una señal clara de alivio estructural. Sus previsiones del 31 de marzo siguen apuntando a que los contratos de DRAM convencional subirán 58%–63% QoQ en 2Q26 y los de NAND 70%–75% QoQ, porque la oferta sigue priorizando HBM, servidores y SSD empresariales. En otras palabras: el retail dio una exhalada, pero la fábrica sigue corriendo con la lengua afuera.

Por qué Google no “resolvió” el problema

Porque TurboQuant no arregla todo el mapa de memoria, ataca una parte concreta: la sobrecarga de memoria en compresión para KV cache y búsqueda vectorial. Eso importa mucho para inferencia, sí, pero no elimina la demanda de HBM para entrenamiento, ni borra la necesidad de DRAM general, ni hace desaparecer la sed de almacenamiento en centros de datos. Reuters reportó hace apenas dos semanas que Solidigm espera presión fuerte en suministro de almacenamiento y que los sistemas de IA de este año podrían requerir 35% más storage que los anteriores.

Mi lectura es esta: Google movió una ficha importante, pero lo que hizo fue mejorar eficiencia, no cancelar la carrera armamentista. Y cuando la industria ve una mejora de eficiencia, muchas veces no gasta menos: simplemente sube la ambición del sistema. Por eso el mercado financiero puede asustarse una semana mientras la cadena industrial sigue igual de tensa.

Cómo esta crisis ya está golpeando SSDs, consolas y proyectos como Steam Machine

Aquí es donde esto deja de ser una pelea abstracta entre fabricantes de chips. Reuters ya había advertido en enero que la presión de la memoria iba a afectar smartphones, PCs y gaming consoles, especialmente en gama baja y media, porque los proveedores están priorizando centros de datos y productos más rentables.

En NAND y almacenamiento, la historia se puso más visible esta semana. TrendForce dice que la producción se está desplazando hacia enterprise SSDs, y Reuters recoge que Solidigm no puede seguir el ritmo de la demanda. Sony ya suspendió pedidos de muchas de sus tarjetas CFexpress y SD en Japón por no poder asegurar suministro, una señal bastante fea de que el problema ya no vive solo en el datacenter: ya se está comiendo producto de consumo.

Y con la Steam Machine pasa algo parecido. Valve le dijo a The Verge que todavía planea enviarla en 2026, pero reconoció que sigue lidiando con la escasez de memoria; además, la conversación en GDC dejó claro que el coste de DDR5 está metiendo presión real sobre precio y calendario. No está cancelada, pero tampoco está caminando en terreno cómodo.

La lectura práctica para el lector de ArmaPCGamer

Si juegas en PC o estás pensando en actualizar, esto es lo que de verdad importa. DDR5 es la que más te pega en la billetera cuando armas o mejoras un equipo. GDDR7 la vas a sentir en el precio de nuevas GPUs y eventualmente en consolas o hardware gráfico que la adopte. HBM3E no la vas a comprar como componente suelto, pero sí explica por qué los grandes proveedores están desviando capacidad y por qué el resto del mercado se queda mirando desde abajo como si la comida buena la hubieran subido al penthouse.

Mi conclusión, viendo lo que pasó esta semana, es bastante directa: sí hay una pequeña corrección minorista y sí Google metió una noticia relevante, pero la crisis de memoria sigue viva. Mientras HBM y el empaquetado avanzado sigan siendo el cuello de botella, y mientras NAND siga migrando hacia enterprise SSD, no esperaría que DDR5 o los SSD vuelvan pronto a precios “normales” de la era preboom de IA. El mercado puede tomar aire unos días; la escasez estructural todavía no ha salido de la habitación.

Si quieres, ve a comentármelo en X: ¿te parece que esto es una pausa antes de otra subida o crees que por fin estamos viendo el principio del enfriamiento real? Y si estás armando PC este año, también te leo: te digo sin vueltas si conviene comprar RAM/SSD ya, esperar o partir la compra en fases.

Links de utilidad