Storage Class Memory explicada: la capa que falta entre DRAM y NAND

En cuanto empiezas a fijarte en cómo los sistemas de IA están moviendo realmente los datos, te das cuenta bastante rápido de que el problema no es solo tener procesadores más rápidos o más almacenamiento, sino qué ocurre entre esas capas y cuántas veces el sistema se ve obligado a esperar.
En el artículo anterior sobre High Bandwidth Memory, el enfoque estaba en mantener los datos lo más cerca posible del procesador para que la GPU no se quede parada. Esa es la parte superior de la pila y es fundamental, pero solo resuelve una parte del problema, porque no todo puede vivir ahí.
En cuanto el conjunto de trabajo crece más allá de lo que cabe en ese nivel inmediato, vuelves a mover datos entre DRAM y NAND, y es ahí donde todo empieza a sentirse desequilibrado. La DRAM es rápida y responde bien, pero es cara y no se puede escalar sin límite. El NAND es mucho más práctico en términos de capacidad, pero incluso un buen flash introduce suficiente latencia como para que se note cuando el sistema está bajo carga constante.
Ese espacio intermedio es donde Storage Class Memory empieza a tener sentido. No como algo nuevo que sustituya a uno de los dos lados, sino como una forma de suavizar el paso de uno a otro para que el sistema no esté saltando continuamente entre muy rápido y claramente más lento.
Si quieres ver el contexto completo de por qué están apareciendo estas capas, esto conecta directamente con el artículo principal aquí: NAND no va a desaparecer, pero los servidores de IA ahora dependen de algo más que solo flash.
Dónde aparece ese hueco
Sobre el papel, DRAM y NAND siempre han funcionado bien juntos porque están pensados para trabajos distintos. Uno gestiona los datos activos, el otro almacena los datos, y el sistema mueve la información de un lado a otro cuando hace falta. Para cargas de trabajo tradicionales, esa separación sigue funcionando bastante bien.
Las cargas de trabajo de IA no se comportan igual. Suelen reutilizar grandes conjuntos de datos de forma constante, mover datos en paralelo y mantener múltiples operaciones en marcha al mismo tiempo, lo que significa que el sistema está tirando del almacenamiento de forma continua en lugar de hacerlo de vez en cuando.
Es ahí donde la latencia empieza a importar más que antes. No de forma dramática o evidente, sino como pequeños retrasos que se van acumulando con el tiempo. El sistema no se detiene, pero tampoco mantiene la eficiencia que podría, y es justo en ese punto donde empiezas a ver a los procesadores esperando a los datos en lugar de procesarlos.
Lo que hace Storage Class Memory es situarse en ese camino y reducir la frecuencia con la que el sistema tiene que bajar hasta el NAND, al mismo tiempo que evita que los costes se disparen intentando llevarlo todo a DRAM.
Cómo imaginarlo de forma práctica
La forma más sencilla de visualizarlo es volver a la analogía del almacén, pero en lugar de centrarse en la zona de carga como hicimos con HBM, pensar en lo que ocurre justo detrás.
Tienes la zona de carga donde se realiza el trabajo activo, se abren cajas, se clasifican y se mueven. Eso es la DRAM. Más atrás tienes las estanterías del almacén donde todo se guarda en volumen. Eso es el NAND.
Si cada vez que necesitas algo tienes que ir hasta el fondo del almacén, cogerlo y traerlo de vuelta, el trabajo sigue avanzando, pero no con la fluidez que podría. Ahora imagina que hay una zona intermedia justo detrás de la zona de carga, donde ya están colocados los elementos que probablemente se van a usar a continuación. No todo, solo lo suficiente para que el flujo no se detenga.
Esa zona intermedia es lo que representa Storage Class Memory. No intenta sustituir el almacén ni ampliar la zona de carga, simplemente evita tener que hacer siempre el recorrido más largo.
Lo que realmente cambia con SCM
Desde el punto de vista del sistema, el valor de SCM (Storage Class Memory) no está en que sea muchísimo más rápido que todo lo demás, sino en que reduce la frecuencia con la que se utiliza el camino más lento. Esa diferencia es importante, porque los problemas de rendimiento rara vez vienen de un único componente lento, sino de lo a menudo que el sistema depende de él.
Al colocar una capa entre DRAM y NAND, el sistema puede mantener más datos cerca del lugar donde se procesan sin asumir el coste y el consumo energético de ampliar la DRAM al mismo nivel.
Al mismo tiempo, evita depender en exceso del NAND para patrones de acceso para los que nunca fue diseñado, especialmente cuando el acceso es continuo y de alta frecuencia.
Aquí es también donde la línea entre memoria y almacenamiento empieza a difuminarse. SCM se comporta más como memoria en la forma en que se accede a ella, pero mantiene características de almacenamiento en términos de densidad y coste. Ese comportamiento híbrido es exactamente lo que lo hace útil en sistemas de IA, donde las categorías tradicionales ya no encajan tan bien como antes.
Por qué esta capa importa ahora
Desde un punto de vista técnico, nada de esto es completamente nuevo, pero se está volviendo más relevante por cómo están diseñadas las cargas de trabajo de IA. La cantidad de datos que se mueven, se reutilizan y se vuelven a consultar es simplemente mayor que en los sistemas para los que originalmente se diseñaron estas arquitecturas.
Ese aumento no solo pone presión sobre la capacidad de almacenamiento, sino sobre la eficiencia con la que se puede acceder a los datos de forma repetida, y ahí es donde una capa intermedia empieza a marcar una diferencia real.
También encaja con la misma idea que vimos en el primer artículo: la industria no está sustituyendo el NAND, está construyendo alrededor de él. Storage Class Memory forma parte de ese cambio, aliviando la presión tanto sobre la DRAM como sobre el NAND sin eliminar ninguno de los dos.
A partir de aquí, la pila sigue evolucionando en ambas direcciones. Por encima de esta capa aparecen memorias cada vez más especializadas como HBM. Por debajo, el NAND sigue adaptándose a nuevos roles, incluyendo intentos de comportarse más como memoria.
El sistema funciona no porque una sola capa sea perfecta, sino porque cada una se utiliza para el tipo de trabajo que mejor sabe hacer.
Nota editorial y de imagen: La imagen utilizada en este artículo es una fotografía original tomada in situ por el autor para GetUSB.info.
Cómo se creó este artículo: Este contenido fue desarrollado por el autor basándose en el tema técnico y la dirección editorial. Se utilizaron herramientas de IA para ayudar a dar ritmo y estructura al artículo, con revisión y aprobación final por parte del autor.
Tags: almacenamiento empresarial, DRAM vs NAND, jerarquía de memoria AI, SCM, storage class memory
