Por qué los discos duros siguen siendo críticos para la infraestructura de IA
Cuando la mayoría de la gente escucha hablar de infraestructura de IA, la conversación normalmente gira alrededor de las GPU, la High Bandwidth Memory (HBM) o el almacenamiento de estado sólido ultrarrápido. La suposición es que la inteligencia artificial funciona por completo sobre hardware de última generación, donde todo se mide en nanosegundos y terabytes por segundo.
Esa suposición no está equivocada, pero está incompleta.

La realidad es que los sistemas modernos de IA todavía dependen en gran medida de una de las tecnologías más antiguas del centro de datos: el disco duro mecánico.
Eso puede sonar extraño si consideramos que ya hablamos de cómo los servidores de IA se están moviendo más allá de la memoria flash tradicional en nuestro artículo: NAND no va a desaparecer, pero los servidores de IA ahora dependen de algo más que solo flash. También exploramos por qué tecnologías como la High Bandwidth Memory (HBM) se están volviendo esenciales para mantener los sistemas de IA alimentados con datos lo bastante rápido como para evitar cuellos de botella en las GPU.
Pero hay otro lado de esta historia que no recibe casi tanta atención: la escala pura.
La IA no solo necesita almacenamiento rápido. La IA necesita una cantidad de almacenamiento casi inimaginable.
Y los discos duros siguen siendo la única tecnología capaz de entregar esa capacidad a un costo que la industria puede sostener de manera realista.
Entendiendo la jerarquía de almacenamiento de la IA
La forma más sencilla de entender la infraestructura moderna de IA es dejar de pensar en una sola computadora y empezar a pensar en toda una operación logística.
La HBM actúa como el muelle de carga donde los datos se mueven a una velocidad increíble. La DRAM funciona como el espacio de trabajo activo donde la información se manipula constantemente. La NAND flash se comporta más como estanterías cercanas, donde el acceso rápido sigue importando, pero la persistencia a largo plazo también empieza a ser importante.
Los discos duros, sin embargo, son el almacén.
No la parte más vistosa de la operación. Tampoco la más rápida. Pero sin duda la más grande.
| Tecnología | Capacidad típica | Fortaleza principal | Papel principal en IA |
|---|---|---|---|
| HBM | 80GB–192GB | Ancho de banda extremo | Cálculo activo en GPU |
| DRAM | Cientos de GB | Baja latencia | Memoria de trabajo |
| SSD NAND | Múltiples TB | Almacenamiento persistente rápido | Preparación de datasets y caché |
| Discos duros | Petabytes a exabytes | Eficiencia de capacidad | Almacenamiento masivo y archivos |
Esa distinción importa porque los sistemas de entrenamiento de IA consumen datos a una escala que la mayoría de las personas nunca encuentra en la computación normal.
Una laptop de consumo puede almacenar algunos terabytes de datos. Incluso una estación de trabajo de gama alta quizá solo almacene decenas de terabytes. La infraestructura de IA opera varios órdenes de magnitud por encima de eso.
Mientras una laptop de consumo piensa en terabytes, los clústeres de IA piensan en exabytes.
Un solo exabyte equivale a un millón de terabytes.
Si un disco duro empresarial moderno almacena 30TB, aun así se necesitarían más de 33.000 discos duros para construir un solo exabyte de capacidad de almacenamiento sin procesar.
Los grandes operadores de IA no construyen un exabyte. Construyen múltiples exabytes entre regiones, capas de redundancia, entornos de entrenamiento, sistemas de respaldo y almacenamiento de archivo.
El problema del exabyte
Entrenar un modelo de lenguaje grande puede involucrar petabytes de texto, imágenes, video, telemetría, checkpoints y estados de entrenamiento archivados. Una vez que esos datasets se recopilan, rara vez se eliminan. Siguen creciendo a medida que los modelos se vuelven a entrenar, se refinan y se expanden.
Durante el entrenamiento de IA, los sistemas crean checkpoints continuamente, que básicamente son enormes estados guardados del modelo mientras aprende. Si un clúster falla a mitad de un ciclo de entrenamiento de varias semanas, esos checkpoints pueden ser lo único que evita perder millones de dólares en tiempo de cómputo.
Eso significa que la infraestructura de almacenamiento deja de tratarse solo de velocidad y pasa a tratarse de mantener gigantescos grupos de datos accesibles.
Aquí es donde los discos duros siguen dominando silenciosamente.
En 2010, un disco duro de 2TB se sentía enorme. Los entornos empresariales comúnmente usaban discos SAS de 300GB o 600GB, y cualquier cosa por encima de unos cuantos terabytes se consideraba capacidad premium.
Hoy, los discos duros empresariales de 24TB y 30TB se están convirtiendo en implementaciones estándar dentro de los grandes centros de datos. Los fabricantes ya están probando discos de más de 40TB usando tecnologías como HAMR (Heat-Assisted Magnetic Recording), que aumenta la densidad areal sin aumentar el tamaño físico del disco.
Para poner ese crecimiento en perspectiva, un solo rack de almacenamiento moderno ahora puede contener más datos que todo un centro de datos empresarial mediano de 2010.
Así de drásticamente ha cambiado la demanda de almacenamiento.
Y la IA es una de las principales razones.
La IA funciona con algo más que velocidad
La discusión pública sobre IA tiende a enfocarse en las GPU porque las GPU hacen el trabajo visible. Generan las respuestas, crean las imágenes y procesan los tokens.
El almacenamiento hace el trabajo invisible de preservar la propia tubería de inteligencia.
Las GPU solo son útiles si pueden acceder continuamente a enormes cantidades de datos de entrenamiento.
Esos datos tienen que vivir en algún lugar.
No dentro de la HBM. No dentro de la DRAM. Y desde luego no completamente dentro de costosas capas de almacenamiento NAND.
Viven principalmente en una infraestructura masiva de discos duros.
Un centro de datos moderno de IA puede contener cientos de petabytes de datos almacenados. Algunos entornos hyperscale probablemente van mucho más allá, hacia arquitecturas en escala de exabytes. Intentar almacenar todo eso completamente en NAND flash sería financieramente irrealista, incluso para los proveedores de nube más grandes.
Esta es la parte que mucha gente pasa por alto cuando habla de hardware para IA.
El rendimiento importa, pero la economía también importa.
A la industria le encanta promocionar IOPS y números de benchmark, pero las grandes implementaciones de IA al final están limitadas por el costo total de propiedad.
Los discos duros siguen ofreciendo el costo por terabyte más bajo en implementaciones a gran escala. También siguen siendo extremadamente eficientes para almacenar datos fríos, datasets archivados, snapshots de respaldo, checkpoints de modelos e información masiva de entrenamiento que no necesita tiempos de acceso de nanosegundos.
Por qué los discos duros todavía funcionan para la IA
También hay otro malentendido que vale la pena aclarar: muchas personas asumen que los discos duros son demasiado lentos para ser útiles en entornos de IA.
Eso no es del todo cierto.
Un solo disco duro es lento comparado con DRAM o NAND flash, sí. Pero los centros de datos de IA no operan con discos individuales. Operan con enormes arreglos de almacenamiento con acceso paralelo a través de miles de discos al mismo tiempo.
Más importante aún, muchas cargas de trabajo de IA implican streaming secuencial de grandes datasets en lugar de pequeñas transacciones aleatorias. Las cargas secuenciales resultan ser una de las áreas donde los arreglos modernos de discos duros empresariales todavía rinden sorprendentemente bien.
En otras palabras, la infraestructura de IA no siempre está preguntando: “¿Cuál es el almacenamiento más rápido posible?”
A veces está preguntando:
¿Cuál es la forma práctica más rápida de almacenar 500 petabytes sin llevar a la empresa a la quiebra?
Ese es un problema de ingeniería muy diferente.
La infraestructura de IA se está convirtiendo en un ecosistema de memoria por capas
Esto también explica por qué las tecnologías más nuevas se están incorporando en capas dentro de los sistemas de IA, en lugar de reemplazar por completo a las tecnologías más antiguas.
En nuestro artículo sobre Storage Class Memory: la capa que falta entre DRAM y NAND, exploramos cómo la industria sigue creando capas intermedias para equilibrar velocidad, persistencia y economía.
También analizamos cómo NAND intenta acercarse al rendimiento de nivel memoria en: High Bandwidth Flash: ¿por fin la NAND puede comportarse como memoria?.
La infraestructura de IA se está convirtiendo exactamente en eso: un ecosistema de memoria por capas.
La HBM maneja el cálculo inmediato. La DRAM gestiona las cargas de trabajo activas. La NAND flash absorbe tareas rápidas de almacenamiento persistente. Las tecnologías storage-class intentan cerrar las brechas de latencia. Los discos duros proporcionan la enorme base de capacidad debajo de todo lo demás.
El futuro del almacenamiento para IA no es una tecnología reemplazando a otra.
Son múltiples tecnologías apilándose juntas porque ningún tipo de memoria resuelve bien todos los problemas.
Ese probablemente sea el mayor malentendido alrededor de la infraestructura de IA hoy. La gente asume que la tecnología más nueva automáticamente elimina a la anterior.
Pero la historia rara vez funciona así en la computación.
Los discos duros sobrevivieron a los SSD porque el mundo siguió produciendo más datos más rápido de lo que los precios de la flash podían bajar. Ahora la IA está acelerando todavía más esa tendencia. La cantidad de información que se genera, conserva, copia y vuelve a entrenar está explotando tan rápido que la capacidad misma se ha convertido en un recurso estratégico.
Irónicamente, mientras más avanzada se vuelve la IA, más importante se vuelve también la infraestructura de almacenamiento a gran escala.
Lo que significa que una de las tecnologías más antiguas del centro de datos puede seguir desempeñando un papel crítico en la IA durante mucho más tiempo de lo que la mayoría esperaba.
Nota editorial: Este artículo forma parte de la serie continua sobre infraestructura de IA y arquitectura de memoria publicada por GetUSB.info. El artículo fue investigado y escrito con apoyo editorial asistido por IA para estructura y legibilidad, y después fue revisado y refinado por el equipo editorial de GetUSB para precisión técnica, continuidad y claridad.
La imagen que acompaña este artículo es una fotografía original capturada por el equipo de GetUSB.info y no es fotografía de stock.
