Samsung y SK Hynix gastan miles de millones más en la producción de DRAM para satisfacer el hambre interminable de servidores de IA

Samsung y SK Hynix gastan miles de millones más en la producción de DRAM para satisfacer el hambre interminable de servidores de IA

Como alguien que ha pasado innumerables horas jugueteando con mi PC y buscando el último hardware para juegos, no puedo evitar sentir una punzada de entusiasmo ante la perspectiva de una mayor producción de DRAM, particularmente para la memoria de alto ancho de banda (HBM). Las posibles aplicaciones de HBM tanto en informática de IA como en tarjetas gráficas de alta gama siempre me han intrigado.


Desde que lleva funcionando, la industria DRAM ha pasado por ciclos de aumento de producción y luego la ha reducido para aumentar las ganancias. Pero ahora los dos fabricantes más grandes están dispuestos a gastar miles de millones de dólares para aumentar significativamente la producción de chips de RAM, todo para satisfacer la demanda interminable de computadoras con inteligencia artificial.

Samsung y SK Hynix producen una variedad de tipos de DRAM, como DDR4, DDR5 para la placa base de su computadora y GDDR6 (y pronto GDDR7) para tarjetas gráficas. Sin embargo, cuando se trata de procesadores avanzados como el Instinct MI300 de AMD y el H100 de Nvidia, la memoria preferida es la memoria de alto ancho de banda (HBM).

Lo que diferencia a HBM es su diseño, que incorpora varios chips DRAM apilados uno encima de otro. La electricidad y los datos se envían a estas capas a través de cables verticales, conocidos como «vías a través del silicio» o TSV. Esta estructura permite acceder a una gran cantidad de memoria simultáneamente, lo que aumenta significativamente la velocidad de lectura/escritura.

La memoria HBM3 Icebolt más reciente de Samsung emplea doce capas de sus matrices DRAM de 10 nm de última generación, lo que da como resultado una capacidad de 16 GB o 24 GB por unidad. Por otro lado, el AMD Instinct MI300 incorpora ocho módulos HBM3, lo que proporciona una enorme memoria GPU de 128 GB, lo que se traduce en 96 matrices DRAM individuales dentro de un solo acelerador. En consecuencia, los informes sugieren que Samsung y SK Hynix están invirtiendo fuertemente en ampliar su producción debido a esta alta demanda, como afirma The Korean Economic Daily.

Actualmente, es posible que te encuentres pensando algo como «Ah, sí, eso es intrigante, pero parece que esto sólo se aplica a la IA, no a los juegos de PC». Sin embargo, es esencial tener en cuenta que los troqueles de memoria de alto ancho de banda (HBM) discutidos podrían utilizarse en una variedad de otras aplicaciones además de la IA. Por ejemplo, podrían emplearse como RAM del sistema o como memoria de acceso aleatorio de vídeo (VRAM) de una tarjeta gráfica.

Anteriormente, HBM había pasado a un segundo plano; AMD fue pionera en su uso con una GPU en la serie Radeon RX Fury, y posteriormente con la RX Vega 64 y sus parientes. La tarjeta gráfica para juegos más reciente que incorporó HBM fue la Radeon VII. Sin embargo, desde entonces, no hemos sido testigos de más casos porque la velocidad bruta de GDDR6X y GDDR7 proporciona un ancho de banda adecuado.

Si hay un exceso de troqueles adicionales para módulos HBM en el mercado, podría reaparecer en el mercado premium, pero sólo para las tarjetas gráficas Nvidia, ya que AMD se ha retirado temporalmente de esa área específica.

Existe la posibilidad de que si el mercado de la IA colapsa, Samsung y SK Hynix se encuentren con un enorme stock de chips DRAM que ya no tienen demanda. Posiblemente se puedan reutilizar para otros productos. En cuanto a la memoria producida para los módulos HBM, no está claro si funcionará como RAM normal del sistema. ¿Pero quién sabe? Podríamos ver un resurgimiento de precios de memoria extremadamente bajos una vez más.

Sin embargo, dado que la industria de la tecnología continúa priorizando la integración de la IA en todos los aspectos, parece que los juegos de PC no obtendrán los beneficios de una mayor producción de DRAM en este momento.

2024-09-09 17:17