存储需求炸了,AI是幕后推手!
最近,AI这把大火,直接把DRAM、HBM、NAND的需求给烧穿啦!
1. DRAM:AI 服务器 “吃内存” 太猛,OpenAI订单成 “大炸弹”
DRAM就是咱们平常说的内存。为啥AI服务器这么能 “造” 内存呢?简单来讲哈,AI大模型训练的时候,得同时处理海量的数据,就好比人脑要同时记住1000本书一样,内存不够那根本就转不动。所以一台AI服务器的DRAM用量,是普通服务器的8-10倍呢!不过要说需求突然爆发,其实不是因为AI服务器变多了(这是慢慢增长的),关键是部分DRAM产能被 “抢” 去做更先进的HBM啦!就比如说原本给DDR4留的产能,现在得优先给HBM让路,这一调整结构,DRAM的供需一下子就绷得紧紧的啦。最近最大的 “雷” 是啥呢?就是OpenAI和三星搞的那个 “星际之门” 项目!人家直接甩出一个超级大订单,说到2029年,每月要90万片DRAM晶圆。咱来看看全球DRAM现在的产能,每月才199万片呢!这就相当于一家 OpenAI的需求,直接占了全球产能的近一半啦!更离谱的是扩产速度。以前DRAM产能从2007年的100万片涨到2025年的199万片,用了18年的时间,平均每年才涨5万片。现在要给OpenAI补上 90万片的缺口,得在4年内搞定,每年就得扩产22.5万片,扩产速度是过去的4倍!设备、晶圆厂不得疯了似的加单呀!
2. HBM:DRAM里的 “卷王”,产能严重不足
HBM 其实是DRAM的 “升级版” 哈,专门给GPU、AI芯片当 “高速显存” 用的,这两年增速那叫一个猛。为啥呢?因为AI芯片算力越来越强,普通显存的 “传输速度” 根本跟不上,HBM能把多个显存堆起来,就像叠汉堡一样,速度直接就拉满啦。但是问题来了,OpenAI不光找三星要DRAM,还给海力士下了HBM的订单,每月也要90万片晶圆!可现在全球HBM产能是多少呢?每月才40万片!海力士、三星、美光这三家巨头加起来都不够,长鑫那点低端HBM根本就不够看。原来HBM产能就像小水管,现在突然要接大水库的水,不爆才怪。所以这两年HBM的价格跟坐火箭似的,缺货缺到厂商订单都排到明年了,扩产的话,没个两三年根本缓不过来。
3. NAND:训练时 “躺平”,推理时 “爆发”
NAND就是闪存,咱们平时用的固态硬盘就靠它。不过它在AI训练阶段需求不大,训练的时候数据主要在内存(DRAM)里跑,跑完就扔了。真正爆发是在推理阶段,也就是大模型 “上班” 的时候。举个例子,现在用GPT的人越来越多,每天有几亿次提问,每次都得调模型参数、存用户对话记录,这些都得存在闪存里。再加上多模态(文字、图片、视频一起上),一个视频占的空间是文字的几百倍,闪存需求直接就 “撑破” 啦。机构预测到2029年,闪存需求会是2015年的2.1倍!现在闪存厂的订单都排到半年后了,下游厂商抢货跟抢白菜似的。总结:存储这波行情,AI是幕后大推手。存储需求的爆发,是AI从训练到推理全链条 “吃存储” 的必然结果。