SK 海力士(SK Hynix)高管在公开场合的问答实录,核心是阐述NAND 闪存与 SSD 在 AI 时代的技术变革、市场需求变化,以及公司的应对策略:1. 核心论点:NAND 闪存的角色正在发生根本性转变过去,NAND 只是单纯的 “数据存储介质”。现在,它正在演变为直接支撑 AI 计算工作流的 “存储解决方案”。背后原因:AI 推理技术持续升级,仅靠 GPU 和 CPU 自带的内存已无法满足需求,因此KV Cache(键值缓存)卸载成为保障 AI 推理服务流畅运行的关键技术,这对存储的性能提出了全新要求。2. 市场与架构的结构性变化需求端:AI 对数据的利用更精准、更快速,直接推动了对高性能、大容量企业级 SSD的需求暴涨,这类产品需要支持高速数据传输和高 IO(输入输出)性能。技术端:AI 服务器的底层架构正在发生根本性变革,“存储 - 运行环境(Context)- 内存 - GPU-SSD” 的协同关系变得前所未有的紧密。定位变化:在过去以 CPU 为核心的服务器架构中,SSD 只是外围设备;而在现在以 GPU 为核心的 AI 服务器架构里,SSD 正在成为计算流程中的核心环节。3. SK 海力士的应对策略为了抓住这一趋势,公司明确了两大技术方向:超高性能企业级 SSD:重点满足实时 AI 推理和 GPU 服务器对 “超高速 IO” 和 “超低延迟” 的存储需求,目标是在快速增长的市场中建立技术领先优势。超大容量企业级 SSD:基于 HBM(高带宽内存)技术的延伸技术进行开发,支持 KV Cache 和多样化的数据卸载,既能满足客户需求,也能解决数据中心面临的功耗和空间瓶颈。关键专业术语释义NAND:NAND 闪存,一种非易失性存储芯片,是固态硬盘、U 盘、存储卡的核心存储部件。SSD:Solid State Drive,固态硬盘,区别于传统机械硬盘,采用闪存芯片存储数据,读写速度更快。AI inference:人工智能推理,指训练好的 AI 模型对新数据进行预测、判断的过程。KV Cache:Key-Value Cache,键值缓存,AI 大模型推理中用于缓存中间计算结果的关键技术,可显著提升推理效率。IO:Input/Output,输入输出,指代数据在存储设备和计算芯片之间的传输操作。HBF:High-Bandwidth Flash,高带宽闪存,海力士的核心闪存技术,主打超高数据传输带宽。
