?AI時代存儲技術(shù)格局重塑:HBM、DRAM與NAND的角色演變?
隨著半導(dǎo)體行業(yè)與無線技術(shù)深度融合,Technotrend市場研究公司決定對AI硬件市場現(xiàn)狀展開更全面的審視。內(nèi)存、DRAM、高帶寬內(nèi)存(HBM)和NAND的發(fā)展趨勢,不僅深刻影響著AI系統(tǒng)自身,也在無線通信、消費電子及汽車等領(lǐng)域引發(fā)連鎖反應(yīng)。
本文聚焦近期內(nèi)存技術(shù)的演進,闡釋為何內(nèi)存架構(gòu)正成為AI性能、定價乃至市場格局的關(guān)鍵變量。進入2026年,單一關(guān)注算力的視角已經(jīng)顯示出局限性——內(nèi)存正成為規(guī)模化AI系統(tǒng)的首要瓶頸。
DRAM:AI實時性能的核心基石
AI模型生成回答并非簡單檢索靜態(tài)信息,而是持續(xù)維護一個包含上下文窗口、(key-value caches)、中間激活值(intermediate activations)和路由決策的“工作狀態(tài)”。這些數(shù)據(jù)需以超低延遲實時訪問且始終保持可用,因此DRAM及更貼近計算核心的HBM成為支撐AI性能的底層支柱。
與SSD不同,DRAM使模型推理全程保持“熱狀態(tài)”。在完整token序列處理中,模型需持續(xù)訪問并更新上下文。即便內(nèi)存延遲輕微上升,也可能導(dǎo)致吞吐量下降、響應(yīng)延遲,甚至迫使運營商增配硬件。實際應(yīng)用中,許多AI系統(tǒng)的瓶頸已從算力轉(zhuǎn)向內(nèi)存。
- 從系統(tǒng)架構(gòu)看,AI運行于分層內(nèi)存體系之上:
- HBM為AI加速器提供高帶寬數(shù)據(jù)供給;
- DRAM存儲實時狀態(tài)與對話記憶;
- 基于NAND的SSD則承載數(shù)據(jù)集、嵌入向量、檢索索引、日志及檢查點等持久化存儲。
實現(xiàn)“更強大的AI”,往往意味著將更多數(shù)據(jù)從冷存儲遷移至更快、更低延遲的內(nèi)存層級。
NAND:“知識層”的沉默支撐者
表面上看,NAND在大語言模型架構(gòu)中的重要性不及DRAM——SSD的速度遠慢于DRAM,且不參與實時token生成。但大規(guī)模AI系統(tǒng)無法脫離NAND:訓(xùn)練數(shù)據(jù)集、模型檢查點、向量數(shù)據(jù)庫及檢索系統(tǒng)均依賴其提供成本可控的海量存儲容量。
隨著檢索增強生成(RAG)成為核心技術(shù),AI集群正悄然構(gòu)建龐大的SSD資源池。長期記憶、合規(guī)日志、向量搜索等均駐留于這一“冷知識層”。AI并未削弱NAND的價值,反而在更深層、更結(jié)構(gòu)化的內(nèi)存體系中重塑其定位。
當前AI數(shù)據(jù)中心正擴展向量數(shù)據(jù)庫、檢查點與日志存儲能力,推動企業(yè)級SSD需求持續(xù)增長。NAND供應(yīng)商的策略已轉(zhuǎn)向:
- 將產(chǎn)能從低利潤消費級SSD轉(zhuǎn)向高價值數(shù)據(jù)中心產(chǎn)品;
- 嚴格控制整體產(chǎn)能規(guī)模。
與此同時,存儲器廠商正優(yōu)先將資本支出投向HBM與先進DRAM,這進一步限制了通用DRAM與NAND的產(chǎn)能擴張速度。
從技術(shù)參數(shù)到產(chǎn)品特性:內(nèi)存成為服務(wù)分層標尺
對基于大語言模型的服務(wù)而言,內(nèi)存正演化為直接的產(chǎn)品特性。響應(yīng)速度、上下文窗口長度及對話歷史持久性,均取決于用戶或會話可分配的DRAM與HBM資源量,由此催生分層服務(wù)模式:付費用戶獲得更充裕且穩(wěn)定的內(nèi)存預(yù)算,免費用戶則在嚴格限制下運行。
主流AI平臺中,高價服務(wù)層級通常提供更長的上下文支持、更高的調(diào)用頻率限制、優(yōu)先級的性能保障。這些特性緊密關(guān)聯(lián)內(nèi)存分配而非單純算力。隨著技術(shù)效率提升,其收益往往被用于擴展上下文長度與個性化功能,而非降低價格——延遲本身被視為一種特性,內(nèi)存則成為核心定價變量。
廣告與內(nèi)存經(jīng)濟學(xué):可持續(xù)運營的雙軌制
大規(guī)模運行LLM的經(jīng)濟模型仍面臨挑戰(zhàn):計算、內(nèi)存及數(shù)據(jù)中心的基礎(chǔ)設(shè)施成本持續(xù)攀升,僅靠訂閱收入難以覆蓋高頻使用負載。因此,廣告逐漸成為結(jié)構(gòu)性補充方案。
一個可能的演進路徑是形成一種混合模式:廣告補貼免費用戶的基礎(chǔ)訪問;付費層級購買內(nèi)存層級中的優(yōu)先位置。廣告確保服務(wù)廣泛可及,內(nèi)存分配則直接定義性能與體驗質(zhì)量。
價格上漲與外溢效應(yīng):供需雙驅(qū)動
近期DRAM與NAND價格上漲常歸因于AI需求,但供應(yīng)端策略同樣關(guān)鍵:內(nèi)存廠商正謹慎擴產(chǎn),優(yōu)先投入先進DRAM與HBM,并維持嚴格的產(chǎn)出紀律。即使不存在實質(zhì)性短缺,該策略仍會支撐高位價格。
盡管LLM針對HBM進行了優(yōu)化,但由于供應(yīng)有限,AI系統(tǒng)不得不大量依賴傳統(tǒng)DRAM。DDR5(以及在某些情況下的DDR4)被廣泛用于主機CPU、系統(tǒng)內(nèi)存和網(wǎng)絡(luò)組件,從而進一步收緊了供應(yīng)并推高了價格。
即使是諸如DDR3等舊標準也會受到影響。雖然DDR3并未用于AI系統(tǒng),但其產(chǎn)能隨著制造商將重心轉(zhuǎn)向新技術(shù)而縮減。而汽車、工業(yè)等領(lǐng)域因產(chǎn)品生命周期長,仍持續(xù)依賴DDR3,在長尾需求中形成持續(xù)價格壓力。
行業(yè)整合前夜:內(nèi)存墻成為市場篩選器
“內(nèi)存墻”正演變?yōu)槭袌龊Y選機制:要以前沿水平運行LLM并保持上下文長度與延遲競爭力,需對DRAM與HBM進行持續(xù)大規(guī)模投入。僅少數(shù)參與者能承擔(dān)此類成本。下一階段AI競爭的決定性因素將不再是算法本身,而是內(nèi)存資源、物理極限與企業(yè)資產(chǎn)負債表的較量。
本文翻譯自國際電子商情姊妹平臺EETimes Aisa,原文標題:
