DDR4? DDR5?轉貼自從AI爆發以來,三星、海力士、美光全都在重配資源,把產能往先進製程與HBM傾斜。原因很簡單:HBM ASP是DDR4的20倍以上,良率每提高1%,帶來的營收就遠高於舊世代產品。加上 EUV 光刻機數量有限、每一條產線要配電力、工程師與測試設備,產能的機會成本極高。所以,當這些大廠的產線逐步淘汰舊製程,DDR4就被迫邊緣化。供給面在萎縮,但需求卻因AI的連結需求暴衝。結果就是產業鏈產生了錯位。再加上另一層現象:AI帶來的不只是雲端訓練,還有大量的邊緣推論節點、AI攝影機、智慧製造設備。這些工控與網通設備,因為生態兼容性考量,大多數還是用DDR4。這就是「長尾需求爆發」的現象,不是單一市場暴增,而是許多分散領域同時在擴張,每個都吃掉一點DDR4。當你把雲端交換器、機櫃控制模組、工控終端、車載邊緣運算全部加起來,總量驚人。從不想做到做不回去 DDR4結構性失衡而DDR4又沒有替代品。DDR5雖然性能更好,但控制架構不同、功耗高、成本高、開發週期長,並不適合這些系統。結果是:需求端一片繁榮,供應端卻早已轉身離開。最後是結構性失衡:從「不想做」到「做不回去」。當我問幾家模組廠有沒有可能再擴DDR4產能,得到的回答都差不多:「太晚了。」第一,舊製程設備早已汰換或轉線;第二,DDR4的mask與測試治具早被封存或報廢;第三,人才也早被調往新製程。重新開產線的成本太高,時間太久。換句話說,現在就算想救,也救不回來。這就是所謂的「結構性缺貨」——不是暫時性的需求高峰,而是整個生產結構已經轉向,沒有回頭路。交換器廠寧願花3倍價搶貨DDR4因此現在出現極端現象:交換器廠寧願花3倍價錢搶DDR4,也不會猶豫。因為一台交換器少了幾顆記憶體,整機價值上萬美金,成本占比低但殺傷力極高。這股需求壓力迅速傳導到台灣模組廠與封測廠,從南亞科、華邦電、旺宏,全線都感受到庫存被掃光。甚至一些二線模組廠被迫提前簽半年供應合約。我看到有廠商開玩笑說:「以前客戶挑價錢,現在換我們挑客戶。」
還在炒作DDR4 DDR3, 想必資金抽不回來了, DDR4 DDR3就算生產線都不生產了, 也還有電腦汰換下來的回收記憶體, 回收回來的記憶體大部分都是良品, 一支記憶體模組回收價格只要新台幣10~15元, 回收商回收後先拆除記憶體顆粒, 按照記憶體規格分類, 再經過測試之後的良品就可出貨, 價格絕對遠低於新品.intel G41~H97(2008~2014)晶片都是使用DDR3 記憶體, intel H110~H710(2015~2023)晶片都是使用DDR4, 當然在交替時期會有支援兩種記憶體規格的產品, 如G41支援DDR2跟DDR3, H110支援DDR3跟DDR4, H710支援DDR4跟DDR5, 所以全世界DDR3淘汰回收品數量會非常驚人, DDR4以電腦使用5年就可汰換來說, 2015~2020年上市的電腦都有機會回到回收市場, 所以DDR4回收品也很多.AI伺服器使用的是HBM(高頻寬記憶體)目前以韓國海力士 三星 美國美光為主要供應商, HBM需求量大, 利潤高, 技術門檻也高, 在未來幾年都有可能供不應求.一般的消費市場, 目前主流記憶體模組是DDR5, 台灣國內記憶體廠家都是生產這類記憶體, 中國也都是生產消費性記憶體.消費性記憶體最大的需求產品是電腦及手機, 所以電腦及手機廠營收多寡會直接影響消費性記憶體需求是真缺貨還是炒作, 記憶體炒作是行之有年, 沒幾年就會炒作一次, 都已經習慣了.HBM基本上跟國內的記憶體廠家或是模組廠是沒什麼關係的, HBM跟一般消費性記憶體雖然都是記憶體, 但兩者的用途卻不一樣, 消費性記憶體的價格已經被炒到天價了, 一般消費者也不會傻到在這個時間點去買電腦或組裝電腦, 除非有剛性需求, 消費端需求一旦減弱, 天價的記憶體就要崩盤了, 消費性記憶體需求決不會像新聞寫的會源源不斷到2027年.
hscic wrote:HBM基本上跟國內的記憶體廠家或是模組廠是沒什麼關係的, HBM跟一般消費性記憶體雖然都是記憶體, 但兩者的用途卻不一樣, 消費性記憶體的價格已經被炒到天價了, 一般消費者也不會傻到在這個時間點去買電腦或組裝電腦, 除非有剛性需求, 消費端需求一旦減弱, 天價的記憶體就要崩盤了, 消費性記憶體需求決不會像新聞寫的會源源不斷到2027年. 除非ai需求崩潰,不然記憶體價格很難回跌
天才的腦袋傳奇程式設計師卡馬克「瘋狂」構想!200公里光纖變AI記憶體,DRAM要被淘汰了?cnBetacnBeta 發表於 2026年2月12日 14:30 收藏此文傳奇程式設計師約翰.卡馬克(John Carmack)近期在 X 平台上拋出了一個瘋狂且具顛覆性的構想:利用長達 200 公里 的光纖線路來取代傳統的 DRAM 記憶體,作為 AI 運算的二級快取(L2 Cache) 。什麼是「光纖記憶體」?這個構想的核心在於「在傳輸中儲存」。卡馬克指出,目前的單模光纖技術可以在 200 公里的長度下,實現高達 256 Tb/s 的傳輸速率 。根據物理計算,在光訊號經過這段長距離傳輸的時間差內,光纖內部在任一時刻都會有約 32GB 的資料處於「飛行狀態」 。這意味著這條 200 公里的光纖,在本質上變成了一個擁有 32 TB/s 超高頻寬、容量為 32GB 的儲存器 。這種設計特別適合處理具有固定模式的 AI 神經網路數據 。