什麼是 HBM?
HBM (High Bandwidth Memory 高頻寬記憶體) 本質上就是把好幾層普通的 DRAM(記憶體)像疊疊樂一樣垂直堆疊起來,特色是體積更小、速度極快、功耗更低。- 傳統記憶體 (DDR): 像是平房或停車場,佔地面積大,資料要跑很遠才能到處理器那裡。
- HBM: 像是摩天大樓。透過一種叫 TSV(矽穿孔)的技術,直接在晶片上打洞,讓資料像搭「高速電梯」一樣垂直傳遞。
HBM 在做什麼?
在 AI 運算中,處理器算得再快,如果記憶體送資料的速度跟不上,處理器就無法做事。導致「記憶體牆」瓶頸。HBM 的工作就是拓寬馬路。
- 傳統記憶體的馬路可能只有 32 或 64 線道。
- HBM 的馬路起跳就是 1024 線道(HBM4 甚至達到了 2048 線道)。這讓大量數據可以在瞬間完成傳輸,滿足生成式 AI(如 GPT-5 或更高版本)處理千億級參數的需求。
HBM 與 CoWoS 的關係
HBM 是記憶體產品,而 CoWoS 是把 HBM 跟 GPU 黏在一起的包裝工法。沒有 CoWoS,HBM 就無法發揮它應有的速度。目前的應用和趨勢
- HBM 現在不是「選配」,而是 AI 伺服器的「標配」。
- NVIDIA 的 Blackwell Ultra (B200/B300) 以及 AMD 的 MI355X 系列。
- 超級電腦處理氣象模擬、藥物研發等海量數據任務。
- 三星與 SK 海力士已於 2026 年初進入 HBM4 大規模量產階段。
- 以前的 HBM 是標準品,現在的大廠(如 Google、AWS)開始要求針對自家晶片訂製「專屬 HBM」。
- 雖然產能翻倍,但因 AI 需求過於旺盛,2026 年的 HBM 產能幾乎在去年底就已被預訂一空。
如果有甚麼錯誤或需要補充的地方歡迎指正~




























































































