top of page

【科技速解】HBM:為 AI 巨獸注入靈魂的「記憶體摩天樓」,為何一片難求?

  • 作家相片: Sonya
    Sonya
  • 9月29日
  • 讀畢需時 6 分鐘

已更新:10月3日

秒懂重點:為什麼你現在非懂不可?


如果把 NVIDIA 的 AI 晶片比作史上最聰明的大腦,那 HBM(高頻寬記憶體)就是直接與這個大腦相連的「超高速海馬迴」,負責以驚人速度餵給它短期記憶和思考材料。沒有 HBM,再強的 AI 晶片也只是一尊無法思考的昂貴矽晶石。它徹底解決了運算史上最大的瓶頸:「記憶體高牆」——大腦想得太快,但資料跟不上。


HBM 的革命性不在於它「儲存」了多少資料,而在於它「傳輸」資料的速度有多快。它的祕密武器是「3D 堆疊」:不像你電腦裡平鋪的記憶體條,HBM 是將多層記憶體晶片垂直堆疊起來,像蓋摩天大樓一樣,然後在樓層間打通上千條超高速電梯(微小的矽穿孔),直接連到隔壁的 AI 晶片。


這個「記憶體摩天樓」的結構,使其頻寬達到傳統記憶體的十幾倍,但同時功耗更低、體積更小。然而,建造這座「樓」的工藝極度複雜,良率極低,導致全球產能被 SK 海力士、三星等少數巨頭壟斷。因此,HBM 已成為當今 AI 產業鏈中最關鍵、最稀缺的戰略物資。它的產能,直接決定了全世界能生產多少 AI 晶片。



技術白話文:原理解析與核心突破


過去的瓶頸:它解決了什麼關鍵問題?


長久以來,電腦運算一直有個根本性的矛盾,稱為「記憶體高牆」(The Memory Wall)。

我們可以把傳統的電腦架構,想像成一間分工明確的公司:


  • CPU/GPU (大腦/設計中心):位於市中心的總部大樓,擁有極強的思考和計算能力。

  • DDR 記憶體 (資料倉庫):位於遙遠的郊區,儲存著公司營運需要的所有資料。

  • 記憶體匯流排 (聯外公路):連接總部和倉庫的幾條高速公路。


問題就出在這條公路上。無論大腦運算速度變得多快,它要取得資料,都必須派卡車經由這幾條有限的公路去郊區倉庫拉貨。隨著 AI 模型越來越複雜,大腦需要的資料量暴增,導致公路上擠滿了卡車,造成嚴重塞車。結果就是,身價不菲的大腦,有 70% 的時間都在「空轉」,呆等著資料送達。這就是記憶體高牆,一個因為資料傳輸速度跟不上運算速度而導致的巨大效能浪費。


它是如何運作的?(務必使用比喻)


HBM 用兩個天才般的「都市更新計畫」徹底推倒了這面牆。


  1. 計畫一:蓋「記憶體摩天樓」 (3D 堆疊) 與其在郊區蓋一堆平面倉庫,HBM 的作法是在市中心總部(GPU)隔壁,直接蓋一棟垂直的「記憶體摩天樓」。它將 8 層、12 層甚至未來更多的 DRAM 記憶體晶片(Die)像蓋樓一樣,一層層精準地疊上去。這棟摩天樓本身就容納了海量資料,而且離大腦近在咫尺。

  2. 計畫二:建「萬部專屬電梯」 (寬匯流排) 蓋好樓還不夠,關鍵是如何快速把資料從樓裡運出來。傳統的「公路」只有 64 條車道,而 HBM 則在這棟摩天樓的每一層之間,用雷射鑽通了成千上萬個微小的垂直通道,稱為「矽穿孔」(TSV, Through-Silicon Via)。 這相當於為這棟摩天樓安裝了 1024 部以上的超高速專屬電梯,所有電梯直達地下,通往一條直達隔壁大腦總部的「內部捷運線」(此捷運線就是台積電的 CoWoS 技術核心:矽中介層)。


透過「摩天樓 + 萬部電梯」的設計,HBM 實現了超短距離、超多通道的資料傳輸。AI 大腦不再需要派車去郊區,只要按個鈕,資料就透過專屬電梯和捷運,瞬間送到眼前。


為什麼這是革命性的?


HBM 帶來的優勢是全方位的,完美契合 AI 運算的需求。


  • 超高頻寬 (Ultra-High Bandwidth):擁有 1024 位元的超寬匯流排,其資料傳輸速率(頻寬)是頂規 DDR5 記憶體的 10 倍以上。這讓 AI 大腦能以史無前例的速度「閱讀」資料,最大化運算效率。

  • 超低功耗 (Lower Power Consumption):因為資料傳輸距離從幾公分縮短到幾微米,能量耗損大幅降低。對於動輒消耗數萬瓦電力的 AI 資料中心來說,每一瓦的節省都至關重要。

  • 極小體積 (Smaller Form Factor):垂直堆疊的結構,極大地節省了在印刷電路板 (PCB) 上的寶貴面積,讓整個運算模組可以做得更小、更緊湊。


HBM 不是對傳統記憶體的改良,而是從根本上改變了資料的儲存和移動方式,是專為 AI 時代而生的記憶體架構。


產業影響與競爭格局


誰是主要玩家?(供應鏈解析)


HBM 的供應鏈高度集中,呈現寡占格局,主要由三類玩家構成:


  1. 記憶體製造商 (摩天樓的建造商):這是技術的核心,全球僅有三家公司能大規模量產。

    • SK 海力士 (SK Hynix):目前的市場領導者,最早與 NVIDIA 合作,在 HBM3 和 HBM3E 世代佔據領先地位。

    • 三星 (Samsung):作為記憶體龍頭,正挾其龐大的產能與技術實力全力追趕,目標在 HBM3E 和 HBM4 世代奪回主導權。

    • 美光 (Micron):市場的第三位玩家,技術實力不俗,也在積極擴產,是供應鏈中不可或缺的力量。

  2. 晶圓代工與封裝廠 (都市計畫者):光有摩天樓不夠,還需要有人能把它跟市中心總部完美地連接起來。

    • 台積電 (TSMC):其 CoWoS 先進封裝技術是市場的黃金標準,是將 HBM 與 GPU 晶片完美整合的關鍵。台積電的 CoWoS 產能,直接決定了 HBM 能否順利「安裝」到 AI 晶片上。

  3. 晶片設計公司 (摩天樓的租客):他們是 HBM 最大的客戶。

    • 輝達 (NVIDIA):全球最大的 HBM 採購商,其 H100、B200 等頂級 GPU 對 HBM 的需求無窮無盡。

    • AMD、Google、Amazon、Microsoft 等也都在自家的 AI 晶片中大量採用 HBM。


技術的普及時程與挑戰


HBM 的最大挑戰就是「製造」。在一粒沙子大小的面積上,要將 12 層比紙還薄的晶片完美對位堆疊,並鑽通數千個無瑕疵的垂直導孔,其難度堪比「在米粒上刻萬層佛經」。


  • 製造良率:極其複雜的工藝導致 HBM 的生產良率遠低於傳統 DRAM,這是其價格高昂、產能稀缺的根本原因。

  • 散熱問題:多層晶片堆疊會產生熱量集中的問題,如何有效地為「摩天樓」的中心樓層散熱,是一大工程挑戰。


技術演進

  • HBM3E:當前(2024-2025)市場主流的最高階產品。

  • HBM4:預計 2026 年問世,將堆疊更多層數(如 16 層),並將匯流排寬度翻倍至 2048 位元,需要更先進的封裝技術(可能直接整合在晶片旁,即 Hybrid Bonding)。


潛在的風險與替代方案


目前市場最大的風險就是「供給不足」。HBM 的產能已成為 AI 產業發展速度的「限速器」。只要三大記憶體廠的擴產速度跟不上 NVIDIA 等客戶的需求,AI 硬體的短缺將持續存在。

替代方案方面,GDDR7 記憶體(常用於高階顯示卡)提供了另一種選擇。它的速度極快,且成本較低,適合需要高頻寬但對延遲和功耗要求不那麼極端的應用(如 AI 推論)。然而,在訓練大型 AI 模型所需的海量頻寬與能效比上,GDDR7 仍無法取代 HBM 的王者地位。


未來展望與投資視角


HBM 已經從一個單純的零組件,演變為左右全球科技巨頭戰略佈局的「戰略性資產」。它不再是 AI 晶片的「選配」,而是「標配」。未來 AI 模型越龐大、越複雜,對 HBM 的依賴就越深。


對於投資人而言,HBM 供應鏈提供了一個極具吸引力且相對清晰的投資地圖:


  • 三巨頭的軍備競賽:SK 海力士、三星、美光的資本支出、擴產計畫、以及在下一代 HBM4 技術上的進展,將是未來幾年半導體市場的焦點。誰的良率更高、量產速度更快,誰就能掌握定價權。

  • 封裝產能的價值:台積電的 CoWoS 產能與 HBM 的供應量是「一體兩面」,共同決定了 AI 晶片的最終出貨量。關注 CoWoS 相關供應鏈同樣至關重要。


在未來 5 年內,這座「記憶體摩天樓」蓋得多快、多高,將直接定義 AI 革命的推進速度。它是整個 AI 硬體帝國中最閃亮、最脆弱、也最充滿機會的一塊基石。

Subscribe to AmiNext Newsletter

Thanks for submitting!

  • LinkedIn
  • Facebook

© 2024 by AmiNext 金融與科技筆記

Your data will not be transferred to any 3rd party
bottom of page