top of page

【科技速解】AI 的超級油罐車!揭密 HBM 高頻寬記憶體:為何它是 NVIDIA 心臟,更是三星與 SK 海力士的王位之戰

  • 作家相片: Sonya
    Sonya
  • 10月18日
  • 讀畢需時 6 分鐘

秒懂重點:為什麼你現在非懂不可?


你可能覺得,決定 AI 強不強的關鍵,在於晶片「算得有多快」,這只說對了一半;今天,一個更致命的瓶頸是晶片「吃資料的速度有多快」,想像一下,你有一位全世界最頂尖的神廚(GPU),他一秒鐘能切好上萬份食材,但食材卻只能透過一根細細的吸管(傳統記憶體)龜速傳遞給他,結果,這位神廚 99% 的時間都在空等,一身武功無處施展。


這就是 AI 發展面臨的「記憶體高牆」困境,高頻寬記憶體 (High-Bandwidth Memory, HBM) 就是為了解決這個問題而誕生的超級武器,它不像我們電腦裡插著的長條形 DDR 記憶體,而是像一棟摩天大樓,直接蓋在 GPU 旁邊,並透過上千條超寬的私家高速公路與 GPU 直連,這讓數據的輸送能力(頻寬)比傳統記憶體強悍了數十倍。


簡單來說,沒有 HBM,就沒有今天強大的 AI 模型,NVIDIA 的 H100 或 B200 加速器之所以能處理如此龐大的數據,正是因為 GPU 旁邊黏著好幾顆 HBM,這也解釋了為何 HBM 的供應如此緊張,價格高昂,更引爆了韓國的 SK 海力士 (SK Hynix) 與三星 (Samsung),以及美國的美光 (Micron) 之間,一場關乎未來半導體版圖的史詩級戰爭,搞懂 HBM,你才能真正看懂 AI 時代的軍備競賽,究竟在爭奪什麼樣的「戰略級石油」。


ree

技術白話文:原理解析與核心突破


過去的瓶頸:它解決了什麼關鍵問題?


數十年來,處理器 (CPU/GPU) 的運算速度遵循摩爾定律飛速成長,但記憶體的數據傳輸速度卻像個慢跑選手,遠遠跟不上。這兩者之間的效能差距,被稱為「記憶體高牆 (The Memory Wall)」。


在個人電腦時代,這個問題還不嚴重,但在 AI 時代,這道牆成了致命的障礙,訓練一個大型語言模型,需要在一瞬間將數百 GB 甚至 TB 等級的參數數據載入 GPU 進行運算,傳統記憶體(如 DDR)面臨兩大天生缺陷:


  1. 物理距離太遠 (Long Physical Distance): 記憶體晶片插在主機板上,距離 GPU 核心有好幾公分的距離,數據在這麼長的電路板銅線上奔跑,不僅會延遲,還會消耗大量電力,就像長途運輸會耗油一樣。

  2. 通道太窄 (Narrow Data Bus): 傳統 DDR5 記憶體的數據通道寬度(可以想像成高速公路的車道數)是 64-bit,這對於日常使用足夠,但對於 AI 訓練來說,就像一個雙向單線道,面對尖峰時刻的龐大車流,立刻就癱瘓了。


HBM 的設計哲學,就是徹底推翻這種「遠距離窄通道」的低效率架構。



它是如何運作的?


HBM 的核心技術可以歸結為兩個關鍵詞:「堆疊」和「靠近」。


我們可以把它想像成蓋一座緊鄰市中心(GPU)的超級圖書館


  • 傳統記憶體 (DDR):就像把圖書館蓋在遙遠的郊區,當市中心的市長(GPU)需要資料時,圖書館管理員(記憶體控制器)必須開車上高速公路(主機板線路),一次只能帶回幾本書(64-bit 數據),往返耗時又耗力。

  • 高頻寬記憶體 (HBM):則是直接在市長辦公室旁邊,蓋起一棟 12 層樓高的垂直圖書館。

    1. 垂直堆疊 (Stacking): HBM 將好幾層(通常是 8 到 12 層)的 DRAM 晶片像蓋大樓一樣垂直疊起來,這大大增加了單位面積的藏書量(儲存密度)。

    2. 超寬通道 (Wide Bus): 最關鍵的突破來了。這棟圖書館不安裝傳統電梯,而是安裝了 1024 座微型氣動管道(1024-bit 介面),直接連通每一層樓和市長辦公室,這代表市長可以一瞬間從所有樓層同時調閱上千本書!這就是 HBM 頻寬如此恐怖的原因。

    3. 矽穿孔 (TSV): 實現這 1024 座氣動管道的黑科技,就是我們在先進封裝提過的「矽穿孔 (TSV)」,它像微型鑽井機,在堆疊的晶片之間鑽出垂直的導電通道,讓數據可以直接上下傳輸。

    4. 靠近 (Proximity): 最後,透過 CoWoS 這類先進封裝技術,將這整棟 HBM 圖書館「黏」在 GPU 旁邊,兩者之間的距離縮短到微米等級,這大大降低了數據傳輸的延遲和功耗。


為什麼這是革命性的?


HBM 的革命性在於,它不追求單一晶片跑得更快(時脈頻率),而是追求一次能搬運的資料量有多大(頻寬)。


  • 頻寬的維度打擊:一片最新的 HBM3E 記憶體,頻寬可以超過 1.2 TB/s,這是什麼概念?相當於一秒鐘下載 250 部高畫質電影;而傳統高階 DDR5 記憶體的頻寬大約在 50-70 GB/s,兩者相差了 15-20 倍,這對需要瘋狂「咀嚼」數據的 AI 來說是天壤之別。

  • 能源效率的躍升:因為數據傳輸距離極短,HBM 的每 bit 數據傳輸功耗遠低於 GDDR(另一種用於顯示卡的記憶體)或 DDR,對於動輒需要消耗一座小型城市電力的 AI 資料中心來說,這點至關重要。

  • AI 模型的催化劑:正是因為有了 HBM 提供的龐大頻寬,AI 研究者才能設計出參數規模越來越大、能力越來越強的模型。可以說,HBM 為整個 AI 的「軍備競賽」提供了必要的彈藥。


產業影響與競爭格局



誰是主要玩家?


HBM 市場是一個高度壟斷的寡占市場,由三家巨頭主導,上演著精彩的「三國演義」:


  1. SK 海力士 (SK Hynix)目前的領先者 SK 海力士最早押注 HBM 技術,並率先與 NVIDIA 深度合作,在 HBM3 世代中佔據了絕對的領先地位,吃下了絕大部分 NVIDIA 的訂單,成為近年來最大的贏家。

  2. 三星電子 (Samsung)最強大的挑戰者 身為全球記憶體龍頭,三星在 HBM 市場初期反應稍慢,但在技術實力與產能規模上無人能及。三星正挾其龐大的資源全力追趕,其 HBM3E 產品正在積極爭取 NVIDIA 與其他客戶的驗證,目標是奪回記憶體的王座。

  3. 美光科技 (Micron)靈活的追趕者 美光雖然是三者中市場份額最小的,但其 HBM3E 產品在功耗和性能上具備強大的競爭力,已率先宣佈量產並打入 NVIDIA B200 供應鏈。值得一提的是,美光在台灣設有重要的研發與生產基地,這也讓台灣在全球 HBM 供應鏈中扮演了關鍵角色。


在這個賽局中,最大的客戶 NVIDIA 扮演了「裁判」的角色,誰的 HBM 產品能通過其嚴苛的驗證,誰就能拿到進入 AI 盛宴的黃金門票。


技術的普及時程與挑戰


目前 HBM 的主要應用仍侷限在 AI 加速器與高效能運算 (HPC) 領域,隨著技術演進到 HBM4 世代,預計將有更客製化的設計,例如直接將部分邏輯運算功能整合進 HBM 晶片堆疊中(Processing-in-Memory),實現更高的效率。


然而,HBM 的普及面臨三大挑戰:


  • 極高的成本:HBM 的價格是同容量 DDR5 的數倍,其複雜的堆疊與 TSV 製程,加上需要搭配昂貴的先進封裝,導致成本居高不下。

  • 複雜的供應鏈:生產 HBM 不僅需要記憶體廠的技術,還高度依賴台積電等代工廠的先進封裝產能,供應鏈任何一個環節出問題都會導致缺貨。

  • 散熱:將多層 DRAM 晶片堆疊在一起,功耗密度極高,如何有效散熱是一個巨大的工程難題。


潛在的風險與替代方案


風險與先進封裝類似,就是供應商高度集中,全球只有這三家公司能供應最頂級的 HBM,這給了賣方極大的議價能力,也讓 AI 晶片廠的供應鏈相當脆弱。


目前來看,HBM 在高階 AI 領域沒有直接的替代方案,任何試圖挑戰 AI 伺服器市場的新進者,都必須先解決 HBM 的供應問題;長遠來看,一些新興的記憶體技術,如磁性隨機存取記憶體 (MRAM),或許有潛力,但距離威脅 HBM 的地位,還有非常遙遠的距離。


未來展望與投資視角


HBM 已經從過去一個小眾的利基型產品,徹底轉變為驅動整個科技產業前進的戰略性資產,它不再是傳統意義上週期性的「記憶體商品」,而是與 GPU 深度綁定的「高價值零組件」,

對投資人而言,觀察 HBM 市場的動向提供了幾個重要的視角:


  1. 記憶體產業的價值重估:過去,記憶體廠的股價常因市場供需波動而大起大落,但 HBM 的出現,為龍頭廠商帶來了穩定且利潤豐厚的全新成長曲線,擁有 HBM 技術領導地位的公司,值得更高的價值評估。

  2. 觀察供應鏈的風向球:哪家記憶體廠的 HBM 產品獲得了 NVIDIA 或其他雲端大廠的認證,不僅會直接影響該公司的營收,也反映了其技術的領先程度。這已成為判斷三巨頭競爭優劣的關鍵指標。

  3. AI 成本的關鍵構成:HBM 在 AI 加速器的物料清單 (BOM) 中佔據了極高的成本比例,HBM 的價格與供應情況,將直接影響 AI 硬體的最終售價,以及 AI 服務的部署成本。


未來,圍繞 HBM 的戰爭將從「誰做得出來」演變為「誰的性能功耗最好」、「誰的產能最穩定」、以及「誰能與客戶進行更深度的整合」。這場發生在晶片微觀世界裡的垂直堆疊競賽,將持續定義著我們在宏觀世界中所能觸及的 AI 高度。

Subscribe to AmiNext Newsletter

Thanks for submitting!

  • LinkedIn
  • Facebook

© 2024 by AmiNext 金融與科技筆記

bottom of page