top of page

HBM4 時代揭幕:AI 算力競賽下的記憶體頻寬新賽道

  • 作家相片: Sonya
    Sonya
  • 9月27日
  • 讀畢需時 16 分鐘

記憶體高牆:AI 對頻寬的無盡渴求


人工智慧模型的複雜性正以指數級速度增長,這在大型語言模型(LLM)的發展中尤為顯著,導致記憶體介面的效能瓶頸日益嚴重 。這個被稱為「記憶體高牆」(Memory Wall)的概念雖然並非新生事物,但隨著 LLM 的崛起,它已達到一個關鍵的轉折點。如今,記憶體頻寬——而非單純的浮點運算效能(FLOPS)——已成為決定真實世界 AI 效能的主要因素。高頻寬記憶體(High Bandwidth Memory, HBM)技術正是為應對此危機而生,而向 HBM4 的過渡,對於下一代 AI 加速器而言,不僅是技術升級,更是生存的必要條件。   


AI 數據的爆炸性增長


AI 模型的參數數量已從數百萬級躍升至數兆級,徹底改變了對運算與記憶體的需求 。訓練大型 AI 模型所需的算力,其增長速度(例如每兩年增長 750 倍)遠遠超過了記憶體頻寬的歷史增長率,形成了一道不斷擴大的鴻溝,即「記憶體高牆」 。頻寬不足會導致昂貴的處理單元(如 GPU 核心)處於閒置狀態,等待數據的到來,這不僅浪費了巨大的資本投入,也消耗了不必要的電力 。這種閒置現象意味著,無論處理器擁有多少兆級的算力,如果無法從記憶體中足夠快地獲取數據,其潛力都將無法發揮。   


頻寬成為效能瓶頸


對於數據密集型的 AI 工作負載,數據傳輸至處理核心的速率已成為限制整體效能的決定性因素 。這一點在 LLM 推理的「解碼」(decode)階段尤其突出,該階段是典型的記憶體密集型操作;在訓練大型模型時,持續且大量的數據遷移同樣使頻寬成為瓶頸 。其直接後果是訓練時間的延長和推理延遲的增加,而這兩者都是衡量 AI 服務商業價值的關鍵指標 。   


這種現象將 AI 的商業模式與記憶體頻寬直接掛鉤。AI 服務的效能,無論是衡量推理速度的每秒權杖數(tokens-per-second, TPS)還是衡量模型開發速度的訓練時間,都越來越受到記憶體頻寬的制約 。頻寬決定了模型參數和數據集被存取的速度,因此,一個企業從 AI 服務中創造營收的能力(例如,透過 API 呼叫提供推理服務)以及其研發迭代的速度,不再僅僅是其原始運算能力的函數,而是從根本上受制於其記憶體子系統的效能。這將 HBM 從一個單純的零組件提升為一項戰略性資產。每個加速器所配備的 HBM 世代和容量,直接影響數據中心的總體擁有成本(TCO)和潛在營收。NVIDIA 推出 Rubin CPX 平台,為運算密集型任務採用成本較低的 GDDR7 記憶體,而將昂貴的 HBM 僅用於頻寬至關重要的任務,正是對這一經濟現實的深刻體認,旨在實現資源的最佳化配置 。   


HBM 作為首選解決方案


HBM 架構的誕生,正是為了解決這一挑戰。透過垂直堆疊 DRAM 晶片,並採用超寬的介面(HBM3 為 1024 位元),HBM 提供的頻寬比傳統的 DDR 或 GDDR 記憶體高出數個數量級,同時還具備更優的功耗效率和更小的實體佔用面積 。這些優勢使其成為 NVIDIA、AMD 等公司旗下高階 AI 加速器不可或缺的標準配備 。   


加速的技術迭代週期


AI 競賽的緊迫性已將 HBM 的開發週期從傳統的 4 至 5 年壓縮到每代僅 2 至 2.5 年 。這凸顯了市場對更高頻寬的巨大壓力。在這樣的背景下,HBM4 的問世不僅是一次常規的技術升級,更是為 2026 年及以後的 AI 平台提供動力的關鍵且時效性極強的技術基石。   



HBM4 架構:超越 HBM3E 的世代飛躍


由 JEDEC 制定的 HBM4 標準,代表了 HBM 技術史上最重大的架構變革。將介面寬度倍增至 2048 位元,是一種為提升頻寬而採取的直接而有力的手段。儘管這帶來了深遠的工程挑戰,卻是滿足下一代 AI 所需的每秒數 TB(Terabytes)頻寬目標的必經之路。接下來的分析將解構定義這次飛躍的關鍵技術規格。


2048 位元介面:頻寬的基石


HBM4 標準最引人注目的特性,是將數據介面寬度從歷代 HBM 的 1024 位元倍增至 2048 位元 。這一根本性的改變,使得即使在每個接腳(per-pin)的數據傳輸速率相似甚至略低的情況下,理論頻寬也能實現 massive 的增長。   


頻寬目標:從標準到極限


JEDEC HBM4 標準定義的每個接腳數據速率高達 8 Gb/s,這意味著每個 HBM4 堆疊的理論峰值頻寬可達 2.048 TB/s 。然而,市場的渴求遠不止於此。NVIDIA 等行業領導者已開始推動供應商開發速度達 10 Gb/s 甚至更高的產品,目標是將單一堆疊的頻寬提升至 2.56 TB/s 以上 。這清晰地揭示了一個趨勢:市場的實際需求正在超越基礎標準的定義,推動著技術的極限。   


容量與密度:容納更龐大的模型


HBM4 標準支援高達 16 層(16-Hi)的 DRAM 堆疊配置,超越了 HBM3E 的 12 層主流配置 。結合高達 32Gb 的單一晶片密度,HBM4 能夠在單一堆疊中提供高達 64 GB 的容量,這對於容納參數日益龐大的 AI 模型至關重要 。SK 海力士已經展示了具備 48GB 容量的 16 層堆疊樣品,預示著大容量 HBM 即將成為現實 。   


優化的通道架構與功耗效率


為了進一步提升記憶體存取的靈活性和並行處理能力,HBM4 將每個堆疊的獨立通道數量倍增至 32 個 。這種更細粒度的存取方式,對於處理複雜多變的 AI 工作負載存取模式極為有利。此外,HBM4 引入了更低的工作電壓(VDDQ 最低可達 0.7V),旨在提升功耗效率,以抵銷因頻寬大幅提升而增加的能源消耗 。SK 海力士宣稱,其 HBM4 產品的功耗效率相比前一代提升了 40% 。   


以下表格清晰地展示了從 HBM3 到 HBM4 的世代演進,突顯了 HBM4 在關鍵效能指標上的飛躍。

特性

HBM3

HBM3E

HBM4 (JEDEC 基礎標準)

HBM4 (業界目標)

介面寬度

1024-bit

1024-bit

2048-bit

2048-bit

最高數據速率/接腳

6.4 Gb/s

9.6 Gb/s

8.0 Gb/s

>10 Gb/s

峰值頻寬/堆疊

819 GB/s

1.23 TB/s

2.048 TB/s

>2.56 TB/s

最高堆疊層數

16-Hi

12-Hi / 16-Hi

16-Hi

16-Hi

最大容量/堆疊

64 GB

36 GB (12-Hi) / 48 GB (16-Hi)

64 GB

64 GB

通道數

16

16

32

32

這張表格不僅量化了 HBM4 的技術躍進,更揭示了 JEDEC 標準與市場領導者(如 NVIDIA)實際需求之間的差距。這種差距正是驅動記憶體供應商不斷挑戰技術極限、加速創新的核心動力,也為投資者提供了觀察市場動態的關鍵視角。


製造的嚴峻考驗:解構 HBM4 技術堆疊


實現 HBM4 的宏大效能目標,需要在整個技術堆疊中克服前所未有的製造挑戰。HBM 領導地位的爭奪戰,已不再僅僅是 DRAM 製程節點的競賽,而是一場涵蓋先進封裝、熱管理工程和邏輯晶片製造的多領域戰爭。能否在這場綜合實力的較量中勝出,將取決於企業對這些相互關聯的技術領域的掌握程度。


攀登新高:16 層堆疊的挑戰


堆疊的物理極限


將堆疊層數提升至 16 層(16-Hi),同時又要符合 JEDEC 為 HBM4 放寬至 775µm 的封裝厚度規範,意味著每一片獨立的 DRAM 晶片都必須變得更薄 。然而,更薄的晶圓極易發生翹曲(warpage),這不僅增加了晶片間鍵合的難度,也可能導致缺陷產生,從而影響良率 。   


熱管理的瓶頸


更高的堆疊結構為熱量散發製造了一條更長、熱阻更高的路徑。預計每個 HBM4 堆疊的功耗將超過 30W,其 3D 結構本身就會將熱量困在內部,導致接面溫度升高,進而降低效能並影響長期可靠性 。這使得熱管理不再是次要的考慮因素,而是一個必須優先解決的一級設計難題。   


寬介面的訊號完整性


將介面寬度倍增至 2048 條訊號線,極大地增加了串擾(crosstalk)、訊號衰減和電源雜訊(特別是同步開關雜訊,SSN)的風險,尤其是在數 Gb/s 的高速傳輸下 。如何在數千條緊密排列的互連通道中確保訊號的純淨,對中介層(interposer)和封裝設計構成了巨大的挑戰。   


鍵合技術的戰場:MR-MUF、TC-NCF 與混合鍵合


SK 海力士的先進 MR-MUF


目前的市場領導者 SK 海力士將其成功很大程度上歸功於其專有的「質量回流模制底部填充」(Mass Reflow Molded Underfill, MR-MUF)技術 。該技術透過注入液態環氧樹脂模塑料來填充晶片間的空隙並固化,據稱比競爭對手採用的薄膜式方法更高效,且散熱效能更佳 。為了應對 HBM4 更薄的晶片和更嚴格的翹曲控制要求,SK 海力士正在推動其「先進 MR-MUF」技術的應用 。   


三星與美光的 TC-NCF


競爭對手三星(Samsung)和美光(Micron)則長期採用「熱壓合非導電膜」(Thermal Compression with Non-Conductive Film, TC-NCF)技術。該技術在每層晶片鍵合前先貼上一層薄膜 。部分觀點認為,這種製程在熱管理方面效果較差,且生產效率低於 MR-MUF,這可能是三星過去在良率方面面臨挑戰的原因之一 。   


未來的混合鍵合


對於堆疊層數超過 16 層以及實現更精細互連間距的長期解決方案,業界普遍認為是「混合鍵合」(Hybrid Bonding)。該技術無需焊料凸塊(solder bumps),直接實現銅對銅的連接,從而大幅降低堆疊高度,並顯著改善散熱和電氣效能 。儘管被譽為「夢幻技術」,但其高昂的成本和製造複雜性延遲了其廣泛應用。三星正將混合鍵合視為在 HBM4 世代實現技術超越的關鍵賭注,而 SK 海力士則將其定位為應用於 HBM4E 或更高層數堆疊的未來技術 。   


效能的基石:基底晶圓的邏輯製程轉型


關鍵的製程轉變


HBM4 時代一個根本性的轉變是,位於堆疊底部的基底晶圓(Base Die 或 Logic Die)的製造製程,正從傳統的平面 DRAM 製程轉向台積電(TSMC)和三星晶圓代工(Samsung Foundry)等公司提供的先進 FinFET 邏輯製程(例如 12nm、5nm、4nm) 。   


為何此轉變至關重要


這一轉變是必要的。唯有先進的邏輯製程才能處理 2048 位元寬介面帶來的複雜性,改善訊號完整性,降低功耗,並允許在晶片上整合更複雜的邏輯電路,如內建自我測試(BIST)電路,甚至近記憶體運算(near-memory compute)功能 。相比 DRAM 製程,邏輯製程在執行這些任務時能提供顯著更優的效能和功耗效率 。   


戰略層面的影響


這一轉變也從根本上重塑了 HBM 的供應鏈。缺乏頂尖邏輯製程能力的記憶體製造商,如 SK 海力士和美光,現在必須與晶圓代工廠(主要是台積電)建立緊密的合作關係 。這創造了一種新的依賴關係,同時也帶來了強大的協同效應,因為台積電現在可以為像 NVIDIA 這樣的客戶,共同優化 HBM 基底晶圓、GPU 晶片以及 CoWoS 先進封裝。另一方面,擁有自家先進晶圓代工廠的三星,則將此視為提供完全垂直整合解決方案的關鍵戰略優勢 。   


這一系列變化表明,HBM4 的基底晶圓正演變為一個全新的競爭領域,其重要性不僅在於連接,更在於客製化與差異化,從而模糊了記憶體與邏輯晶片之間的傳統界線。基底晶圓轉向先進邏輯製程,為其注入了遠超以往的複雜電路設計潛力。NVIDIA 等主要客戶據報正在設計自己的客製化基底晶圓,以便與任何供應商的 DRAM 堆疊配對使用 。這意味著 HBM 正從一個標準化的商品化組件,演變為一個半客製化的平台。基底晶圓可以根據特定加速器架構(如 NVIDIA Rubin)的需求,進行 IP、測試邏輯甚至處理單元的客製化設計。這催生了一個新的價值鏈和商業模式:記憶體製造商可能轉變為「DRAM 堆疊」的供應商,與客戶設計的邏輯晶圓進行整合。台積電等晶圓代工廠的地位變得更加核心,因為它們同時製造加速器晶片和客製化的記憶體邏輯晶片。而 Synopsys 和 Cadence 等 EDA 公司則在提供實現這種複雜整合所需的 IP 和工具方面扮演著至關重要的角色 。這代表著整個產業正朝著系統級共同設計(system-level co-design)的方向發生根本性轉變。   


HBM 三巨頭:市場領導者的比較分析


向 HBM4 的過渡正在加劇三大主要供應商之間的競爭。每家公司都根據其獨特的技術優勢、製造能力和市場地位,採取了截然不同的策略。SK 海力士憑藉其市場領先地位和封裝技術實力來捍衛王座;三星則押注於垂直整合和技術的跨越式發展;而美光則專注於一條紀律嚴明、注重功耗效率的發展路徑。


SK 海力士:衛冕冠軍的防守戰


  • 策略:透過先發優勢、與 NVIDIA 的深度合作,以及對其專有先進 MR-MUF 封裝技術的精通,來維持市場領導地位。

  • 發展藍圖:已完成 HBM4 的開發,並宣布準備在 2025 年下半年投入量產 。該公司已向客戶交付了全球首批 12 層 HBM4 樣品 。其目標速度超越 JEDEC 的 8 Gb/s 標準,旨在達到 10 Gb/s 以上,以滿足 NVIDIA 的嚴苛要求 。   

  • 技術差異化:在初期的 HBM4 生產中,堅持採用其經過驗證的先進 MR-MUF 製程,以最大限度地降低生產風險 。同時,與台積電在基底晶圓邏輯和 CoWoS 整合方面進行緊密合作,使其發展藍圖與 NVIDIA 等關鍵客戶的需求直接對齊 。在 DRAM 核心晶片方面,初期採用其成熟的 1b-nm 製程,以確保穩定的良率 。 


三星電子:挑戰者的高風險賭注


  • 策略:利用其作為整合元件製造商(IDM)的獨特地位——同時擁有記憶體和頂尖晶圓代工能力——來實現對競爭對手的超越。為此,三星選擇了一條技術上更具侵略性、高風險高回報的發展路徑。

  • 發展藍圖:其時間表似乎更具變動性,儘管目標設定在 2025 年底,但有報導指出,由於良率挑戰,量產可能延遲至 2026 年 。其目標是在 2025 年完成開發,以爭取 NVIDIA 的訂單 。

  • 技術差異化:採用其自家的 4nm FinFET 製程來製造邏輯基底晶圓,這可能使其在效能和成本上比需要外包給台積電的競爭對手更具優勢 。三星正積極推進下一代 1c-nm DRAM 製程在其 HBM4 核心晶片中的應用,如果良率能夠穩定,這將帶來密度和效能上的優勢 。此外,三星計劃在 16 層 HBM4 產品中採用混合鍵合技術,這將是從其現有 TC-NCF 製程的一次重大技術飛躍 。   


美光科技:紀律嚴明的競爭者


  • 策略:專注於功耗效率和嚴格的執行時間表,以爭取市場份額。將自己定位為一個可靠的第二供應商,提供一流的每瓦效能。

  • 發展藍圖:明確將 2026 日曆年定為量產爬坡的目標時間,與下一代 AI 平台的發布時間保持一致 。該公司已經向主要客戶交付了 36GB 12 層 HBM4 樣品 。  

  • 技術差異化:強調業界領先的功耗效率,宣稱比自家的 HBM3E 產品提升了超過 20% 。在 HBM4 中採用其成熟的 1-beta DRAM 製程(相當於 1b-nm),優先考慮良率和可靠性 。與 SK 海力士一樣,美光也選擇與台積電合作開發客製化的基底晶圓,承認在這一領域需要外部的晶圓代工專業知識 。   


下表總結了三大 HBM 巨頭在 HBM4 世代的競爭策略,為投資者和市場觀察者提供了一個清晰的比較框架。

特性

SK 海力士 (SK Hynix)

三星電子 (Samsung Electronics)

美光科技 (Micron Technology)

市場地位

現任領導者

挑戰者

第三名競爭者

目標量產時間

2025 年底

2026 年 (報導不一)

2026 日曆年

基底晶圓製程

外包給台積電 (3nm/5nm)

自家晶圓代工 (4nm)

外包給台積電 / 自家 CMOS

核心 DRAM 製程

1b-nm (初期)

1c-nm (目標)

1-beta (1b-nm)

封裝技術

先進 MR-MUF

TC-NCF -> 混合鍵合

TC-NCF

關鍵差異化

先發優勢、與 NVIDIA 深度綁定

垂直整合、激進的技術賭注

功耗效率、紀律嚴明的執行


驅動下一波 AI 浪潮:HBM4 在未來加速器中的共生角色


HBM4 的開發並非在真空中進行;它是一個與下一代 AI 加速器共同設計、不可或缺的關鍵組件。NVIDIA 和 AMD 的未來產品藍圖,從根本上依賴於 HBM4 的推出時間和效能特性。由 HBM4 帶來的巨大頻寬增長,將解鎖 AI 的新能力,特別是在訓練兆級參數模型和對具有龐大上下文窗口的模型進行即時推理方面。


NVIDIA 的 Rubin 架構:挑戰頻寬極限


  • Rubin 的硬性需求:NVIDIA 預計於 2026-2027 年推出的下一代 Rubin (R100) 和 Rubin Ultra 平台,其架構完全圍繞 HBM4 設計 。目前的 Blackwell 架構採用 HBM3E,提供高達 8 TB/s 的頻寬;而 Rubin 預計將此數字翻倍以上,初始目標約為 13-15 TB/s,而最新的目標已推向每個 GPU 20.5 TB/s 。要實現這一目標,需要八個 HBM4 堆疊以超過 10 Gb/s 的高速運行 。   


  • 實現兆級參數模型:HBM4 的大容量(預計 Rubin GPU 將配備 288GB 記憶體)和超高頻寬的結合,對於高效訓練和部署下一波跨越兆級參數門檻的 AI 模型至關重要 。   


  • Rubin Ultra 的飛躍:計劃於 2027 年推出的 Rubin Ultra 版本將進一步推升規格,每個 GPU 將配備 12 個 HBM4 堆疊,整機櫃系統的快速記憶體總量可達 365 TB,這凸顯了市場對記憶體容量和頻寬永無止境的需求 。   


AMD 的 Instinct MI400 系列:在容量與開放性上展開競爭


  • 挑戰者的策略:AMD 即將推出的 Instinct MI400 系列,同樣瞄準 2026 年發布,計劃採用 HBM4 與 NVIDIA 的 Rubin 展開直接競爭 。   


  • 更多堆疊,更大記憶體:AMD 的策略似乎是在每個加速器上整合更多的 HBM4 堆疊。MI400 預計將配備十二個 12 層 HBM4 堆疊,提供高達 432 GB 的驚人記憶體容量和 19.6 TB/s 的峰值頻寬 。這使得 AMD 在單個 GPU 的記憶體容量和頻寬方面,對比標準版的 Rubin R100(使用八個堆疊)擁有明顯的紙面優勢 。   


  • 驅動 Helios 平台:這個強大的記憶體子系統將成為 AMD「Helios」機櫃級解決方案的核心。即使在原始 FP4 運算效能上可能略遜於 NVIDIA 的 Vera Rubin 平台,Helios 仍旨在提供卓越的記憶體效能 。   


這些下一代 AI 加速器的設計,體現了一種三方共同優化的新模式。加速器架構師(NVIDIA/AMD)、記憶體供應商(HBM 三巨頭)和先進封裝/晶圓代工廠(主要是台積電)之間形成了緊密的共生關係。NVIDIA 推動 HBM 供應商超越 JEDEC 標準,而 AMD 則設計能容納 12 個 HBM 堆疊的晶片,這些設計的可行性完全取決於記憶體供應商的製造能力(堆疊、鍵合)和台積電的封裝能力(CoWoS 中介層的尺寸和複雜性) 。最終的產品,如 Rubin GPU,其效能是三方緊密協作和權衡的結果。這種緊密的耦合關係創造了一個極其強大但又脆弱的供應鏈,將巨大的技術和市場力量集中在少數幾家能夠在這三個層面都執行到位的公司手中。這也意味著,競爭優勢越來越多地來自於體系,而非單一組件。AMD 能夠在 MI400 中集成 12 個 HBM 堆疊,這既是其 GPU 設計的勝利,同樣也是封裝技術的勝利。   



不斷演進的供應鏈與投資前景


HBM4 的出現,在整個半導體供應鏈中產生了顯著的連鎖反應,為從事封裝、測試、材料和 EDA 的公司創造了新的機遇與挑戰。對於投資者而言,理解這些二階效應對於在記憶體製造商之外發現價值至關重要。


封裝技術的關鍵作用:台積電的 CoWoS 及未來


  • CoWoS 瓶頸:台積電的「晶圓級晶片封裝」(Chip-on-Wafer-on-Substrate, CoWoS)技術,已成為整合 HBM 與高效能邏輯晶片的行業標準 。CoWoS 的產能已是當前 AI 加速器供應鏈中眾所周知的瓶頸。   


  • 為 HBM4 擴展:HBM4 更寬的介面以及每個 GPU 搭載更多堆疊的趨勢(如 AMD MI400 的 12 個堆疊),要求更大、更複雜的矽中介層。為此,台積電正積極推進其 CoWoS 技術藍圖,計劃在 2025-2026 年推出 5.5 倍光罩尺寸的封裝,並在 2027 年前實現 9 倍光罩尺寸的巨大封裝,以容納這些先進設計 。三星也正在開發其自家的先進封裝解決方案 SAINT,以期與之競爭 。   


  • 先進材料的需求:向更大尺寸封裝和更高堆疊的轉變,也推動了在基板材料(如玻璃)和熱介面材料(TIMs)方面的創新,以有效管理熱量和機械應力 。   


品質的守門員:測試與驗證


  • 新的測試挑戰:HBM4 的複雜性——更高的堆疊層數、2048 位元的介面、更高的速度以及基於邏輯製程的基底晶圓——給測試帶來了巨大挑戰 。在堆疊前確保每個晶片都是「已知良好晶片」(Known-Good-Die)對最終良率至關重要,而對最終封裝產品進行熱和訊號完整性測試也比以往任何時候都更加複雜。測試過程中的高功耗管理和確保探針接觸的完整性是其中的關鍵難題 。   


  • ATE 廠商的角色:自動測試設備(ATE)供應商,如 Advantest 和 Teradyne,正在開發新的解決方案以應對這些需求,提供更高的並行處理能力和速度來處理 HBM4 的測試要求 。高可靠性 AI 應用對更嚴格測試的需求,是推動這一領域增長的主要動力 。   


投資論述:描繪 HBM4 價值鏈


  • 市場增長:HBM 市場預計將經歷爆炸性增長。有預測指出,在超過 20% 的年複合增長率(CAGR)推動下,到 2035 年市場規模將超過 300 億美元 。HBM 預計將佔主要記憶體製造商 DRAM 總營收的相當大一部分 。   


  • 記憶體製造商:最直接的受益者是 SK 海力士、三星和美光。相較於標準 DRAM,HBM 的利潤率要高得多 。投資決策的關鍵在於評估它們各自技術路線圖所面臨的執行風險 。   


  • 晶圓代工與封裝:台積電是這一生態系統中的關鍵推動者和主要受益者,從 GPU、HBM 基底晶圓到 CoWoS 封裝,台積電在價值鏈的多個環節中獲取價值 。   


  • 設備與材料:隨著 HBM4 技術複雜性的增加,提供先進封裝設備(如鍵合機)、ATE 解決方案(Advantest, Teradyne)以及特殊材料(TIMs、底部填充劑、先進基板)的公司,也將迎來增長機遇。


TB/s 時代的黎明


HBM4 不僅僅是一次漸進式的升級;它是一項基礎性技術,將解鎖 AI 革命的下一個階段。它標誌著記憶體正式進入「每秒 TB」(Terabyte-per-Second)時代,頻寬將成為衡量高效能運算效能的決定性指標。


綜合分析與前瞻


  • 新的效能基準:到 2026 年,HBM4 將成為高階 AI 加速器的標準配備,為下一代模型提供必要的效能支持 。在此次技術過渡中建立的競爭格局,很可能將決定未來數年的市場領導地位。   


  • 系統級整合的深化:HBM4 時代的核心主題是記憶體、邏輯和封裝的深度整合。客製化基底晶圓的興起以及台積電等晶圓代工廠的核心角色,預示著未來將走向共同設計的異構運算系統,其中各組件之間的界線將持續模糊。

  • 超越 HBM4:業界已經開始展望 HBM4E 乃至更遠的未來,混合鍵合技術的普及和堆疊層數的進一步增加等挑戰已擺在眼前 。攀登記憶體高牆的競賽是一場馬拉松,而非短跑。HBM4 正是這場漫長征途中一個關鍵且具有變革性意義的里程碑。   

Subscribe to AmiNext Newsletter

Thanks for submitting!

  • LinkedIn
  • Facebook

© 2024 by AmiNext 金融與科技筆記

bottom of page