top of page

【科技速解】CXL 是什麼?拆解 AI 伺服器記憶體池化、終結資源浪費的革命

  • 作家相片: Sonya
    Sonya
  • 10月2日
  • 讀畢需時 6 分鐘

秒懂重點:為什麼你現在非懂不可?


今日的 AI 資料中心,就像一座由數萬棟獨立大樓(伺服器)組成的昂貴城市。每棟大樓都必須配置自己專屬、無法與鄰居共用的「水塔」(記憶體 DRAM)。這造成了驚人的浪費:A 大樓的水塔滿到溢出,但閒置的水也無法給隔壁缺水的 B 大樓使用。據統計,高達 25% 的記憶體資源就這樣在資料中心裡被白白浪費。


CXL (Compute Express Link) 就是終結這一切的革命性「智慧水網」系統。它是一套開放的超高速互連標準,能將所有大樓的水塔打通,連接到一個巨大的「城市共享水庫」。這就是所謂的「記憶體池化」(Memory Pooling)。


透過 CXL,任何一台伺服器在需要時,都能即時、高速地從這個共享水庫中取用所需記憶體,用完即還。這不僅能榨乾每一分錢買來的記憶體價值、大幅降低資料中心的建置與營運成本,更能讓單一伺服器突破物理極限,存取比主機板所能安裝的多出數倍的記憶體。這是讓下一代超巨型 AI 模型訓練成為可能的關鍵基礎設施革命。


技術白話文:原理解析與核心突破


過去的瓶頸:被囚禁在主機板上的記憶體


傳統伺服器的架構,已經數十年沒有根本性的改變。我們可以把一台伺服器,想像成一間獨立的「高科技工作室」。


  • CPU (中央處理器):是工作室裡唯一的「特級工匠」。

  • DRAM (記憶體):是工匠專屬的「工作檯」,所有待處理的材料都必須先放在這個工作檯上。


這個架構導致了兩大根本性問題:


  1. 資源孤島與浪費 (Stranded Memory):工匠的工作檯是焊死在自己工作室地板上的,無法移動,也無法借給別人。如果今天工匠 A 只需要 20% 的檯面空間,那剩下 80% 的昂貴檯面就只能閒置。與此同時,隔壁工作室的工匠 B 可能正因為專案太大、檯面不夠用而急得跳腳,但他卻無法使用鄰居的閒置空間。這就是資料中心裡普遍存在的「記憶體擱淺」問題。

  2. 擴展性物理極限 (Scalability Limit):一張主機板(工作室的地板面積)能容納的記憶體插槽(工作檯數量)是有限的。當 AI 模型或資料庫大到需要一張超乎想像的巨大工作檯時,傳統架構就束手無策了。


我們等於是蓋了一座由無數間「獨立工作室」組成的工廠,卻沒有建立一套有效的「中央倉儲與物流系統」。


它是如何運作的?


CXL 就是這套全新的「工廠中央物流系統」。它巧妙地建立在大家所熟知的 PCIe(就是你用來插顯示卡的那個插槽標準)這條成熟的「廠區道路」之上,並為其增加了幾條新的「專用車道」,讓不同類型的資源得以高速流通。


CXL 主要定義了三種溝通協定(三種車道):


  • CXL.io:基礎車道,負責設備的初始溝通與管理,就像是廠區的普通聯絡道路。

  • CXL.cache:快取車道,讓 CPU 和加速器(例如工匠和他的機器手臂)可以高效同步彼此腦中的「材料位置記憶」,確保大家拿到的都是最新版本的材料。

  • CXL.mem (革命核心):記憶體專用超級高速公路。這條車道最為關鍵,它允許 CPU(工匠)直接存取和使用遠端共享記憶體池(中央大倉庫)裡的資源,感覺就像在使用自己本地的工作檯一樣,延遲極低。


基於這條超級高速公路,CXL 實現了「記憶體池化」的夢想。這就像是工廠管理者決定,不再給每個工作室配備固定大小的工作檯,而是在工廠正中央,蓋了一座巨大、可靈活劃分的「中央材料倉儲中心」。任何一位工匠,都可以透過 CXL 這套物流系統,即時申請、使用倉儲中心的空間,用完後立刻釋放,供下一位工匠使用。


為什麼這是革命性的?


CXL 的出現,將伺服器的設計思維從「以主機為中心」轉向了「以資源為中心」,帶來三大顛覆性優勢:


  • 榨乾資源,最大化 TCO:透過「記憶體池化」,將整體記憶體利用率從 50-60% 提升到 90% 以上,大幅減少了需要採購的昂貴 DRAM 總量,直接降低了資料中心的總體擁有成本 (TCO)。

  • 打破物理邊界,實現海量記憶體:單一 CPU 不再受主機板插槽數量的限制,理論上可以存取整個機櫃、甚至整排機櫃的記憶體,這為過去無法實現的超大型記憶體內運算(In-Memory Computing)應用開啟了大門。

  • 促進異質運算整合:CXL 讓 CPU、GPU、DPU 等不同的運算單元,可以更輕易、更有效率地共享同一塊記憶體區域,減少了數據在不同單元間來回複製的延遲與耗能,是 AI 異質運算時代的關鍵黏合劑。


產業影響與競爭格局


誰是主要玩家?


CXL 是一個開放的產業標準,它的成功需要整個生態系的共同參與,其中有幾類關鍵玩家:


  1. CPU / GPU 巨頭 (標準的推動者):他們是 CXL 的主要採用者,在晶片中內建 CXL 功能是整個生態系的基礎。

    • 英特爾 (Intel) 和 AMD 在其最新的伺服器 CPU 中都已全面支援 CXL。

    • 輝達 (NVIDIA) 也在其最新的 GPU 平台中加入了對 CXL 的支援,以便與 CPU 更高效地協同工作。

  2. CXL 控制器晶片商 (物流系統的設計師):他們是 CXL 革命中「最純粹」的受益者,專門設計管理 CXL 通訊協定的關鍵晶片。

    • 瀾起科技 (Montage Technology)譜瑞 (Parade)Astera LabsMicrochip 等是這個新興市場的領導者,他們的控制器晶片是所有 CXL 記憶體模組的核心大腦。

  3. 記憶體大廠 (水庫的建造者):他們正積極開發全新的 CXL 記憶體產品。

    • 三星 (Samsung)SK 海力士 (SK Hynix)美光 (Micron) 都在推出專為 CXL 設計的記憶體模組 (CMM, CXL Memory Module),這些模組整合了 DRAM 顆粒和 CXL 控制器,是建構「共享水庫」的磚瓦。

  4. 雲端服務巨頭 (最大的使用者):Google、Microsoft Azure、Amazon AWS、Meta 是 CXL 最熱情的擁護者,因為這項技術能直接為他們每年數百億美元的伺服器採購和電費帳單帶來實質性的節省。


技術的普及時程與挑戰


CXL 的普及之路仍面臨一些挑戰:


  • 延遲問題:存取 CXL 共享記憶體的速度,雖然已經非常快,但終究比存取焊在主機板上的本地記憶體要慢一點點(幾十奈秒的差距)。

  • 軟體生態系:作業系統(如 Linux)、虛擬化軟體(如 VMware)和應用程式,都需要進行升級才能「感知」到 CXL 的存在,並智慧地管理本地和遠端的不同記憶體層級。

  • 互通性:作為一個開放標準,確保來自不同供應商的 CPU、控制器和記憶體模組之間能夠完美協同工作,是初期推廣的一大挑戰。


預計時程


  • CXL 1.1/2.0:已進入市場,主要實現基本的「記憶體擴展」功能。

  • CXL 3.0/3.1:是實現「記憶體池化」和「網狀互連」的關鍵版本,支援此標準的硬體在 2025 年底開始規模化出貨,預計在 2026-2027 年成為資料中心的主流架構。


潛在的風險與替代方案


市場的主要風險在於軟體生態系的成熟速度。如果軟體無法充分發揮 CXL 的潛力,硬體的投資回報率將會打折。


至於替代方案,主要是來自各廠商的「專有互連技術」,例如 NVIDIA 的 NVLink/NVSwitch。這些專有技術在特定生態系內(如 NVIDIA 的 GPU 叢集)效能極高,但它們是封閉的,無法實現跨廠商的資源共享。CXL 的最大優勢正在於其「開放性」,得到了全產業的支持,使其最有可能成為未來資料中心資源共享的通用語言。


未來展望與投資視角 (結論)


CXL 不僅僅是一個更快的介面,它代表著一次電腦基礎架構的思維轉變——從過去「以伺服器為單位」的僵化架構,邁向未來「以資源為單位」的彈性、可組合式架構。它是通往「完全分解式資料中心」願景的第一塊、也是最重要的一塊基石。


對於投資人而言,CXL 的崛起正在開闢一條全新的黃金賽道:


  • 全新的晶片市場:CXL 控制器、交換器 (Switch) 和重定時器 (Retimer) 晶片,將構成一個價值數十億美元的新市場。掌握核心 IP 和設計能力的公司將擁有巨大的定價權。

  • 記憶體價值鏈的延伸:記憶體大廠的業務,將從單純銷售 DRAM 顆粒,延伸到銷售整合了控制器、附加價值更高的 CXL 記憶體模組。

  • 軟體與系統整合商的新機會:能夠提供 CXL 感知軟體、管理整個資源池的系統整合商,將在新的生態系中扮演關鍵角色。


如果說 AI 晶片是驅動未來經濟的引擎,那麼 CXL 就是為這些引擎建造的、最高效、最具彈性的燃料供應系統。這場正在發生的靜默革命,將從根本上改變雲端運算和 AI 基礎設施的經濟學。

Subscribe to AmiNext Newsletter

Thanks for submitting!

  • LinkedIn
  • Facebook

© 2024 by AmiNext 金融與科技筆記

bottom of page