AUDIO READER
TAP TO PLAY
top of page

【科技速解】AI 伺服器的熱戰爭:液冷技術 (Liquid Cooling) 產業趨勢與投資解析

  • 作家相片: Sonya
    Sonya
  • 2025年12月26日
  • 讀畢需時 6 分鐘

秒懂重點:為什麼你現在非懂不可?


在 AI 的淘金熱中,每個人都在盯著 GPU 的算力看,但真正決定這些昂貴晶片能否運作的關鍵,其實是「溫度」,簡單來說,現在的 AI 晶片就像是一台裝載了火箭引擎的跑車,如果繼續使用傳統的風扇散熱(氣冷),就像是試圖用嘴巴吹氣來冷卻火箭噴嘴——這不僅僅是效率低下的問題,而是根本物理上不可行


2025 年是「液冷元年」,隨著 NVIDIA GB200 等高階晶片組的量產,資料中心的基礎架構正面臨自網際網路誕生以來最大的物理變革,這場變革將原本便宜的風扇與散熱片,升級為昂貴、精密且技術門檻極高的液體循環系統,這意味著:誰掌握了讓晶片「冷靜」的技術,誰就掌握了 AI 算力的命門, 對於投資人而言,這是一個從「低毛利硬體」轉向「高技術護城河組件」的巨大價值轉移過程。



技術白話文:原理解析與核心突破


要理解液冷,我們先要打破對「電子產品怕水」的直觀恐懼。液冷並不是拿水去澆電腦,而是利用液體優異的熱傳導能力(水的導熱能力約是空氣的 24 倍,比熱容是空氣的 4000 倍)來搬運熱量。



過去的瓶頸:它解決了什麼關鍵問題?


過去的資料中心依賴「氣冷 (Air Cooling)」,這就像是在炎熱的夏天,你只能靠電風扇對著自己猛吹。


  1. 噪音與振動: 為了散熱,伺服器風扇必須以極高轉速運轉,產生巨大的噪音與振動,這會影響硬碟的穩定性。

  2. 空間浪費: 為了讓冷風流通,機櫃之間必須預留大量的散熱空間,導致運算密度無法提升。

  3. 能量浪費: 資料中心有接近 40% 的電力不是用來運算,而是用來驅動空調和風扇,這就是所謂的 PUE (Power Usage Effectiveness) 數值過高,不僅不環保,營運成本更是天價。


當單晶片功耗超過 500W 時,氣冷就開始力不從心;而當功耗突破 1000W(如 GB200),氣冷就正式宣告「死亡」。


它是如何運作的


液冷技術主要分為兩大流派,我們可以這樣比喻:


1. 直接液冷 (Direct-to-Chip / Cold Plate) —— 像是給晶片穿上「冰背心」 這是目前 NVIDIA 等大廠的主流方案,想像一下,我們不再對著過熱的運動員(晶片)吹風,而是直接讓他在皮膚上貼著一件循環著冰水的背心(冷板 Cold Plate)。


  • 運作方式: 將金屬製成的「冷板」緊緊貼合在 GPU 或 CPU 上,冷板內部有微細的管道,冷卻液(通常是處理過的水或乙二醇)在管道中流動,直接把熱量帶走,流到機櫃外的熱交換器冷卻後再循環回來。

  • 關鍵技術: 重點在於那塊「冷板」的微水道設計(如何讓液體接觸面積最大化)以及接頭的防漏技術。

2. 浸沒式冷卻 (Immersion Cooling) —— 像是把晶片拿去「醃泡菜」 這是一種更激進但也更高效的做法。

  • 運作方式: 直接把整台伺服器「泡」進裝滿特殊液體(不導電的氟化液或礦物油)的槽體裡,這就像是把熱騰騰的鐵塊直接丟進油鍋裡冷卻一樣(當然這裡是用冷油),因為液體直接接觸所有發熱元件,散熱效果極佳。

  • 關鍵技術: 液體的配方(不能腐蝕電路板、不能導電)以及槽體的密封與壓力控制。


為什麼這是革命性的?


這不只是換個冷卻方式,而是解鎖了 AI 的潛能


  • 密度暴增: 因為不需要留空間給空氣流通,伺服器可以塞得像磚頭一樣密,原本需要一個房間的算力,現在可能只需要兩三個機櫃。

  • 能源紅利: 液冷可以將 PUE 值從傳統的 1.5 降至 1.1 甚至更低,這意味著省下的巨額電費,可以直接轉化為純利潤,或是用來購買更多算力。

  • 時脈釋放: 在極致低溫下,晶片可以長時間維持在最高時脈運作,不會因為過熱而降頻 (Throttling),確保 AI 推論的穩定性。


產業影響與競爭格局


液冷技術的導入,徹底重洗了伺服器供應鏈的價值分佈。傳統做機殼、風扇的廠商若不轉型將面臨淘汰,而掌握流體力學與精密加工的廠商則躍升為 Tier 1 供應商。


誰是主要玩家?(供應鏈解析)


這是一場台系供應鏈與全球專利巨頭的博弈。


  1. 散熱模組與冷板 (The Heart): 這是台灣廠商的主場。

    • 奇鋐 (AVC)、雙鴻 (Auras): 兩者皆為散熱領域的老牌王者,目前在冷板 (Cold Plate) 市場佔有率極高,且深度綁定 NVIDIA 供應鏈。技術難點在於冷板內部的「微水道 (Micro-channel)」加工精度與良率。

    • Cooler Master (訊凱): 在消費級市場有名,亦積極切入伺服器水冷。

  2. 分歧管 (Manifold) 與快接頭 (UQD): 這是液冷的血管與關節。

    • 關鍵挑戰: 快接頭必須做到「零洩漏」,且支援熱插拔。目前美系廠商如 Parker Hannifin, Eaton 掌握較多專利,但台灣精密加工廠(如富世達、晟銘電)正在積極送樣驗證中。

  3. 冷卻液分配單元 (CDU) 與系統整合 (The Brain):

    • 台達電 (Delta): 憑藉強大的電源管理與散熱整合能力,提供從電源到液冷系統的一站式解決方案,是目前極具競爭力的系統級玩家。

    • Supermicro (美超微) / Vertiv: 專注於整機櫃的液冷解決方案,特別是 Vertiv 在資料中心基礎設施(熱交換器、冰水主機)擁有強大話語權。

  4. 伺服器 ODM (The Integrator):

    • 廣達 (Quanta) / 鴻海 (Foxconn) / 緯穎 (Wiwynn): 這些組裝廠不再只是鎖螺絲,他們必須具備液冷迴路的測試與驗證能力,誰能最先交付「隨插即用」的液冷機櫃,誰就能拿下 hyperscalers (如 Google, Meta) 的大單。


技術的普及時程與挑戰


  • 2024-2025 (現在): 混合期,氣冷輔助液冷 (Air-assisted Liquid Cooling) 是主流,高階 AI 伺服器開始強制採用冷板式液冷。

  • 2026-2027: 爆發期,新建的資料中心將以「液冷原生 (Liquid-Native)」設計為主。

  • 挑戰:

    1. 漏液焦慮 (Leakage Anxiety): 水和電子產品是天敵,只要發生一次漏液導致伺服器燒毀,賠償金額將是天價,因此,廠商的「信賴度」與「保固能力」比價格更重要。

    2. 基礎建設改造成本: 舊有的資料中心大部分沒有鋪設水路,改造成本高昂。


潛在的風險與替代方案


雖然液冷是大勢所趨,但仍有風險:


  • 浸沒式冷卻的環保法規: 浸沒式使用的氟化液(PFAS)在歐洲面臨越來越嚴格的環保法規限制 (Forever Chemicals),這導致雙相浸沒式冷卻 (Two-phase immersion) 的發展受阻,目前產業更傾向於單相浸沒或直接冷板式。

  • 固態散熱 (Solid State Cooling): 雖然尚在實驗室階段,但利用新材料進行主動式散熱的技術仍在發展,可能在十年後構成威脅。



未來展望與投資視角 (結論)


液冷技術的崛起,標誌著資料中心從「風冷時代」進入「水冷時代」,這不是一個短期的題材,而是一個長達 5-10 年的硬體升級超級週期。


從投資視角來看,我們應關注以下幾點:


  1. 價值量提升 (ASP Increase): 液冷系統的單價是氣冷系統的 10 倍以上,這對散熱廠商的營收貢獻將是倍數級的。

  2. 技術護城河: 觀察誰能通過 NVIDIA 或 CSP (雲端服務商) 的認證,這個認證過程極其嚴苛,一旦打入,地位極難被撼動。

  3. 系統整合能力: 未來的贏家不只是賣零件,而是賣「整套散熱解決方案」的公司。


在這個高溫的時代,唯有冷靜的技術,才能承載火熱的 AI 夢想。


這篇文章如果幫您釐清了液冷技術的那些彎彎繞繞,能不能請您幫忙按個讚分享出去呢? Aminext 是一個完全由個人用愛發電的小站,您的每一個轉載,都是讓我能繼續為大家追蹤硬核科技趨勢的動力!真的非常感謝您的支持!

留言


Subscribe to AmiNext Newsletter

Thanks for submitting!

  • LinkedIn
  • Facebook

© 2024 by AmiNext 金融與科技筆記

bottom of page