top of page

冷卻革命:駕馭AI伺服器散熱管理生態系統與供應鏈

  • 作家相片: Sonya
    Sonya
  • 8月3日
  • 讀畢需時 20 分鐘

AI運算熱潮與隨之而來的散熱危機


首先我們先來探討市場的根本驅動力:人工智慧(AI)加速器功耗的指數級增長,為資料中心基礎設施帶來了嚴峻的散熱挑戰,從而催化了從氣冷到液冷的轉變。


現代AI加速器前所未有的功耗需求


問題的核心在於專為深度學習等密集型AI工作負載設計的處理器,其熱設計功耗(Thermal Design Power, TDP)急劇增加;現代AI圖形處理單元(GPU)每顆晶片的熱輸出可超過300瓦,這一水平使得傳統氣冷方式已顯不足;高熱量產生直接阻礙了性能發揮,因為過熱會導致熱節流(thermal throttling)、系統崩潰,甚至對硬體造成物理損壞。


此問題正迅速惡化,雖然氣冷對於功率密度低於20-25 kW的伺服器機櫃尚能應付,但AI機櫃的功率密度現已遠超此閾值,使得液冷成為必要選項,而非可選方案。


作為市場催化劑的 NVIDIA GPU 路線圖分析


NVIDIA的產品路線圖是整個資料中心冷卻行業發展步伐的主要決定因素,從Hopper到Blackwell,再到包含 Rubin 和 Feynman 的未來路線圖,這一系列產品的演進決定了伺服器ODM和資料中心營運商的散熱管理需求。


  • Blackwell世代 (2024-2025年):  Blackwell B200 GPU的TDP為1,200W,而Blackwell Ultra B300更將此數值提升至1,400W,使得液冷成為這些平台的強制性要求;其旗艦產品GB200 NVL72機櫃系統的峰值功耗高達120 kW,遠遠超出了氣冷的處理能力。

  • Rubin世代 (2026-2027年):  即將推出的Rubin R100 GPU預計TDP約為1,800W,而Rubin Ultra將在單一插槽中整合四個GPU晶片,預計將TDP推升至3,600W,這些數據不僅表明液冷是必需的,更意味著液冷解決方案的強度效率將成為關鍵的性能差異化因素。

  • Feynman世代及未來 (2028年以後):  對Feynman架構及其後續產品的預測更是驚人,每封裝的TDP可能達到4,400W至9,000W;這一發展軌跡預示著未來將從現今的先進液冷技術(如晶片直接冷卻)轉向更前沿的解決方案,如浸沒式冷卻,並最終發展至嵌入式冷卻。


NVIDIA的GPU路線圖及其不斷攀升的TDP,已不僅僅是晶片供應商的產品規劃,它實質上已成為未來資料中心架構的藍圖,每一代新GPU的發布,都迫使整個下游供應鏈——從伺服器設計到設施建構,再到零組件製造——進行相應的技術升級與投資;任何希望部署最前沿AI技術的企業,都必須採納液冷技術。因此,NVIDIA的決策直接塑造了這個價值數十億美元的基礎設施轉型市場的走向。


氣冷技術在高密度環境中的必然極限


物理原理十分明確:水的熱容量是空氣的3,000倍以上,這使得液體在熱傳導介質方面具有根本性的優越性。


氣冷效率低下,僅能帶走伺服器產生約30%的熱量,而液冷幾乎可以捕獲100%的熱量;冷卻系統約佔資料中心總能耗的40%,這使得氣冷的低效率成為一個主要的營運成本和可持續性問題;Uptime Institute的2023年調查預測,到本十年末,直接液冷將超越氣冷,成為IT基礎設施的主要冷卻方式,這證實了全行業的這一轉變趨勢。


隨著液冷技術的普及,產業需要新的能效評估標準,傳統的電力使用效率(Power Usage Effectiveness, PUE)指標,即設施總用電量與IT設備用電量的比值,在評估液冷資料中心時已顯不足;傳統氣冷屬於設施用電,而直接液冷的部分組件(如泵)可能被計入IT設備用電,這使得PUE在不同冷卻架構間的直接比較產生誤導;因此,產業正轉向更全面的指標,如總使用效率(Total Usage Effectiveness, TUE),其定義為資料中心總用電量與運算組件總用電量的比值,TUE能更準確地反映液冷在提升設施和IT系統雙重效率方面的綜合優勢,對於評估液冷投資的回報至關重要。


先進冷卻解決方案的技術分析


接下來對主要的液冷方法進行詳細的探討,比較它們的原理、性能及適用場景,並以一份全面的摘要表作結,以便於快速比較。


晶片直接冷卻 (Direct-to-Chip, D2C):精準散熱管理


  • 核心原理: 液體冷卻劑通過直接安裝在主要發熱組件(CPU、GPU)上的「冷板」(cold plates)進行循環,從熱源處直接吸收熱量。這是一種針對性強的方法,但通常仍需輔以氣冷系統來處理機櫃中剩餘的25-30%的熱量。

  • 單相D2C: 冷卻劑(通常是水與乙二醇的混合物)在整個循環迴路中始終保持液態。由於其相對簡單、成本較低且技術成熟,是目前市場的主流選擇。然而,其效率低於兩相D2C,且若使用水基冷卻劑,一旦洩漏可能導致災難性後果。其關鍵組件包括冷板、泵、管路和冷卻劑分配單元(Coolant Distribution Unit, CDU)。

  • 兩相D2C: 使用低沸點的介電液。液體在吸收晶片熱量時沸騰,轉化為蒸氣(相變)。這一相變過程能吸收大量的潛熱,使其效率顯著提高。蒸氣隨後流至冷凝器,釋放熱量後凝結回液態。儘管效率更高,但其系統更複雜、成本更高,並且面臨著來自PFAS(全氟及多氟烷基物質)法規的嚴峻挑戰。


浸沒式冷卻:終極散熱方案


  • 核心原理: 將整個伺服器或其組件完全浸泡在不導電的介電液體中,從而實現對所有組件100%的熱量捕獲,而不僅僅是主要處理器。這種方法無需伺服器風扇和複雜的空氣處理基礎設施。

  • 單相浸沒式 (1-PIC): 伺服器被浸泡在碳氫化合物基的液體(類似礦物油)中。液體由泵驅動循環至熱交換器進行冷卻,然後返回液槽。此方法因其簡單、可靠及相對於兩相浸沒式更低的前期成本而受到青睞。Green Revolution Cooling (GRC) 等主要廠商是此技術的倡導者。

  • 兩相浸沒式 (2-PIC): 伺服器被浸泡在沸點極低(例如約50°C)的碳氟化合物基液體中。伺服器產生的熱量直接使周圍的液體沸騰。產生的蒸氣上升,在密封槽頂部的冷卻盤管上冷凝,然後滴落回液槽,形成一個無需泵驅動的被動式冷卻循環。這是目前能效最高的方法,PUE可低至1.01-1.02。然而,它面臨著極高的成本(液體、密封槽)、複雜的維護,以及因其必需的冷卻液而面臨PFAS法規的生存威脅。


PFAS法規危機已有效地將液冷市場一分為二。這一危機源於兩相冷卻技術對碳氟化合物基液體(即PFAS,如3M的Novec產品)的依賴。2022年12月,由於美國環保署(EPA)和歐盟當局將PFAS指定為有害的「永久性化學品」,3M 宣布將在2025年底前完全退出所有PFAS的生產。這一決定為依賴此類液體的技術帶來了「立即過時的風險」,並據報導導致微軟和Meta等超大規模數據中心業者停止了其兩相浸沒式冷卻的研究。因此,產業最直接的前進道路是加倍投入不受此法規風險影響的單相技術,如使用水-乙二醇混合物的單相D2C和使用碳氫化合物油的單相浸沒式冷卻。


與此同時,晶片直接冷卻(D2C)正成為主導性的過渡技術,因為它為現有資料中心提供了一條「棕地友好」(brownfield-friendly)的升級路徑。營運商在現有的氣冷設施中擁有巨額投資,完全拆除在經濟上並不可行。D2C系統可以被改造安裝到現有的機櫃和機房中,冷卻最熱的組件,同時讓現有的空氣處理系統管理剩餘的環境熱量,實現漸進式升級。相比之下,浸沒式冷卻代表了一種更激進的、「僅限綠地」(greenfield-only)的未來。它需要全新的基礎設施,如大型沉重的液槽、特製硬體,甚至可能需要起重機進行維護,因此幾乎只適用於從零開始專門設計的新建AI工廠。


表 1:AI伺服器冷卻技術比較摘要


下表為不同AI伺服器冷卻技術的關鍵特性提供了一個結構化的比較。

特性

氣冷 (Air Cooling)

D2C (單相)

D2C (兩相)

浸沒式 (單相)

浸沒式 (兩相)

冷卻效率 (% 熱量捕獲)

~30%

~70−75%

>90%

~100%

~100%

最高支援機櫃密度 (kW)

<35

>140

>140

>200

>250

典型PUE

1.6-1.9

改善TUE

改善TUE

1.02-1.03

1.01-1.02

空間密度

非常高

非常高

相對資本支出 (CapEx)

非常高

相對營運支出 (OpEx)

非常低

變動 (因液體損失)

維護複雜性

中-高

舊設施改造可行性

N/A

非常低

非常低

主要風險

性能極限

洩漏、管路複雜

PFAS禁用、液體成本

液體相容性、硬體維護

PFAS禁用、液體成本/損失


AI冷卻市場生態系統地圖


接下來將套討市場中的主要參與者類別,並分析他們的戰略角色、相互依賴關係及競爭動態,從晶片層級向外擴展至整個資料中心。


震央:AI加速器設計者 (NVIDIA)


NVIDIA的角色遠不止於晶片設計;它還驗證並認證包括冷卻解決方案在內的整個系統。「NVIDIA認證系統」(NVIDIA-Certified Systems)計畫確保合作夥伴的伺服器在性能、可管理性和安全性方面達到標準。其「DGX就緒主機託管」(DGX-Ready Colocation)計畫明確認證那些能夠提供必要基礎設施(包括液冷解決方案)的資料中心,以託管其高端系統。這為Digital Realty和Equinix等主機託管提供商採納並標準化NVIDIA認可的冷卻架構創造了強大的誘因。


NVIDIA積極與合作夥伴共同開發參考設計,例如與CoreWeave、Dell和Vertiv合作部署的GB300 NVL72,展示了一個集運算、電力和冷卻於一體的預驗證機櫃級解決方案。這種共同設計的過程有效地設定了行業標準。


整合者:伺服器OEM與ODM


這些公司負責製造實體伺服器和機櫃級系統,是冷卻組件供應商的主要客戶,也是終端用戶(超大規模資料中心、企業)的主要供應商。


  • Supermicro: 作為關鍵參與者,Supermicro奉行深度垂直整合戰略。他們設計並製造自家的CDU、冷板和分歧管,提供單一供應商的完整機櫃級液冷解決方案。其每月出貨數千個液冷機櫃的能力,展現了成熟的高產能製造實力。截至2024年底,該公司在液冷AI伺服器機櫃市場佔有約75%的主導份額。

  • Foxconn (鴻海): 作為全球最大的電子製造服務商,鴻海利用其龐大的規模和垂直整合能力。其與工業機電和電力基礎設施專家東元(TECO)的戰略聯盟,目的在將其價值鏈從伺服器機櫃延伸至完整的資料中心建設,提供一站式解決方案。

  • Wiwynn/Wistron, Quanta, Inventec: 這些是主要的台灣ODM廠商,主要服務於超大規模市場,為Meta和Google等客戶製造客製化伺服器。他們的商業模式基於共同設計和高產能、高成本效益的製造。


驅動者:超大規模資料中心與雲端服務提供商 (CSP)


Google、Meta、Microsoft和AWS等公司是AI基礎設施的主要需求驅動者。它們巨大的規模和先進的技術要求推動了技術的極限。它們已從單純的客戶轉變為主動的共同設計夥伴,直接與ODM和組件供應商合作,開發滿足其特定需求的客製化解決方案。


它們的內部研究和部署常常引領新技術的潮流。Google在AI驅動的冷卻優化方面的工作,以及Microsoft對無水、可持續冷卻解決方案的專注,都設定了行業趨勢。Meta對開放運算計畫(Open Compute Project, OCP)的積極貢獻,推動了包括冷卻在內的硬體開放標準。


專家:專業冷卻基礎設施提供商


這些公司提供圍繞IT設備的關鍵電力和散熱管理基礎設施。


  • Vertiv & Schneider Electric: 這些是全球巨頭,擁有涵蓋配電、散熱管理(氣冷和液冷)及監控解決方案的全面產品組合。它們與晶片製造商(NVIDIA、Intel)和伺服器OEM緊密合作,提供整合解決方案。例如,Vertiv的戰略包括廣泛的CDU產品組合,並在其「Vertiv 360AI」倡議下專注於端到端解決方案。

  • 浸沒式冷卻專家: 這些是專注於浸沒式技術的利基但重要的參與者。主要公司包括單相領域的Green Revolution Cooling (GRC) 和Submer。

  • 其他關鍵參與者: CoolIT Systems(D2C領域的領導者)、Stulz和Daikin等公司也是更廣泛的資料中心冷卻市場中的重要競爭者。


AI基礎設施市場已從線性的「供應商-客戶」模式演變為一個深度協作的「共同設計生態系統」。過去,晶片製造商向OEM銷售標準化產品,再由OEM銷售給企業。如今,AI的極端技術要求打破了這一模式。超大規模業者現在設計自己的伺服器規格並貢獻給OCP,直接與ODM合作製造。晶片製造商如NVIDIA則設計機櫃級參考架構,並直接與基礎設施專家(如Vertiv)和ODM(如Supermicro)合作,創建預驗證的系統。這形成了一種三角關係:NVIDIA定義散熱問題,超大規模業者定義營運和規模要求,而ODM和基礎設施供應商則負責工程整合。成功不再取決於單一組件的優劣,而是整個生態系統的協作與整合品質。


在此背景下,伺服器供應商之間出現了戰略分化:「垂直整合解決方案提供商」(如Supermicro)與「專注於超大規模的ODM」(如Wiwynn、Quanta)。Supermicro的戰略是控制整個技術堆疊,提供自有品牌的完整解決方案,面向包括企業和中小型CSP在內的廣泛市場,以獲取更高利潤和技術控制權。而Wiwynn和Quanta等ODM則專注於為少數幾家超大規模客戶提供大規模、高成本效益的製造服務。這種差異化將塑造未來幾年的併購活動、研發重點和市場份額競爭。


解構全球液冷供應鏈


接著我們從組件層面對供應鏈進行探討,識別關鍵部件、其製造商,以及特定地理區域(特別是台灣)的關鍵角色。


物料清單:核心組件供應商


  • 冷卻劑分配單元 (CDU) 與熱交換器: 作為液冷系統的「引擎」,CDU負責管理冷卻劑迴路的流量、溫度和壓力。主要供應商包括VertivTrane 和 Schneider Electric 等大型基礎設施業者,以及Supermicro 等伺服器OEM。專業製造商如Boyd Corporation 和 LiquidStack 也佔有重要地位。作為CDU核心組件的熱交換器,則由高力 (Kaori) 等專家及Alfa LavalXylem 等全球工業公司製造。

  • 冷板與分歧管 (CDM): 冷板是直接與晶片接觸的組件,而分歧管則負責在機櫃內分配液體。台灣公司在此領域佔據主導地位,雙鴻 (Auras)台達 (Delta)建準 (Sunon) 和奇鋐 (CCI) 是NVIDIA及主要ODM的關鍵供應商。

  • 泵: 在單相系統中循環冷卻劑的關鍵部件,其可靠性至關重要。主要製造商包括MoogWiloDanfoss 和 Cat Pumps 等工業專家。

  • 快速接頭 (UQD): 這種無洩漏的連接器允許在不排空整個冷卻迴路的情況下維修伺服器,對可維護性至關重要。主要參與者包括Parker HannifinCPC (Colder Products Company) 和 Motivair。OCP的通用快速接頭(UQD)標準正在推動產業的相容性。


生命線:介電液體與冷卻劑市場


冷卻劑的選擇對性能、安全性和材料相容性至關重要。3M決定在2025年底前退出PFAS製造,為兩相冷卻液體(Novec、Fluorinert)的供應帶來了巨大衝擊,並有效延緩了2-PIC技術的應用。


這一變動為其他化學公司創造了巨大的市場機會。Chemours正積極推廣其Opteon™ 2P50,這是一種基於HFO、全球暖化潛勢(GWP)極低的液體,目的在成為兩相應用的繼承者。他們正積極與NTT Data、Navin Fluorine等公司建立合作夥伴關係,以建立供應鏈並驗證該技術,目標是在2026年實現商業化生產。單相浸沒式液體通常是碳氫化合物基油,由GRC (ElectroSafe) 等公司供應。


焦點:台灣的垂直整合供應鏈


台灣是全球無可爭議的AI伺服器製造中心,佔據全球市場約90%的份額。這種主導地位已深入液冷供應鏈的各個環節。其高度集中和整合的生態系統,促進了ODM與組件供應商之間的快速創新與協作。


液冷供應鏈目前正處於「組件爭奪戰」中。GPU的發展速度超過了關鍵冷卻組件(如CDU、高壓UQD、複雜冷板)的製造能力和標準化進程,從而產生了顯著的供應鏈風險和機遇。2023年市場增長的主要瓶頸是CDU等組件的產能不足,而非需求匱乏。這表明,能夠迅速擴大這些關鍵組件產能的公司,如Supermicro(每月5000個機櫃產能)或高力(擴充分歧管產能),將獲得巨大的市場份額。


然而,AI伺服器及冷卻供應鏈在台灣的高度集中也帶來了顯著的地緣政治和營運風險。為應對此單點故障風險,供應鏈多元化已成為趨勢。伺服器ODM正積極在泰國、越南和馬來西亞建立新的生產基地,預計到2026年,這些地區的產能將接近50%。鴻海也在利用其越南和美國威斯康辛的設施,並在德州投資AI伺服器生產中心。這表明,雖然台灣將繼續作為研發和工程中心,但最終組裝和部分組件製造將變得更加地域分散。


表 2:AI液冷價值鏈中的主要台灣供應商


下表清晰地展示了台灣在AI液冷供應鏈中的關鍵角色。

組件類別

主要台灣供應商

伺服器組裝/ODM

鴻海 (Foxconn), 廣達 (Quanta), 緯穎 (Wiwynn), 英業達 (Inventec), 技嘉 (Gigabyte)

CDU

高力 (Kaori), 吉茂 (Jih Maw), 廣運 (Kenmec)

冷板

雙鴻 (Auras), 奇鋐 (CCI), 健策 (Jentech), 台達 (Delta)

分歧管 (CDM)

高力 (Kaori), 雙鴻 (Auras), 奇鋐 (CCI), 台達 (Delta)

快速接頭 (UQD)

嘉澤 (Jazwares)

風扇/鼓風機

雙鴻 (Auras), 奇鋐 (CCI), 台達 (Delta), 富泰克 (Fulltech), 協禧 (AVC), 秀育 (SHYUAN YA)

機櫃/機箱

勤誠 (Chenbro), 營邦 (Aicipc), 晟銘電 (Sheng Ming)

熱交換器

高力 (Kaori)


塑造未來軌跡的戰略力量


接著我們探討並定義產業未來方向的宏觀力量——標準化、可持續性,以及長期研發。


標準化驅動力:開放運算計畫 (OCP)


OCP的使命是將開源原則應用於硬體, 培養一個多供應商、可互相相容的生態系統,以防止供應商鎖定。其冷卻環境計畫(Cooling Environments Project)設有專門針對冷板、浸沒式、門式熱交換器和熱回收的工作組,展現了其全面的標準化方法。


OCP發布了詳細的液冷組件要求文件和指南,涵蓋了材料相容性、操作參數和可靠性預期。這項工作對於建立資料中心營運商的信心和促成一個競爭性的供應鏈至關重要。通過定義UQD等介面標準,OCP允許營運商從多家供應商(如Parker、CPC)採購組件,並確保其互操作性。


OCP在為廣泛市場降低液冷轉型風險方面扮演著關鍵角色,它作為一個設定標準的制衡力量,與NVIDIA事實上的市場主導地位相輔相成。NVIDIA的設計(如GB200機櫃)因其市場主導地位而成為產業默認標準,這可能導致單一供應商生態系統和專有介面的風險。然而,得到Meta等超大規模業者支持的OCP,為組件之間的介面(如UQD、分歧管連接)創建了開放標準。這使得營運商可以在遵循OCP規範的前提下,靈活組合來自不同供應商的產品。因此,OCP的工作並非與NVIDIA對立,而是互補的,它將NVIDIA路線圖設定的高層次要求轉化為開放、多供應商的標準,從而通過降低風險和促進競爭來加速市場採用。


可持續性要求:從能效到熱回收


液冷的主要優勢是能源效率,這直接轉化為更低的碳足跡。然而,可持續性的敘事正在超越單純的降低功耗。液冷以更集中、更可用的形式(熱水)捕獲熱量,相比於氣冷(分散的熱空氣),這為熱回收(heat reuse)帶來了巨大機會。


真實世界的案例研究證明了這種方法的可行性。Meta在丹麥歐登塞的資料中心捕獲廢熱,並將其供應給當地的區域供熱網絡,為近11,000戶家庭供暖。其他潛在應用包括溫室供暖、工業製程和漁業養殖。然而,熱回收的普及面臨的主要障礙是經濟和物流。它要求資料中心靠近熱能消費者(城市、工廠),並需要大量的前期基礎設施投資(管道、熱泵)。


資料中心的熱回收正從一個利基的企業社會責任(CSR)活動,轉變為一個潛在可行的經濟模式。這一轉變由液冷的高效熱捕獲能力和日益增強的監管壓力共同推動。液冷產生的可用性高的熱水,使其成為一種可運輸和銷售的商品。同時,歐洲法規開始要求新建資料中心實施熱回收。經濟分析顯示,在適當條件下(如靠近區域供熱網絡),熱回收基礎設施的投資回收期可能短於兩年。這將廢熱從必須處理的負債轉變為可以出售的資產,為資料中心營運商創造了新的收入來源,並使資料中心成為社區能源基礎設施的組成部分。


下一個前沿:晶片級散熱管理創新


隨著GPU的TDP持續向10,000W及更高水平邁進,即使是現今的先進液冷技術也可能變得不足。未來的冷卻技術在於將其直接整合到半導體封裝本身。


  • 嵌入式冷卻/微流體冷卻: 這種技術涉及在矽晶片或中介層(interposer)上直接製造微通道,讓冷卻劑在距離電晶體僅幾毫米的範圍內流動。這消除了熱介面材料(TIM)並顯著降低了熱阻。

  • 流體矽穿孔 (F-TSV): 這是一個概念,即將通常用於電信號的矽穿孔(TSV)重新用於讓冷卻劑在3D晶片堆疊中垂直流動。這被認為是冷卻未來3D堆疊記憶體(HBM)和邏輯晶片的關鍵。

  • 關鍵研發中心: 像imec這樣的研究機構正處於開發這些下一代解決方案的最前沿,他們展示了3D列印衝擊式冷卻器等概念,並對先進晶片架構中的散熱挑戰進行建模。


結論


AI驅動的散熱危機正迫使整個產業迅速、全面地轉向液冷。這不是一個週期性趨勢,而是一次永久性的架構轉變。在技術層面,D2C是主導的過渡解決方案,而單相浸沒式冷卻則為新建的AI工廠帶來了希望。兩相冷卻的發展因法規限制而受到嚴重阻礙。市場動態方面,已演變為一個協作共創的生態系統,由NVIDIA設定節奏,超大規模業者定義規模,而以台灣為中心的複雜全球供應鏈則在競相交付。


對投資者而言:


  • 將投資重點放在供應鏈的組件和子系統層面,這些領域目前產能受限,並有望實現高增長。關鍵領域包括CDU製造商、先進冷板設計商,以及高可靠性泵和快速接頭的供應商。

  • 對高度依賴PFAS基液體(即大多數兩相冷卻)的技術保持警惕,因其監管風險極高。應尋找在替代性、可持續介電液體方面進行創新的公司。

  • 認識到台灣的組件生態系統(高力、雙鴻、奇鋐、台達)是整個AI熱潮的關鍵推動者,代表了具有高增長潛力的集中投資組合,儘管也伴隨著相應的地緣政治風險。


參考資料


  1. The future of data centers demands advanced cooling - Flex, https://flex.com/resources/the-future-of-data-centers-demands-advanced-cooling

  2. Data Center Cooling Systems - Benefits, Differences and Comparisons, https://www.parkplacetechnologies.com/blog/data-center-cooling-systems-benefits-comparisons/

  3. Is Liquid Cooling The Future Of Your Data Center? - Semiconductor Engineering, https://semiengineering.com/is-liquid-cooling-the-future-of-your-data-center/

  4. Data Center Liquid Cooling vs. Air Cooling - BLOG - Enconnex, https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling

  5. Nvidia Draws GPU System Roadmap Out To 2028 - The Next Platform, https://www.nextplatform.com/2025/03/19/nvidia-draws-gpu-system-roadmap-out-to-2028/

  6. Nvidia unveils new data centre GPU roadmap at GTC 2025 | KitGuru, https://www.kitguru.net/components/graphic-cards/joao-silva/nvidia-unveils-new-data-centre-gpu-roadmap-at-gtc-2025/

  7. Future AI processors said to consume up to 15,360 watts of power — massive power draw will demand exotic immersion and embedded cooling tech | Tom's Hardware, https://www.tomshardware.com/pc-components/cooling/future-ai-processors-said-to-consume-up-to-15-360w-massive-power-draw-will-demand-exotic-immersion-and-embedded-cooling-tech

  8. How Vertiv and CoreWeave are orchestrating AI innovation, https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/how-vertiv-and-coreweave-are-orchestrating-ai-innovation/

  9. OCP Global Summit 2024: Shifts from Open, Standardized Hardware? | Advanced Energy, https://www.advancedenergy.com/en-us/about/news/blog/ocp-global-summit-2024-shifts-from-open,-standardized-hardware/

  10. NVIDIA GTC 2025 – Built For Reasoning, Vera Rubin, Kyber, CPO, Dynamo Inference, Jensen Math, Feynman - SemiAnalysis, https://semianalysis.com/2025/03/19/nvidia-gtc-2025-built-for-reasoning-vera-rubin-kyber-cpo-dynamo-inference-jensen-math-feynman/

  11. What to Expect from Nvidia's GPU Technology Conference: A Deep Dive into Blackwell Ultra and the Upcoming Rubin GPU - Kavout, https://www.kavout.com/market-lens/what-to-expect-from-nvidia-s-gpu-technology-conference-a-deep-dive-into-blackwell-ultra-and-the-upcoming-rubin-gpu

  12. Liquid cooling: a cool approach for AI | HPE, https://www.hpe.com/us/en/newsroom/blog-post/2024/08/liquid-cooling-a-cool-approach-for-ai.html

  13. Understanding direct-to-chip cooling in HPC infrastructure: A deep dive into liquid cooling, https://www.vertiv.com/en-us/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/

  14. Liquid cooling options for data centers - Vertiv, https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/

  15. Immersion Cooling: The Good, the Bad, and the Ugly - Upsite Technologies, https://www.upsite.com/blog/immersion-cooling-the-good-the-bad-and-the-ugly/

  16. Liquid cooling: The unsung hero of AI? - Data Centre Review, https://datacentrereview.com/2024/12/liquid-cooling-the-unsung-hero-of-ai/

  17. North America Data Center Cooling Market Size, Share [2032], https://www.fortunebusinessinsights.com/amp/north-america-data-center-cooling-market-110556

  18. The Rise of AI Drives a Ninefold Surge in Liquid Cooling Technology, https://www.edge-ai-vision.com/2024/10/the-rise-of-ai-drives-a-ninefold-surge-in-liquid-cooling-technology/

  19. What Is Direct-to-Chip Liquid Cooling? | Supermicro, https://www.supermicro.com/en/glossary/direct-to-chip-liquid-cooling

  20. Direct-to-Chip Cooling Explained: The Future of Liquid Cooling in AI Data Centers, https://www.bytebt.com/direct-to-chip-cooling-liquid-cooling-ai-data-centers/

  21. Which Liquid Cooling Is Right for You? Immersion and Direct-to-Chip Explained - HPCwire, https://www.hpcwire.com/2025/05/06/which-liquid-cooling-is-right-for-you-immersion-and-direct-to-chip-explained/

  22. The basics of liquid cooling in AI data centers - Flex Power Modules, https://flexpowermodules.com/the-basics-of-liquid-cooling-in-ai-data-centers

  23. How Forever Chemical Designation May Impact HPC Cooling - Motivair, https://www.motivaircorp.com/news/how-forever-chemical-ban-may-impact-hpc-cooling/

  24. Turn Up the Volume: Data Center Liquid Immersion Cooling Advancements Fill 2024, https://www.datacenterfrontier.com/cooling/article/55130995/turn-up-the-volume-data-center-liquid-immersion-cooling-advancements-so-far-in-2024

  25. Immersion Cooling for Data Centers: A Comprehensive Guide - E-Abel, https://www.eabel.com/immersion-cooling-for-data-centers/

  26. Two-Phase Versus Single-Phase Immersion Cooling | GRC, https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/

  27. Cold Wars – Part 2, https://www.grcooling.com/wp-content/uploads/2020/03/grc-blog-library-tech-comparison-%E2%80%94-two-vs-single-phase-immersion-cooling.pdf

  28. Whats better, a single or double phase cooling system for the dielectric fluid?? - Reddit, https://www.reddit.com/r/Immersion_Cooling/comments/14p5g4n/whats_better_a_single_or_double_phase_cooling/

  29. Immersion cooling technology development status of data center, https://www.stet-review.org/articles/stet/full_html/2024/01/stet20240005/stet20240005.html

  30. 3M Announcement of Novec Phase-Out… What Does It Mean? - Techspray, https://www.techspray.com/3m-announcement-of-novec-phase-out-what-does-it-mean

  31. 2-Phase Immersion Cooling Halted Over Multi-Billion Dollar Health Hazard Lawsuits, https://www.servethehome.com/2-phase-immersion-cooling-halted-over-multi-billion-dollar-health-hazard-lawsuits/

  32. Two-Phase vs Single-Phase Immersion Cooling Fluids: Deconstructing Myths with Science - Opteon, https://www.opteon.com/en/-/media/files/opteon/liquid-stack-chemours-whitepaper_may2022_final.pdf?rev=71e725cec0bc4ee2a4fc473a4a824e52

  33. PFAS Regulations, 3M Exit to Impact Two-Phase Cooling in HPC - HPCwire, https://www.hpcwire.com/2023/01/27/pfas-regulations-3m-exit-to-impact-two-phase-cooling-in-hpc/

  34. 3M to Exit PFAS Manufacturing by the End of 2025 - Dec 20, 2022, https://news.3m.com/2022-12-20-3M-to-Exit-PFAS-Manufacturing-by-the-End-of-2025

  35. The Allure and Obstacles of Full Liquid Cooling | Data Center Frontier, https://www.datacenterfrontier.com/sponsored/article/55289182/trane-the-allure-and-obstacles-of-full-liquid-cooling

  36. A guide to data center cooling: Future innovations for sustainability - Digital Realty, https://www.digitalrealty.com/resources/articles/future-of-data-center-cooling

  37. Top Five Benefits of Immersion Cooling (Plus a Few Potential Drawbacks) - PCX, https://info.pcxcorp.com/blog/top-five-benefits-of-immersion-cooling

  38. Liquid vs. Air Cooling. Which is the Capex winner? - Schneider Electric Blog, https://blog.se.com/datacenter/architecture/2020/02/24/liquid-vs-air-cooling-which-is-the-capex-winner/

  39. Comparing and Contrasting Liquid Cooling Technologies | Data Center Frontier, https://www.datacenterfrontier.com/sponsored/article/55132034/park-place-technologies-comparing-and-contrasting-immersion-cooling-technologies

  40. Supermicro NVIDIA-Certified Systems, https://www.supermicro.com/en/accelerators/nvidia-certified-systems

  41. DGX-Ready Colocation Data Centers - NVIDIA, https://www.nvidia.com/en-us/data-center/colocation-partners/

  42. For Financial Services Firms, AI Inference Is As Challenging As Training - The Next Platform, https://www.nextplatform.com/2025/07/31/for-financial-services-firms-ai-inference-is-as-challenging-as-training/

  43. Super Micro Computer, Inc. - Supermicro Solidifies Position as a Leader in Complete Rack Scale Liquid Cooling Solutions, https://ir.supermicro.com/news/news-details/2024/Supermicro-Solidifies-Position-as-a-Leader-in-Complete-Rack-Scale-Liquid-Cooling-Solutions----Currently-Shipping-Over-100000-GPUs-Per-Quarter/default.aspx

  44. Supermicro expands global footprint to fuel AI infra growth - RCR Wireless News, https://www.rcrwireless.com/20250724/ai-infrastructure/supermicro-ai

  45. Supermicro's New Multi-Node Liquid Cooled Architecture with Maximum Performance Density Purpose-Built for HPC at Scale - Super Micro Computer, Inc., https://ir.supermicro.com/news/news-details/2024/Supermicros-New-Multi-Node-Liquid-Cooled-Architecture-with-Maximum-Performance-Density-Purpose-Built-for-HPC-at-Scale/default.aspx

  46. Hon Hai Technology Group (Foxconn) and TECO Announce Strategic Alliance Targeting AI Data Center Capabilities, https://www.foxconn.com/en-us/press-center/press-releases/latest-news/1798

  47. Taiwan supplies 90% of global AI server, Foxconn CEO says - Tech in Asia, https://www.techinasia.com/news/taiwan-supplies-90-of-global-ai-server-foxconn-ceo-says

  48. Hon Hai and Teco to team up, target AI data center capabilities ..., https://focustaiwan.tw/business/202507300023

  49. Taiwan's Foxconn partners with TECO to build AI data centres - CNA, https://www.channelnewsasia.com/business/taiwans-foxconn-partners-teco-build-ai-data-centres-5266686

  50. Server Supply Chain Becomes Fragmented, ODM's Southeast Asia SMT Capacity Expected to Account for 23% in 2023, Says TrendForce - Business Wire, https://www.businesswire.com/news/home/20230823611643/en/Server-Supply-Chain-Becomes-Fragmented-ODMs-Southeast-Asia-SMT-Capacity-Expected-to-Account-for-23-in-2023-Says-TrendForce

  51. Top Companies List of White Box Server Industry - MarketsandMarkets, https://www.marketsandmarkets.com/ResearchInsight/white-box-server-market.asp

  52. Europe Data Center Market Size by Investment to Reach $65.66, https://www.openpr.com/news/2554349/europe-data-center-market-size-by-investment-to-reach-65-66

  53. AI power: Expanding data center capacity to meet growing demand - McKinsey, https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/ai-power-expanding-data-center-capacity-to-meet-growing-demand

  54. Overcoming power, heat, and scale hurdles in the data center | Flex, https://flex.com/resources/overcoming-power-heat-and-scale-hurdles

  55. Data Centers Have a Heat Problem; Innovations in Liquid Cooling Will Open a Huge Market, https://luxresearchinc.com/blog/data-centers-have-a-heat-problem-innovations-in-liquid-cooling-will-open-a-huge-market/

  56. Smart Liquid Cooling: Beating Google on Efficiency - ProphetStor, https://prophetstor.com/white-papers/ai-driven-data-center-cooling-google-vs-prophetstor/

  57. Our commitment to climate-conscious data center cooling - Google Blog, https://blog.google/outreach-initiatives/sustainability/our-commitment-to-climate-conscious-data-center-cooling/

  58. DeepMind AI Reduces Google Data Centre Cooling Bill by 40%, https://deepmind.google/discover/blog/deepmind-ai-reduces-google-data-centre-cooling-bill-by-40/

  59. Data Center Cooling using Model-predictive Control - Google Research, https://research.google/pubs/data-center-cooling-using-model-predictive-control/

  60. How are Companies Pioneering Data Centre Zero Water Cooling? - Sustainability Magazine, https://sustainabilitymag.com/news/how-are-companies-pioneering-data-centre-zero-water-cooling

  61. Microsoft data centres adopt innovative water-efficient cooling system, https://instituteofsustainabilitystudies.com/insights/news-analysis/microsoft-data-centres-adopt-innovative-water-efficient-cooling-system/

  62. Microsoft: The Environmental Impact of Data Centre Cooling, https://datacentremagazine.com/articles/microsoft-the-environmental-impact-of-data-centre-cooling

  63. Simulator-based reinforcement learning for data center cooling optimization, https://engineering.fb.com/2024/09/10/data-center-engineering/simulator-based-reinforcement-learning-for-data-center-cooling-optimization/

  64. OCP Summit 2024: The open future of networking hardware for AI - Engineering at Meta, https://engineering.fb.com/2024/10/15/data-infrastructure/open-future-networking-hardware-ai-ocp-2024-meta/

  65. OCP Global Summit Full Keynote - YouTube, https://www.youtube.com/watch?v=0f3-_PO5yuE

  66. www.globenewswire.com, https://www.globenewswire.com/news-release/2025/08/01/3125961/0/en/Data-Center-Liquid-Cooling-Company-Evaluation-Report-2025-Top-23-Data-Center-Cooling-Companies-Shaping-the-Market-in-2025-and-Beyond.html#:~:text=Key%20players%20in%20the%20Data,Technology%2C%20Dcx%20Liquid%20Cooling%20Systems%2C

  67. Data Center Liquid Cooling Company Evaluation Report 2025 | - GlobeNewswire, https://www.globenewswire.com/news-release/2025/08/01/3125961/0/en/Data-Center-Liquid-Cooling-Company-Evaluation-Report-2025-Top-23-Data-Center-Cooling-Companies-Shaping-the-Market-in-2025-and-Beyond.html

  68. Vertiv Group Corp. (US) and Schneider Electric (France) are Leading Players in the Data Center Liquid Cooling Market - MarketsandMarkets, https://www.marketsandmarkets.com/ResearchInsight/data-center-liquid-cooling-market.asp

  69. Unleash your AI Evolution with Vertiv, https://www.vertiv.com/en-us/solutions/artificial-intelligence/

  70. Vertiv AI Hub: Transforming Modern Data Centers To Support AI and HPC Demands, https://www.vertiv.com/en-us/solutions/ai-hub/

  71. Vertiv Expands Liquid Cooling Portfolio with Scalable Solutions for AI And HPC Applications, https://www.vertiv.com/en-emea/about/news-and-insights/news-releases/vertiv-expands-liquid-cooling-portfolio-with-scalable-solutions-for-ai-and-hpc-applications/

  72. Solving the power and cooling complexities of the AI revolution - Vertiv, https://www.vertiv.com/en-in/campaigns/power-and-cooling-for-the-ai-revolution/

  73. Vertiv launches new AI hub, featuring industry's first AI reference design portfolio for critical digital infrastructure, https://www.vertiv.com/en-emea/about/news-and-insights/news-releases/vertiv-launches-new-ai-hub-featuring-industrys-first-ai-reference-design-portfolio-for-critical-digital-infrastructure/

  74. Data Center Cooling Systems | Air, Liquid, & Hybrid Cooling - Daikin Applied, https://www.daikinapplied.com/industry-solutions/data-center-solutions

  75. Omdia research predicts data center cooling market to reach $16.87 billion in 2028 - Informa, https://omdia.tech.informa.com/pr/2024/jun/omdia-research-predicts-data-center-cooling-market-to-reach-16point87-billion-dollars-in-2028

  76. Supermicro Targets 40% Power Savings with Latest Direct Liquid-Cooling Innovations, https://www.hpcwire.com/off-the-wire/supermicro-targets-40-power-savings-with-latest-direct-liquid-cooling-innovations/

  77. ACS Liquid Cooling Cold Plate Requirements Document - Open Compute Project, https://www.opencompute.org/documents/ocp-acs-liquid-cooling-cold-plate-requirements-pdf

  78. Coolant Distribution Unit (CDU) | Trane Commercial HVAC, https://www.trane.com/commercial/north-america/us/en/products-systems/liquid-cooling-systems/coolant-distribution-unit-cdu.html

  79. Coolant Distribution Units (CDU) for Data Center Cooling - Boyd, https://www.boydcorp.com/thermal/liquid-cooling-systems/coolant-distribution-unit-cdu.html

  80. CDU-1MW Coolant Distribution Unit - LiquidStack, https://liquidstack.com/cdu-direct-to-chip/coolant-distribution-unit-1-megawatt

  81. Taiwan's Kaori Drives Nvidia GB200 Liquid Cooling|Industry ..., https://english.cw.com.tw/article/article.action?id=3842

  82. KAORI HEAT TREATMENT CO., LTD. - Home, https://www.kaori.com.tw/

  83. Data center cooling systems and solutions | Alfa Laval, https://www.alfalaval.us/industries/hvac/data-center-cooling/

  84. Heat Exchangers | Xylem Taiwan, https://www.xylem.com/en-tw/products--services/heat-exchangers/

  85. AI扛霸子液冷散熱國家隊- 專題- 工商時報, https://topic.ctee.com.tw/liquidcooling/index.htm

  86. 液冷技術成AI資料中心標配,2025台廠供應鏈將迎營運高峰:奇鋐、雙鴻、高力 - 鉅亨網, https://news.cnyes.com/news/id/5991433

  87. 散熱概念股全解析:散熱技術與受惠產業,台美股哪些公司值得關注? - 口袋證券, https://www.pocket.tw/school/report/SCHOOL/5257/

  88. Liquid Cooling Pumps for Data Center Servers - Moog Inc., https://www.moog.com/products/pumps/liquid-cooling-pumps-for-data-centers.html

  89. Data Center Cooling Pumps | Wilo USA, https://wilo.com/us/en_us/Solutions/Pump-Solutions/Data-Centers/

  90. Data center cooling - Danfoss, https://www.danfoss.com/en-us/markets/buildings-commercial/shared/data-centers/cooling/

  91. Data Center Cooling Pumps, https://www.catpumps.com/data-center-cooling-pumps

  92. Liquid Cooling Connections - Parker Hannifin, https://discover.parker.com/Liquid-Cooling-Connections

  93. Liquid Cooling Couplings | Quick Connects & Disconnects - CPC, https://www.cpcworldwide.com/Liquid-Cooling/Products

  94. Liquid Cooling Connectors (or Quick Disconnects [QDs]) - CPC, https://www.cpcworldwide.com/Liquid-Cooling

  95. Quick Connects | Motivair Cooling Solutions, https://www.motivaircorp.com/products/quick-connects/

  96. Possible Coolant Shortage to Effect Semiconductor Industry - Motivair Corporation, https://www.motivaircorp.com/news/possible-coolant-shortage-effect-on-semiconductor/

  97. Chemours and DataVolt Announce Agreement to Accelerate Adoption of Liquid Cooling Solutions & Support Broader Innovation for Future-Ready AI Data Centers, https://www.chemours.com/en/news-media-center/all-news/press-releases/2025/chemours-and-datavolt-announce-agreement-to-accelerate-adoption-of-liquid-cooling-solutions

  98. Chemours trials immersion cooling fluid, https://www.coolingpost.com/world-news/chemours-trials-immersion-cooling-fluid/

  99. Chemours helping bridge the data center cooling gap | Digital Infra Network, https://digitalinfranetwork.com/news/chemours-opteon-2p50-immersion-cooling-trial/

  100. Chemours and Navin Fluorine Announce Agreement to Manufacture New Liquid Cooling Product as a Part of Chemours Expanded Liquid Cooling Venture | Chemours, https://www.chemours.com/en/news-media-center/all-news/press-releases/2025/chemours-and-navin-fluorine-announce-agreement-to-manufacture-new-liquid-cooling-product

  101. 雙鴻打進液冷快接頭供應鏈獲輝達認證通過 - 經濟日報, https://money.udn.com/money/story/5612/8620212

  102. Professional Computers Coolers & Fans Manufacturer, https://www.coolingfanmanufacturers.com/Application/10/Computers-Coolers-and-Fans

  103. Fulltech Electric Co., Ltd | high efficiency & energy saving cooling fan made in Taiwan, https://fulltechtw.com/

  104. Fans & Blowers - Asia Vital Components, https://www.avc.co/en-us/ProductTechnology/%E9%A2%A8%E6%89%87

  105. Updated Immersion Cooling Requirements from OCP Pave the Way for Increased Adoption, https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/updated-immersion-cooling-requirements-from-ocp-pave-the-way-for-increased-adoption/

  106. Cooling Environments - Open Compute Project, https://www.opencompute.org/projects/cooling-environments

  107. OCPOAISYSTEM LIQUID COOLING GUIDELINES - Open Compute Project, https://www.opencompute.org/documents/oai-system-liquid-cooling-guidelines-in-ocp-template-mar-3-2023-update-pdf

  108. LIQUID TO LIQUID CDU TEST METHODOLOGY AND PERFORMANCE RATING - Open Compute Project, https://www.opencompute.org/documents/ocp-wp-l-lcdu-test-methodology-performance-rating-r1-pdf

  109. Data Center Liquid Cooling vs Air Cooling - Which is Best? | Park Place Technologies, https://www.parkplacetechnologies.com/blog/data-center-liquid-cooling-vs-air-cooling/

  110. 4 Ways Data Center Heat Can Be Reused - Resources - PivIT Global, https://info.pivitglobal.com/blog/4-ways-data-center-heat-can-be-reused

  111. Harnessing heat from data centers for reuse in district heating - Munters, https://www.munters.com/en-us/knowledge-bank/case-studies/casestudy-13666/

  112. Redefining efficiency: How and why data centers are embracing heat reuse - Vertiv, https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/redefining-efficiency-how-and-why-data-centers-are-embracing-heat-reuse/

  113. Data Center Waste Heat Reuse: An Investment Analysis - ASME Digital Collection, https://asmedigitalcollection.asme.org/sustainablebuildings/article/6/1/011002/1210426/Data-Center-Waste-Heat-Reuse-An-Investment

  114. A Review of Recent Developments in “On-Chip” Embedded Cooling Technologies for Heterogeneous Integrated Applications, https://www.engineering.org.cn/engi/EN/10.1016/j.eng.2022.10.019

  115. investigation of The Impact of Liquid Cooling on The integrity of Three-Dimensional integrated Circuits (3D-ICs) - Huskie Commons, https://huskiecommons.lib.niu.edu/cgi/viewcontent.cgi?article=8217&context=allgraduate-thesesdissertations

  116. Review and Projections of Integrated Cooling Systems for Three-Dimensional Integrated Circuits | Request PDF - ResearchGate, https://www.researchgate.net/publication/275379851_Review_and_Projections_of_Integrated_Cooling_Systems_for_Three-Dimensional_Integrated_Circuits

  117. 3D Integrated Circuit Cooling with Microfluidics - PMC - PubMed Central, https://pmc.ncbi.nlm.nih.gov/articles/PMC6187454/

  118. Thermal Management for Advanced Semiconductor Packaging 2026-2036: Technologies, Markets, and Opportunities - IDTechEx, https://www.idtechex.com/en/research-report/thermal-management-for-advanced-semiconductor-packaging/1106

  119. Navigating thermal challenges in advanced systems on chip | imec, https://www.imec-int.com/en/articles/navigating-thermal-challenges-advanced-systems-chip

  120. Mitigating the thermal bottleneck in advanced interconnects - IMEC, https://www.imec-int.com/en/articles/mitigating-thermal-bottleneck-advanced-interconnects

  121. Imec demonstrates efficient cost-effective cooling solution for high performance chips, https://www.imec-int.com/en/articles/imec-demonstrates-efficient-cost-effective-cooling-solution-for-high-performance-chips

Subscribe to AmiNext Newsletter

Thanks for submitting!

  • LinkedIn
  • Facebook

© 2024 by AmiNext 金融與科技筆記

bottom of page