top of page

AI 新紀元:NVIDIA 黃仁勳 COMPUTEX 2025 演說核心技術與未來展望深度剖析

  • 作家相片: Sonya
    Sonya
  • 5天前
  • 讀畢需時 26 分鐘

已更新:4天前

全球科技產業的目光再度聚焦於 COMPUTEX 2025,NVIDIA 創辦人暨執行長黃仁勳登上了演講台,以其一貫的魅力與前瞻視野,為我們描繪了一幅由 AI 驅動的運算未來藍圖;NVIDIA 正是這場變革的核心引擎,其發布的各項技術與平台,不僅是硬體的堆砌,更是對未來十年科技走向的深刻預判,從根本上改變著各行各業的運作模式與價值創造方式,其影響力之深遠,值得我們細細剖析。


本文將深入解析黃仁勳演說中的關鍵技術亮點,從 NVIDIA 的轉型之路、AI 工廠的宏偉構想、次世代運算晶片 Grace Blackwell 的強悍性能,到機器人平台 Isaac 的智慧進化,以及數位分身平台 Omniverse 如何鏡像真實世界,逐一探討其背後的技術架構、核心原理、面臨的挑戰與未來潛力。





NVIDIA 的偉大轉型:從圖形晶片到 AI 運算基礎設施的核心之路


NVIDIA 的故事是一部不斷自我革新、順應時代並引領時代的史詩,從專注於圖形處理的晶片設計公司,逐步蛻變為今日 AI 運算基礎設施的巨擘;其間經歷了數次關鍵的技術與策略轉型,每一次的抉擇都為其在人工智慧領域的領導地位添磚加瓦,這段旅程充分展現了其對技術趨勢的敏銳洞察與堅定執行力。



CUDA 架構:釋放 GPU 平行運算潛能的基石


談及 NVIDIA 的轉捩點,絕對不能不提 2006 年石破天驚推出的 CUDA(Compute Unified Device Architecture)統一計算架構;它的誕生,標誌著 GPU 不再僅僅是遊戲玩家的專屬利器,更一躍成為科學家與工程師手中強大無比的運算工具;在 CUDA 出現之前,若想利用 GPU 進行通用計算(GPGPU),其門檻可謂極高,開發者往往需要將複雜的計算問題巧妙地偽裝成圖形渲染任務,整個過程不僅繁瑣複雜,運算效率也難以令人滿意。


CUDA 的核心架構創新之處,在於它提供了一個相對友善且高效的平行運算平台與程式設計模型,首次允許開發者能以諸如 C、C++、Fortran 等廣為熟悉的高階語言編寫程式,再透過NVIDIA提供的編譯器將其轉化為 GPU 可直接執行的指令;這種革命性的設計,讓開發者可以直接存取並靈活編程 GPU 內部成千上萬個運算核心,以 SIMT(Single Instruction, Multiple Threads,單指令、多執行緒)的強大模式執行大規模平行計算;SIMT 模式完美契合了眾多科學計算、數據分析及關鍵的 AI 演算法中固有的資料平行特性,因而極大地拓展了 GPU 的應用邊界,為後來人工智慧的爆發式成長埋下了至關重要的伏筆。



DGX 系統:整合式 AI 超級運算的先驅架構


隨著深度學習演算法在 2010 年代初期取得一系列突破性進展,全球學術界與產業界對高效能運算能力的需求呈現出爆炸式的增長態勢;NVIDIA 憑藉其敏銳的市場嗅覺,迅速意識到僅僅提供強大的 GPU 硬體晶片,並不足以完全滿足市場對於 AI 開發的迫切需求,AI 研究者與應用開發者更迫切需要一個整合完整、開箱即用且效能卓越的開發平台;於是,NVIDIA 精心擘劃並果斷推出了專為 AI 研究與開發量身打造的 DGX 系統。


DGX 系統絕非一台簡單的伺服器所能概括,其技術架構更像是一個「全棧式 AI 超級電腦 in a box」;它不僅搭載了 NVIDIA 當時最新、最強大的 Tensor Core GPU 陣列,更在一個高度整合的機箱內,集成了專為多 GPU 通訊優化的高速 NVLink 與 NVSwitch 互連技術、針對 AI 工作負載特性設計的優化儲存子系統,以及一個包含特製作業系統、最新 CUDA 執行環境、cuDNN、NCCL 等核心深度學習函式庫、主流 AI 框架(如 TensorFlow、PyTorch)的容器化版本、以及便捷的工作負載管理工具在內的完整 AI 軟體堆疊;這種「軟硬體協同設計、極致優化」的理念,大幅簡化了 AI 模型的訓練部署流程與底層系統的調校複雜度,讓研究人員得以將寶貴的時間與精力專注於演算法本身的創新,而非耗時費力的基礎設施配置。



AI 工廠的崛起:定義次世代智慧生產力的新模式


黃仁勳在其演說中,以極具感染力的語言反覆強調並闡釋了「AI 工廠」(AI Factory)的宏大概念;這不僅僅是一個生動貼切的比喻,更深刻地揭示了未來 AI 基礎設施的演進方向與終極形態;他堅信,AI 工廠將成為規模化生產「智慧」的核心基地與關鍵樞紐,其在未來社會中的戰略重要性,將可比擬工業革命時代的發電廠,為整個社會的運作與發展提供源源不絕的智慧動力;NVIDIA 當前正全力以赴,傾其資源專注於打造這一新時代的「智慧基礎設施」,並致力於將 AI 的強大能力無縫整合到人類生活與工作的方方面面,實現真正的萬物智能。



AI 工廠的技術架構:運算、網路與儲存的革新


傳統資料中心的設計哲學,通常是以通用型 CPU 作為主要的運算單元,並強調資源的彈性調度能力與多租戶環境下的資源共享效率;然而,AI 工廠的技術架構,則與傳統資料中心有著本質性的區別,甚至可以說是一場徹底的顛覆;其運算核心,已從 CPU 為主導轉向以大規模 GPU 叢集等專用加速器為絕對核心,專為高效執行大規模平行處理的 AI 工作負載而進行深度優化;在網路方面,由於 AI 模型訓練過程中,GPU 之間需要進行極其頻繁且大量的資料交換(如梯度同步、模型參數更新等),這對網路的頻寬和延遲提出了近乎苛刻的要求,因此,AI 工廠必須採用諸如 NVIDIA InfiniBand 或其 Spectrum-X 乙太網路平台等具備超高頻寬、超低延遲特性的先進互連技術,以確保成千上萬個 GPU 節點間的資料流動暢通無阻;同樣地,儲存系統也必須針對 AI 應用的獨特 I/O 特性進行深度優化,例如採用高速並行檔案系統或專為 AI 設計的快閃記憶體儲存解決方案,以滿足海量訓練資料集的快速讀取需求,以及模型訓練過程中檢查點(checkpoint)的頻繁、高速寫入操作;這三大技術支柱——運算、網路、儲存——的全面革新與深度整合,共同構成了 AI 工廠能夠高效、穩定運作的堅實硬體基石;毫無疑問,要建造並運營這樣一座代表頂尖科技水準的 AI 工廠,需要投入巨額的前期資金與持續的維護成本,但對於在激烈競爭中產生具有核心優勢的 AI 驅動產出來說,它們是不可或缺、無法妥協的基礎建設投資。



「代幣」經濟學:智慧作為產出的新價值觀


AI 工廠的獨特之處,並不僅僅在於其先進的硬體架構,更在於其核心的產出物——它不再是傳統工業體系下標準化的實體商品,而是以一種被黃仁勳稱為「代幣」(Tokens)的形式存在的、可量化、可交易的「智慧」[00:23:26];這裡所說的「代幣」,是一個具有高度概括性的概念,它可以是大型語言模型(LLM)根據用戶提問或指令,生成的一段邏輯清晰、文法精準、內容豐富的文字,或是一篇充滿洞察力、數據詳實的商業分析報告;它也可以是先進的 AI 繪圖工具根據簡單的文本描述,在短時間內創造出的一幅風格獨特、細節生動、令人驚嘆的藝術作品,或是一段用於電影特效或遊戲開發的逼真三維虛擬場景;更進一步,它甚至可以是驅動工業機器人精準完成複雜組裝任務的控制指令序列,或是優化龐大供應鏈網絡運作效率的動態決策建議;這種以「智慧即服務」(Intelligence-as-a-Service)、「智慧即產品」(Intelligence-as-a-Product)為核心理念的全新經濟模式,正在深刻地重塑各行各業原有的價值創造方式、商業競爭格局乃至社會組織形態。



加速運算與 AI:NVIDIA 的技術核心雙引擎


NVIDIA 的核心技術戰略始終清晰且堅定地圍繞著三大核心支柱進行構建與發展,它們分別是:領先全球的加速運算硬體平台、持續創新的人工智慧演算法與模型,以及由全球數百萬開發者共同參與、貢獻並賴以生存的龐大而活躍的 CUDA X 函式庫生態系統;其中,加速運算是 NVIDIA 的立身之本與賴以成功的技術基石,而人工智慧則是其洞察未來產業趨勢、引領下一波科技變革的核心驅動力;這兩者之間並非孤立存在,而是緊密耦合、互為表裡、相輔相成,共同構建了 NVIDIA 在風起雲湧、競爭激烈的全球科技浪潮中,能夠持續保持領先地位並不斷開拓新疆界的強大「雙引擎」系統。



加速運算的架構精髓:CPU 與 GPU 的協同作業


加速運算的本質與其核心的系統架構精髓,在於將應用程式中那些可以被高效地高度平行化處理、且運算極其密集的任務負載,從傳統上主要負責執行控制流程、序列化任務以及 I/O 管理的中央處理器(CPU),巧妙地卸載到專為此類大規模平行運算任務而精心設計的圖形處理器(GPU)或其他特定領域專用加速器(DSA)上來執行;GPU 內部通常擁有數千個相對簡單但數量龐大的小型處理核心,使其非常適合以「同時處理大量相似運算任務」的方式工作;透過這種 CPU 與 GPU(或其他加速器)各司其職、緊密協同的異質運算架構,往往可以實現整體應用程式運算效能的數倍、數十倍,在某些特定優化良好的場景下甚至可以達到百倍以上的驚人提升;然而,要真正實現高效的加速運算,並非僅僅依賴強大的硬體就足夠,它更需要開發者對目標應用程式背後的演算法特性與數據流動模式有深刻的理解,並輔以先進的軟體編譯工具鏈與執行時期函式庫進行精細的任務劃分、資源調度與記憶體管理,才能真正淋漓盡致地發揮出底層硬體所蘊藏的巨大潛能。



GeForce RTX 與 AI 圖學:DLSS 技術的革新性突破


在 NVIDIA 的傳統優勢根據地——個人電腦遊戲以及專業視覺圖形處理領域中,人工智慧技術的深度融入同樣帶來了令人矚目的革命性變革;最新一代 GeForce RTX 50 系列顯示卡的成功發布與市場熱烈反響,再次有力地印證了 PC 遊戲市場依然保有其龐大的用戶基礎與持續的技術創新重要性;更重要的是,AI 技術已經從根本上改變了現代電腦圖學的渲染管線設計理念與最終的視覺呈現方式;其中,最具代表性且廣為人知的技術創新之一,便是 DLSS(Deep Learning Super Sampling,深度學習超高取樣)技術;DLSS 的核心運作原理,是巧妙地利用 GPU 內部專為 AI 運算設計的 Tensor Cores 來高效執行一個預先透過海量高品質圖像數據訓練好的深度神經網路模型,該模型能夠對遊戲引擎以較低解析度渲染的畫面進行即時分析、理解與智慧重建,進而「猜測」並生成出缺失的高解析度細節像素;這項極具開創性的技術,能夠在顯著提升遊戲畫面更新率、保證極致流暢操作體驗的同時,依然維持甚至在某些情況下超越原生高解析度渲染所能達到的視覺品質與細膩程度,為全球廣大遊戲玩家帶來了前所未有的沉浸式互動娛樂新境界。



CUDA X 函式庫生態:拓展跨領域應用的加速引擎


僅僅擁有世界上最快速、最先進的硬體運算平台,並不足以構建起真正難以逾越的技術壁壘與可持續的商業成功,NVIDIA 對此有著極為清醒的認識,並深知充滿活力的軟體生態系統對於平台發展的至關重要性;因此,NVIDIA 多年來圍繞著其核心的 CUDA 平行運算架構,投入了難以估量的巨額資金與工程資源,精心培育並建立了一個極其豐富、功能完善且持續擴展的 CUDA X AI 與 HPC(高效能運算)函式庫生態系統;CUDA 平台本身及其在全球範圍內龐大且日益普及的安裝基礎,為第三方開發者以及 NVIDIA 自身的工程師團隊創建各類加速函式庫和應用程式,提供了堅實無比的技術土壤與源源不絕的強大動力;這些針對特定應用領域進行了深度優化的函式庫,其覆蓋範圍極廣,從最底層的基礎數學運算(例如線性代數運算的 cuBLAS、快速傅立葉變換的 cuFFT),到中階的影像與訊號處理(例如 NPP),再到最高階的複雜應用領域,諸如深度學習模型訓練與推論(例如 cuDNN、TensorRT)、通用機器學習演算法(例如 cuML)、大規模數據分析與資料處理(例如 cuDF)、傳統科學與工程計算、計算流體力學模擬、量子計算模擬,以及對人類福祉至關重要的生物資訊學研究(例如基因組學序列分析)、先進醫學影像處理與診斷輔助(例如其整合性的 Clara 平台)等多個高度專業化的垂直應用領域,均有相應的 CUDA X 函式庫提供強力支持;這些經過高度優化、效能卓越的函式庫,使得各行各業的應用開發者不必再從零開始編寫複雜的底層 GPU 加速程式碼,而是能夠更便捷、更高效地利用 NVIDIA GPU 強大的平行運算能力,快速開發出滿足其特定需求的高效能應用程式,這不僅極大地拓展了 NVIDIA GPU 技術的實際應用版圖,更成功地幫助 NVIDIA 開拓了眾多前景廣闊的全新垂直市場領域,並在其中建立了領導地位。



AI 技術的演化階梯:從生成式 AI 到物理 AI 的前瞻

人工智慧的發展進程並非一蹴可幾,也不是單一技術的線性演進,而是呈現出多個階段性發展、能力不斷迭代增強的特徵;黃仁勳在其 COMPUTEX 的演說中,也為聽眾清晰地勾勒出 AI 技術從當前廣受關注的感知與生成能力,逐步邁向具備更強自主性、更深理解力以及與物理世界更複雜互動能力的更高階形態的演化路徑與未來圖景。



生成式 AI:內容創造的無限可能


當前,全球範圍內的人工智慧技術浪潮,已經成功地從早期的以感知智能(例如圖像分類、物體偵測、語音辨識等)為主要代表的階段,跨越到了以生成式 AI(Generative AI)為核心標誌的全新高度;生成式 AI 的核心能力在於,模型能夠透過學習海量、多樣化的數據中所潛藏的複雜模式、結構與分佈規律,並基於這種學習到的「理解」,創造出全新的、在某種程度上具有原創性的內容;其生成的內容形態極為豐富,可以是符合特定主題與風格要求的文本(例如新聞報導、詩歌小說、行銷文案),可以是具備特定藝術風格或照片級真實感的圖像,可以是逼真的語音或音樂,可以是引人入勝的影片片段,甚至可以是符合特定程式語言語法規則、能夠執行特定功能的電腦程式碼;這項令人振奮的技術突破,正為數位內容創作、藝術設計、軟體工程自動化、個性化教育、新藥研發、先進材料科學探索等諸多領域,帶來了前所未有的廣闊想像空間與巨大的生產力躍升潛力。



代理型 AI 與物理 AI:邁向更自主的智慧系統


展望人工智慧的下一重要發展階段,黃仁勳特別重點提及了代理型 AI(Agentic AI)以及物理 AI(Physical AI)的巨大發展潛力與戰略意義;代理型 AI 強調系統的自主規劃能力、邏輯推理能力以及與外部環境和工具進行有效互動的能力,使其能夠像一個真正得力的人類助手或智慧代理一般,不僅能理解用戶提出的較為複雜的、可能包含多個步驟的指令或目標,更能主動地將大任務分解為小步驟、自主調用外部的工具(如搜尋引擎、計算器、API 介面等)或知識庫來輔助完成任務;而物理 AI 則致力於讓 AI 系統真正地「理解」並能夠遵循我們所處的這個複雜且動態的物理世界的客觀規律與法則,例如牛頓經典力學原理、光學與聲學的傳播特性、不同材料的物理與化學屬性等等;只有當 AI 具備了對物理世界深刻且準確的理解之後,它才能夠在真實的、非結構化的環境中與各類物體進行安全、可靠且高效的互動操作,這將是實現通用型自主機器人、具備高度環境適應性的全自動駕駛系統,以及其他更為複雜的自主智能系統的關鍵性基石與核心挑戰。



Grace Blackwell 超級晶片:驅動巨型 AI 模型的怪獸級引擎


面對當今人工智慧領域日益複雜、參數規模動輒以數兆甚至數十兆計的巨型 AI 模型(例如大型語言模型、多模態基礎模型等),以及來自雲端服務商和終端使用者對即時推論響應速度和高效能模型訓練效率的極致追求,傳統的 CPU 為主或上一代 GPU 的運算架構已逐漸顯露出其在記憶體容量、記憶體頻寬、核心運算能力以及系統功耗等方面的瓶頸,漸感力不從心;為了應對這一嚴峻挑戰,並持續引領 AI 運算技術的發展方向,NVIDIA 在本次 COMPUTEX 上隆重推出了其劃時代的全新 Grace Blackwell 超級晶片平台;該平台憑藉其無與倫比的單晶片運算性能、創新的高頻寬記憶體架構以及強大靈活的系統級互連能力,旨在為下一代要求最嚴苛的人工智慧應用與高效能運算(HPC)負載,提供前所未有的、堪稱怪獸級的澎湃動力支援。



Grace CPU 與 Blackwell GPU 的融合架構


Grace Blackwell 超級晶片平台的核心架構亮點與其強大性能的來源,在於將 NVIDIA 歷經多年自主研發的 Grace CPU(該 CPU 基於業界領先的高效能 Arm Neoverse 核心架構,並針對 AI 與 HPC 工作負載的特性進行了深度的客製化與優化)與 NVIDIA 全新一代、代號為 Blackwell 的革命性 GPU 架構,透過一條具備超高頻寬與極低延遲特性的 NVLink-C2C(Chip-to-Chip)晶片到晶片直接互連技術,實現了前所未有的緊密物理融合與高效協同工作;這種高度整合的設計,使得 CPU 核心與 GPU 核心之間可以存取一個統一的、共享的、快取一致的記憶體位址空間,從而極大地減少了在不同處理器之間來回搬移海量資料(如模型參數、中間運算結果、輸入數據等)所造成的系統延遲與額外功耗瓶頸;這對於那些需要頻繁存取、處理遠超單一 GPU 記憶體容量的海量模型參數和龐大訓練數據集的巨型 AI 應用(例如訓練萬億參數級別的大型語言模型)而言,其所能帶來的實際效能提升尤為顯著且關鍵。



技術特性

描述

深入解說

CPU

NVIDIA Grace CPU (Arm 架構,為 AI/HPC 優化)

採用高能效 Arm 核心,並針對支援 GPU 大規模平行運算與處理超大規模資料集進行了特殊設計,提供強大的純量運算能力與高效的記憶體管理機制。

GPU

NVIDIA Blackwell 架構 GPU

代表了 NVIDIA 在 GPU 圖形處理與通用平行運算架構上的最新突破,預期在單精度/雙精度浮點運算性能、AI 推論與訓練專用加速單元(如新一代 Tensor Core)、能源效率比以及光線追蹤渲染能力等方面均將有大幅度的代際提升。

互連技術

NVLink-C2C (晶片到晶片高速互連)

提供高達數百 GB/s 等級的超高資料傳輸頻寬,使得 CPU 與 GPU 能夠以前所未有的緊密程度進行協同運算,實現高效的快取一致性與極低延遲的共享記憶體存取。

設計目標

處理巨型 AI 模型、高效能推論與訓練

專為解決當前 AI 模型規模呈現爆炸性增長趨勢所帶來的記憶體容量瓶頸與記憶體頻寬不足問題,以及日益嚴苛的雲端與邊緣端 AI 推論延遲要求而打造。

核心優勢

高頻寬、低延遲、共享記憶體帶來的高效率

能夠顯著提升那些需要處理遠超單一 GPU 板載記憶體容量的大型 AI 模型的實際運算效能,同時可以簡化針對此類系統的程式設計模型複雜度,並有助於降低系統整體的運行功耗。



GB300:為極致推論效能與規模而生


在本次演講中,黃仁勳特別重點介紹了基於 Grace Blackwell 架構的 GB300 系統級配置,並預期該系統將帶來令人矚目的實際應用性能躍升;根據NVIDIA初步公佈的數據,相較於其前代產品,GB300 在處理諸如大型語言模型等複雜推論任務時,能夠實現高達 1.5 倍的效能提升,同時其整體系統級的網路通訊頻寬也將擴大至原來的兩倍之多;這些顯著的性能指標提升,意味著未來基於 GB300 系統構建的 AI 工廠或大型資料中心,將能夠更高效地支持更大規模、更複雜先進 AI 模型的快速部署與線上服務,並為終端使用者提供更為迅捷、更低延遲的即時回應能力,從而更好地滿足全球範圍內日益增長且對性能要求極高的 AI 應用服務需求。



NVLink 與 NVSwitch:實現大規模 GPU 高速互聯的脈絡


單顆 GPU 的運算能力無論如何強大,終究會遇到其物理極限與功耗牆的限制;要高效地訓練和穩定地運行現今那些最先進的、擁有數千億甚至數萬億個可調整參數的超大型 AI 模型,往往需要構建由數百顆、數千顆乃至上萬顆 GPU 組成的極大規模運算叢集;在這樣的系統規模之下,GPU 之間的資料通訊效率(包括頻寬與延遲)便成為決定整個叢集總體運算效能與擴展性的關鍵瓶頸所在;NVIDIA 的 NVLink 技術是一種專為 GPU 之間進行高速、點對點直接通訊而設計的專有互連協定,相較於傳統的、主要為 CPU 與周邊設備設計的 PCIe(Peripheral Component Interconnect Express)通道,NVLink 能夠提供高出數倍的有效資料傳輸頻寬和顯著降低的通訊延遲;而諸如 MVLink 這樣的技術,對於高效連接大量 GPU 並實現它們之間的高速資料通訊,也扮演著至關重要的角色;更進一步,為了構建更大規模、更靈活拓撲的 GPU 互連網絡,NVIDIA 還推出了 NVSwitch 晶片,它扮演著類似於傳統乙太網路中高性能網路交換機的角色,能夠將多個 NVLink 連接埠匯聚起來,並支援構建出擁有更高階、更複雜互連拓撲結構(例如全互聯的 NVLink Fabric 或多級的胖樹狀結構)的超大規模 GPU 叢集系統,從而確保資料能夠在叢集內部任意兩顆 GPU 之間,都能以極高的速率進行高效、低延遲的直接流動。



MVLink Fusion:邁向更彈性的半客製化 AI 基礎設施


為了能夠進一步滿足來自不同行業領域、不同特定應用場景對於 AI 基礎設施在性能、成本、功耗以及特定功能整合方面的多樣化與客製化需求,NVIDIA 在本次的演講中還初步揭示了一項名為 MVLink Fusion 的新技術;從其命名以及發布的初步資訊來推測,MVLink Fusion 可能是一種更具彈性與某種程度上更為開放的晶片級或板級互連框架、標準介面或參考設計;它或許允許企業級用戶或系統整合商,在其基於 NVIDIA GPU 的主流 AI 運算平台上,能夠更方便、更高效地整合來自第三方供應商的特定運算單元、專用加速器晶片,或者是針對其自身獨特工作負載進行深度客製化的 ASIC(Application-Specific Integrated Circuit)晶片,例如整合特定用途的網路處理器(DPU/IPU)、專用的儲存加速控制器,或者是來自不同架構體系的 CPU 核心等;這種走向「半客製化」AI 基礎設施的能力,將有助於業界打造出針對特定應用工作負載進行更深度優化、從而實現更高性價比或更低功耗的差異化 AI 解決方案,同時也能夠促進更為廣泛和多元化的產業生態系統合作與創新。



AI 普及化:賦能開發者與企業的全新平台架構


NVIDIA 的長遠企業願景並不僅僅是製造出世界上最強大的晶片,更重要的是要讓代表未來生產力方向的強大 AI 技術,能夠真正惠及到每一位充滿創意的開發者、每一家尋求轉型升級的企業,乃至整個社會的每一個角落,成為推動人類社會進步的普惠性力量;為此,他們持續不斷地推出一系列針對不同使用者群體、不同應用規模、不同技術背景而精心定位的 AI 硬體平台、軟體開發工具與雲端服務,其核心目標始終是致力於不斷降低 AI 技術的獲取門檻、開發難度與最終的部署使用成本。



DGX Spark 與 DGX Station:為不同規模需求打造的 AI 利器


針對廣大的 AI 原生開發者、學術研究機構的研究人員,以及那些處於初創階段、資源相對有限的小型AI團隊,NVIDIA 推出了名為 DGX Spark 的解決方案;從其描述來看,它極有可能提供了一個便捷易用、預先配置完善的個人化 AI 雲端開發環境,讓使用者無需自行採購、搭建和維護複雜昂貴的本地端硬體基礎設施,即可透過網路快速獲取到強大的 NVIDIA GPU AI 運算資源以及一系列預先配置好的主流 AI 開發工具與框架;而對於那些需要在本地端(例如個人辦公室或實驗室環境)進行高效模型開發、互動式程式碼調試以及中小型規模模型訓練任務的使用者,DGX Station 則是一款堪稱理想的「桌邊型 AI 超級電腦」;它僅需標準的辦公室牆壁插座供電,即可爆發出媲美資料中心等級的強大AI運算能力,足以在本地端流暢地運行和快速迭代各種複雜的大型 AI 模型。



RTX Pro Enterprise:企業級 AI 代理的運算核心


對於那些尋求將先進的人工智慧能力深度整合到其核心業務流程、關鍵應用系統以及專業工作流之中的大型企業級用戶,NVIDIA 則提供了專為此類需求打造的 RTX Pro Enterprise 伺服器解決方案;該系列伺服器的硬體架構(包括 GPU 配置、記憶體容量、網路介面等)與其上運行的專業級軟體堆疊(例如 NVIDIA AI Enterprise 套件),均經過了精心的設計、嚴格的測試與持續的優化,專為穩定、高效地運行企業級 AI 代理(AI Agents)應用、複雜的專業圖形渲染任務(如電影級視覺特效製作、高精度建築資訊模型 BIM 視覺化)、高擬真度工程模擬與分析(如電腦輔助設計 CAD/電腦輔助工程 CAE 分析)以及其他對運算精度、系統可靠性與數據安全性有著極其嚴苛要求的高價值工作負載而量身打造;NVIDIA 正透過從根本上重塑企業現有的運算、儲存和網路基礎設施架構,積極地將 AI 的變革性力量全面而深入地引入到傳統的企業 IT 環境之中,助力企業實現智慧化轉型與升級。



NVIDIA AI Data Platform 與 IQ:釋放企業數據潛能


在當今這個數據爆炸性增長的數位化時代,幾乎所有的企業內部都不可避免地積累了海量的、格式各異且往往缺乏有效組織的非結構化數據,例如各種類型的電子文檔、商業報告、客戶往來郵件、社交媒體上的用戶回饋、產品圖片與宣傳影片,以及來自各種IT系統與物聯網設備的運行日誌等等,這些看似雜亂無章的數據背後,實際上蘊藏著極其巨大的潛在商業價值與決策洞察;NVIDIA AI Data Platform 與其上層搭載的 IQ 智慧分析技術,旨在提供一套完整、端到端的軟體平台架構與解決方案,其核心目標是幫助企業客戶能夠更高效地收集、處理、管理和深度分析這些海量的非結構化數據,並從中快速、準確地提取出有價值的商業洞察與可執行的情報;舉例來說,企業可以透過平台提供的先進語義搜尋功能,基於自然語言提問,快速、精準地找到與特定商業主題或客戶需求相關的所有資訊,而不僅僅是依賴傳統的、基於關鍵字詞彙的簡單表面匹配;或者,企業可以利用平台預置的或自行訓練的 AI 模型,對大量的文本數據進行自動化的情感分析、主題趨勢預測、潛在風險識別或異常行為偵測,從而為企業的市場行銷、產品開發、風險控制以及戰略決策等各個環節提供強有力的數據驅動支持。



智慧機器人時代:NVIDIA Isaac 平台的完整擘劃


將人工智慧在數位世界中所展現出的強大認知、理解與決策能力,成功地賦予實體形態的機器,讓它們能夠在複雜多變、充滿不確定性的真實物理世界中實現自主感知環境、靈活導航移動、精準操作物體以及與人類和其他機器進行高效協同作業,這一直是 NVIDIA 在機器人技術領域矢志不渝的核心追求與長遠目標;而 Isaac 平台,正是 NVIDIA 為實現這一宏偉技術願景而精心打造的關鍵核心基石,它並非單一產品,而是一個涵蓋了從底層專用運算晶片、中層作業系統與軟體開發套件(SDK),到上層模擬與訓練環境的全棧式解決方案與生態系統。



Jetson Thor:驅動自主機器人的邊緣 AI 運算核心


現代自主機器人(例如倉儲物流機器人、配送無人機、農業自動化設備、陪伴型機器人等)需要在其運作的邊緣環境中,即時處理來自多個不同類型感測器(例如高解析度攝影機、光學雷達 LiDAR、慣性測量單元 IMU、觸覺感測器等)所採集到的海量、異構數據流,並且必須能夠在極短的時間內快速執行複雜的 AI 演算法(如目標偵測、場景理解、路徑規劃、運動控制等)以做出及時且準確的決策與行動;NVIDIA Jetson Thor 正是一款專為此類對即時性、可靠性與運算能力有著極高要求的高階機器人與自主機器應用所設計的高效能系統單晶片(SoC);其內部硬體架構預期將會整合強大的多核心 CPU 叢集、NVIDIA 最新一代的 GPU 架構(其中必然包含專為 AI 與機器學習任務優化的先進加速單元,如 Tensor Cores),以及其他針對機器人特定應用(如影像訊號處理 ISP、安全協處理器等)而客製化的專用處理器和高速介面,從而能夠在功耗受到嚴格限制的邊緣運算端,為機器人提供充足且可靠的即時運算能力;例如,在演講中所重點展示的 Isaac Groot 機器人通用基礎模型與平台,其核心運算單元便搭載了 Jetson Thor 電腦,並在其上運行經過優化的 Nvidia Isaac 作業系統與豐富的軟體開發堆疊。



Isaac OS 與 SDK:加速機器人應用開發的軟體基石


僅僅擁有強大的邊緣運算硬體平台,尚不足以完全應對現代機器人應用開發過程中所面臨的巨大複雜性與挑戰;NVIDIA Isaac 平台深知軟體與生態系統的重要性,因此它還提供了一整套完善的軟體工具鏈與開發資源;其中,Isaac Sim 是一個基於強大的 Omniverse 平台所構建的、功能極其豐富且能達到物理級精確度的機器人模擬環境;開發者可以在 Isaac Sim 中快速搭建出高度逼真的虛擬測試場景、導入或設計機器人的三維模型、對各種感知演算法(如基於攝影機的視覺感知、基於光達的點雲處理)進行功能驗證與性能評估、在安全的虛擬環境中反覆訓練和迭代 AI 決策與控制策略,並且能夠產生大量用於模型訓練的、帶有精確標註的合成資料,從而有效降低對昂貴真實世界數據的依賴;此外,Isaac ROS(Robot Operating System)等一系列軟體開發套件(SDK)則包含了一整套針對 NVIDIA 硬體平台進行了深度優化與預先整合的函式庫、API 介面以及實用開發工具,其功能全面涵蓋了機器人感知(例如物件偵測與追蹤、即時場景分割與理解)、導航與路徑規劃(例如同步定位與地圖構建 SLAM、動態避障)、複雜物體操縱控制(例如運動學與動力學規劃、抓取姿態估計)以及自然人機互動(例如語音指令理解、手勢辨識)等機器人應用開發過程中所必需的各個關鍵功能模組;NVIDIA 推出這些軟體工具的核心目標,旨在大幅簡化機器人應用的整體開發流程、顯著縮短產品的開發與迭代週期,並最終提升部署到真實環境中機器人應用的綜合性能、穩定性與可靠性。



AI 驅動的機器人訓練:模仿學習與強化學習的進展


傳統的機器人程式設計方式,往往需要經驗豐富的開發者為機器人的每一個細微動作、每一個可能的決策分支都編寫精確無誤的控制指令與邏輯規則,這種方式不僅極其耗時費力、成本高昂,而且所開發出的機器人系統往往缺乏對真實世界複雜性與動態不確定性的良好適應能力;為了克服這些局限,NVIDIA 正積極探索並大力推廣利用各種先進的人工智慧技術,特別是機器學習的方法,來從根本上加速機器人的學習過程並提升其技能獲取的效率與自主性;例如,可以透過模仿學習(Imitation Learning)的技術路徑,讓機器人直接觀察並學習來自人類專家的操作示範(例如示範如何抓取一個特定形狀的物體,或如何完成一系列組裝動作),從而使機器人能夠更快速地掌握特定的操作技能;或者是利用強化學習(Reinforcement Learning)的框架,特別是那些巧妙結合了人類回饋機制(Reinforcement Learning from Human Feedback, RLHF)的先進強化學習演算法,讓機器人在與高度逼真的模擬環境或經過安全設計的真實環境進行大量互動的過程中,不斷進行自主的試錯探索、累積寶貴的經驗數據,並基於預設的獎勵或懲罰訊號來持續優化其內部的行為決策策略,以期最終能夠自主地達成開發者預設的複雜目標;這些以 AI 為核心驅動的機器人訓練新範式,被普遍認為是未來提升機器人自主性、智慧水準與環境適應能力的關鍵途徑。


NVIDIA Isaac 平台組件

功能定位

深入解說

Jetson Thor SoC

機器人邊緣 AI 運算核心

專為機器人應用設計的高效能、低功耗運算單元,提供強大的即時處理能力,整合了先進的 CPU、GPU 以及專用的 AI 加速器,是未來智慧機器人的「大腦」核心。

Isaac Sim

基於 Omniverse 的機器人模擬與合成資料生成平台

提供一個物理精確、照片級真實感的虛擬模擬環境,用於機器人演算法的開發、測試、驗證與 AI 模型的訓練,能夠顯著降低在真實世界中進行測試的風險與成本,並可按需生成大量多樣化的合成訓練數據。

Isaac ROS/SDKs

機器人應用開發軟體套件,包含感知、導航、操縱等函式庫

提供一系列針對 NVIDIA 硬體平台進行了深度優化的、模組化的機器人軟體功能包與 API 介面,涵蓋了從底層硬體驅動到上層應用邏輯的完整開發鏈,旨在加速機器人應用程式的開發、整合與最終部署。

AI 訓練方法

模仿學習、強化學習,加速機器人技能獲取

透過讓機器人從人類示範中學習(模仿學習),或在與環境的互動過程中透過試錯和獎勵機制自我優化(強化學習),使其能夠更快速、更自主、更有效地掌握複雜的運動技能與決策策略,以應對日益多變的真實世界應用場景。



Omniverse 數位分身:鏡像真實世界、模擬無限未來


NVIDIA Omniverse 平台是一項極具革命性與前瞻性的技術創舉,它並非單一的軟體應用,而是一個可高度擴展的、支援即時物理模擬與全真渲染的 3D 設計協作與虛擬世界構建平台;其最引人矚目的核心理念與應用價值,在於能夠幫助各行各業的用戶創建與其真實世界中的實體資產或流程一一對應、物理精確、並且能夠實現即時數據同步的「數位分身」(Digital Twins)[01:39:45];這項技術的出現與日漸成熟,正為橫跨工業設計、工程建設、生產製造、供應鏈管理、城市規劃、氣候變遷研究乃至娛樂媒體內容創作等多個重要行業領域,帶來顛覆性的運作模式變革與前所未有的巨大發展機遇。



USD 協定:Omniverse 平台的開放標準基礎


Omniverse 平台之所以能夠實現如此強大的跨工具協作與複雜場景整合能力,其關鍵的技術基石之一,便是它原生且深度地支援由動畫巨頭皮克斯動畫工作室(Pixar Animation Studios)發明並最終開源給全行業的通用場景描述(Universal Scene Description, USD)格式與框架;USD 並非僅僅是一種傳統意義上的靜態 3D 檔案格式,它更像是一種功能強大的、專為描述、組織、組合、編輯、覆蓋、模擬和協作處理極其複雜的 3D 虛擬世界內容而精心設計的通用語言與標準化框架;USD 所具備的諸如非破壞性編輯流程、靈活的圖層疊加與覆蓋機制、高效的延遲載入(Lazy Loading)策略等先進特性,使得來自不同專業領域、由不同主流 3D 內容創作軟體工具(例如工業領域常用的 CAD 設計軟體、影視動畫製作領域的 Maya 或 3ds Max、遊戲開發引擎如 Unreal Engine 或 Unity 等)所分別創建的素材、三維模型、材質貼圖、光照設定與動畫序列等,都能夠被無縫地、非轉換地整合到 Omniverse 平台之中,從而真正實現了跨工具鏈、跨專業團隊、跨地理位置的即時協同設計、模擬與內容創作流程。



工業數位分身的應用:從設計優化到智慧製造


透過功能強大的 Omniverse 平台,各類企業可以為其核心的實體資產——例如一座正在規劃設計階段的全新智慧化工廠、一條包含數百個機器人與感測器的複雜自動化生產線、一個需要高效運轉的現代化倉儲物流中心,甚至是一座需要進行精細化管理與永續發展規劃的完整城市,或是一片需要進行生態監測與氣候變化影響評估的廣闊自然環境——創建出與其真實對應物在幾何形態、物理屬性、運動學行為乃至運作邏輯上都高度擬真、數據即時同步的數位複製品,即「工業級數位分身」;在這個安全可控、成本低廉且可無限次重複實驗的虛擬數位分身世界中,工程師與設計師團隊可以在實際投入巨資進行物理建造或改造之前,進行反覆多次的設計方案驗證、人因工程學分析、生產節拍模擬與潛在瓶頸的迭代優化;企業管理者可以模擬各種不同的生產運營情境(例如更換產品型號、調整產線佈局、應對供應鏈突發中斷等)、精準測試系統在極端條件下的響應能力、並對潛在的故障點或安全風險進行提前預測與有效規避;更具革命性的是,AI 開發者可以在這個高度逼真的虛擬環境中,安全、高效地訓練和驗證其為自主機器人或自動化設備所開發的 AI 模型(例如讓自主移動機器人 AMR 在虛擬的工廠環境中反覆學習最佳導航路徑與高效執行上下料任務),然後將經過充分驗證與優化的 AI 模型無縫地部署到真實世界中對應的實體設備上,從而大大縮短 AI 應用的開發與部署週期,並提升其在真實環境中的魯棒性與性能表現;這種基於數位分身的、數據驅動的全新設計、開發、測試、部署與營運模式,能夠顯著提升企業的整體設計研發效率、有效降低生產製造成本、大幅縮短新產品的上市時間,並最終幫助企業實現更智慧、更柔性、更具市場韌性的生產製造流程與卓越營運管理水平;黃仁勳在演講中也特別欣慰地提到,許多具有創新精神的台灣領先製造業企業,正在積極地擁抱這一代表未來的技術趨勢,率先採用 NVIDIA Omniverse 平台來探索和實現真正的軟體定義製造(Software-Defined Manufacturing)與全方位的智慧化工廠解決方案。



NVIDIA 的台灣願景:深化合作共創 AI 新局


在演說的最後環節,黃仁勳以極其顯著的篇幅和充滿真摯飽滿的情感,再次鄭重強調了台灣在全球科技產業供應鏈中所扮演的無可替代的、極其關鍵的核心樞紐地位,並藉此機會表達了 NVIDIA 公司將持續堅定地深耕台灣市場、不斷擴大與本地產業夥伴的合作廣度與深度、共同攜手開創並分享 AI 時代所帶來的無窮榮景與發展機遇的堅定承諾與美好願景。



Nvidia Constellation:深耕台灣的承諾


他隨後以一種充滿自豪與期待的語氣,向全球觀眾激動地宣布,NVIDIA 公司目前正在台灣(具體地點位於台北市士林科技園區)積極投入資源,興建一座名為「Nvidia Constellation」(輝達星座)的全新、現代化的設計中心與綜合辦公大樓;這一重要舉措,其意義絕不僅僅是 NVIDIA 公司在台灣地區有形資產投資規模的簡單擴大,其更深層次的戰略意涵在於,它清晰地象徵著 NVIDIA 熱切期望能夠與台灣本地擁有世界級競爭力且充滿創新活力的半導體製造產業(如晶圓代工、封裝測試)、IC 設計產業、伺服器與各類硬體代工製造產業、精密系統整合產業以及蓬勃發展的軟體開發與應用生態系統中的廣大優秀夥伴們,建立起更為深厚、更為廣泛、更具長遠戰略意義的緊密合作夥伴關係,共同攜手去迎接和把握即將全面到來的 AI 時代所帶來的、千載難逢的巨大歷史性發展機遇;他堅定地相信,透過這種基於互信互利、優勢互補的緊密合作夥伴關係,以及持續不斷地鼓勵和投入共同創新研發的努力,一定能夠攜手將全球運算技術的未來不斷向前推進,達到新的高峰。



結論:運算的未來已來,NVIDIA 引領 AI 變革浪潮


黃仁勳執行長在 COMPUTEX 2025 的這場精彩紛呈、內容豐富的主題演說,無疑為全球科技界以及所有關注未來發展的人們,清晰而系統地勾勒出一個由人工智慧技術全面滲透並深度驅動、軟體創新與硬體架構實現前所未有之緊密融合、虛擬數位世界與真實物理現實之間達成無縫互動與高效協同的全新運算未來宏偉藍圖;從其提出的、旨在從根本上重塑現代資料中心運作模式與生產力邊界的「AI 工廠」革命性理念,到致力於將強大AI智慧賦予實體機器人、使其能夠在複雜環境中自主作業的 Isaac 機器人平台,再到專注於精確鏡像紛繁複雜的真實世界、並在其中進行無限模擬與優化探索的 Omniverse 數位分身技術,NVIDIA 公司正憑藉其在加速運算領域長達數十年如一日的深厚技術積累與持續迭代創新、對人工智慧未來發展方向與核心瓶頸的精準洞察與前瞻佈局,以及在複雜系統級平台架構設計上所展現出的卓越工程能力與生態構建魄力,當之無愧地站在了這場席捲全球、並將對人類社會各個層面產生深遠影響的科技變革浪潮之巔,引領著整個產業的發展方向;而正如黃仁勳在演說中所充滿自信地指出的那樣,這一切令人振奮的進展與成就,都還僅僅是一個更加宏偉壯麗新時代的序章與開端。


您對於 NVIDIA 公司所擘劃的這個波瀾壯闊的 AI 新紀元,有著怎樣的獨到看法與深刻思考呢?在黃仁勳執行長本次演講中所重點介紹的眾多令人眼花繚亂的先進技術與宏大願景之中,哪一項最讓您感到由衷的興奮與期待,或者說,您認為哪一項技術最具有潛在的、能夠引發行業顛覆性影響的巨大能力?

Subscribe to AmiNext Newsletter

Thanks for submitting!

  • LinkedIn
  • Facebook

© 2024 by AmiNext 金融與科技筆記

bottom of page