橫跨 NVIDIA Vera CPU、Rubin GPU、NVLink 6 交換器、ConnectX-9 SuperNIC、BlueField-4 DPU 與 Spectrum-6 乙太網路交換器的極致協同設計,可大幅縮短訓練時間並降低推論詞元生成成本
NVIDIA 今日發布 NVIDIA Rubin 平台,開啟新一代人工智慧(AI)時代,該平台包含六款全新晶片,並可用於打造一台出色的 AI 超級電腦。 NVIDIA Rubin 為建置、部署和防護全球規模最大、技術最先進的 AI 系統樹立新標竿,同時以最低成本加速主流 AI 的普及運用。
Rubin 平台的六款晶片採用極致協同設計,包含NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink™ 6 交換器、NVIDIA ConnectX®-9 SuperNIC、NVIDIA BlueField®-4 DPU 與 NVIDIA Spectrum™-6 乙太網路交換器,可大幅縮短訓練時間並降低推論詞元(token)成本。
NVIDIA 創辦人暨執行長黃仁勳表示:「Rubin 的問世恰逢其時,因為 AI 運算對訓練與推論的需求正呈現爆炸性成長。憑藉我們每年推出新一代 AI 超級電腦的節奏,以及橫跨六款全新晶片的極致協同設計,Rubin 正朝 AI 的下一個前沿邁出重大躍進。」
Rubin 平台以美國天文學先驅 Vera Florence Cooper Rubin 命名,其發現改變了人類對宇宙的理解。Rubin 平台包括 NVIDIA Vera Rubin NVL72 機架級解決方案與 NVIDIA HGX Rubin NVL8 系統。
Rubin 平台導入五項創新技術,包括最新一代的 NVIDIA NVLink 互連技術、Transformer Engine、機密運算與 RAS Engine,以及 NVIDIA Vera CPU。這些突破將加速代理型 AI、先進推理與大規模混合專家(MoE)模型推論,而每個詞元的成本相較 NVIDIA Blackwell 平台降低高達 10 倍。與前代產品相比,NVIDIA Rubin 平台使用減少 4 倍的 GPU 數量即可訓練混合專家模型,以加速 AI 應用。
廣泛的生態系支援
預計將採用 Rubin 的全球頂尖 AI 實驗室、雲端服務供應商、電腦製造商與新創公司包括 Amazon Web Services(AWS)、Anthropic、Black Forest Labs、思科、Cohere、CoreWeave、Cursor、戴爾科技集團、Google、Harvey、慧與科技、Lambda、聯想集團、Meta、微軟、Mistral AI、Nebius、Nscale、OpenAI、OpenEvidence、Oracle Cloud Infrastructure(OCI)、Perplexity、Runway、Supermicro、Thinking Machines Lab 與 xAI。
OpenAI 執行長 Sam Altman 表示:「智慧隨運算能力而擴展。只要我們增加運算資源,模型就會變得更強大、可以解決更棘手的問題,並為人類創造更大的價值。NVIDIA Rubin 平台協助我們持續推進此進程,讓先進的智慧造福所有人。」
Anthropic 共同創辦人暨執行長 Dario Amodei 表示:「NVIDIA Rubin 平台的效率提升,正是實現更長記憶體、更佳推理能力及更可靠輸出所需的基礎設施突破。我們與 NVIDIA 的合作有助於推動安全研究與尖端模型的發展。」
Meta 創辦人暨執行長 Mark Zuckerberg 表示:「NVIDIA 的 Rubin 平台承諾將帶來效能和效率的飛躍性提升,這正是為數十億人部署最先進模型所需的必要關鍵。」
xAI 創辦人暨執行長 Elon Musk 表示:「 NVIDIA Rubin 將成為 AI 的火箭引擎。如果想要大規模訓練並部署尖端模型,這便是必備的基礎設施,而 Rubin 將再次向世界證明 NVIDIA 是黃金標準。 」
微軟執行長 Satya Nadella 表示:「我們正在打造全球最強大的 AI 超級工廠,以最高效能與效率支援任何工作負載、任何地點的運算需求。透過 NVIDIA Vera Rubin GPU 的加入,我們將賦予開發人員與組織以全新方式進行創作、推理與擴展。」
CoreWeave 共同創辦人暨執行長 Mike Intrator 表示:「我們創立 CoreWeave 的初衷,是透過專為 AI 打造的平台及其無可比擬的效能,協助先驅加速創新,並隨著工作負載的演進,為其搭配最合適的技術。NVIDIA Rubin 平台代表了推理、代理型與大規模推論工作負載方面的重要躍進,我們也非常期待將其納入我們的平台。以 CoreWeave Mission Control 作為營運標準,我們可與 NVIDIA 密切合作,快速整合新功能,並在生產規模上穩定執行。」
AWS 執行長 Matt Garman 表示:「AWS 與 NVIDIA 攜手推動雲端 AI 創新已逾 15 年。在AWS 上部署的 NVIDIA Rubin 平台,代表了我們持續致力於提供尖端 AI 基礎設施,為客戶帶來無與倫比的選擇與靈活性。透過結合 NVIDIA 先進的 AI 技術與 AWS 成熟的規模、安全性與全面的 AI 服務,客戶可以更快且更具成本效益地打造、訓練及部署需求量最高的 AI 應用,以加速從實驗到任何規模生產的進程。」
Google 與 Alphabet 執行長 Sundar Pichai 表示:「我們對於與 NVIDIA 長期建立的深厚合作關係感到自豪。為了滿足客戶對 NVIDIA GPU 的龐大需求,我們致力於在 Google Cloud 上為其硬體提供最佳運行環境。我們會繼續合作,將 Rubin 平台的卓越能利帶給客戶,提供突破 AI 發展邊界所需的規模和效能。」
Oracle 執行長 Clay Magouyrk 表示:「Oracle Cloud Infrastructure(OCI)是專為最高效能而設計的超大規模雲端平台,透過與 NVIDIA 攜手合作,我們正突破客戶利用 AI 進行建構及擴充的極限。憑藉 NVIDIA Vera Rubin 架構驅動的超大規模(gigascale)AI 工廠,OCI 正在為客戶提供突破模型訓練、推論與現實世界 AI 影響力極限所需的基礎設施。」
戴爾科技集團董事長暨執行長 Michael Dell 表示:「NVIDIA Rubin 平台代表著 AI 基礎設施的重大躍進。透過將 Rubin整合至 Dell AI Factory with NVIDIA,我們正在打造可處理大量詞元與多步驟推理的基礎設施,同時提供企業與新型態雲端大規模部署 AI 所需的效能與韌性。」
慧與科技總裁暨執行長 Antonio Neri 表示:「AI 不僅重塑了工作負載,也正在改變 IT 的根本基礎,使我們必須重新構思從網路到運算的每一層基礎架構。HPE 正利用 NVIDIA Vera Rubin 平台打造新一代安全的 AI 原生基礎架構,將資料轉化為智慧,助力企業蛻變為真正的 AI 工廠。」
聯想集團董事長暨執行長楊元慶表示:「聯想集團正擁抱新一代 NVIDIA Rubin 平台,結合我們的 Neptune 液體冷卻解決方案,以及全球規模、製造效率與服務覆蓋範圍,協助企業打造 AI 工廠,作為提供洞察與創新的智慧加速引擎。我們正共同打造 AI 驅動的未來,讓高效安全的 AI 成為每個組織的標準。」
為擴展智慧而生
代理型 AI 與推理模型,以及尖端影片生成工作負載,正在重新定義運算的極限。多步驟問題解決要求模型能夠處理、推理並針對長序列的詞元間進行操作。為滿足複雜 AI 工作負載需求而設計的 Rubin 平台,具備五項突破性技術:
第六代 NVIDIA NVLink:提供當今大規模混合專家模型所需快速且無縫的 GPU 對 GPU 通訊。 每顆 GPU 可提供每秒 3.6TB 的頻寬,而 Vera Rubin NVL72 機架可提供每秒 260TB 的頻寬,超越整個網際網路的總頻寬。NVIDIA NVLink 6 交換器內建的網路內運算功能以加速集體運作,並具備強化的可維護性與韌性,可大規模實現更快速、更高效的 AI 訓練與推論。
NVIDIA Vera CPU:NVIDIA Vera 專為代理型推理而設計,是大型 AI 工廠最為節能的 CPU。 此NVIDIA CPU 搭載 88 個 NVIDIA 客製化的 Olympus 核心,完全相容於 Armv9.2,並提供超快速的 NVLink-C2C 連線能力。 Vera 提供卓越的效能、頻寬與業界領先的效率,可支援全方位的現代資料中心工作負載。
NVIDIA Rubin GPU:Rubin GPU 採用第三代 Transformer 引擎與硬體加速自適應壓縮技術,可為 AI 推論提供 50 petaflops 的 NVFP4 運算能力。
第三代 NVIDIA 機密運算:Vera Rubin NVL72 是首款支援 NVIDIA 機密運算的機架級平台,能夠在 CPU、GPU 與 NVLink 網域間維護資料安全,為全球最大型的專有模型、訓練與推論工作負載提供防護。
第二代 RAS 引擎:Rubin 平台橫跨 GPU、CPU 與 NVLink,具備即時健康檢測、容錯機制與主動維護功能,可將系統生產力發揮到極致。機架採用模組化無纜線托盤設計,組裝與維修效率較 Blackwell 提升高達 18 倍。
AI 原生儲存與安全的軟體定義基礎設施
NVIDIA Rubin 推出NVIDIA 推論情境記憶儲存平台(NVIDIA Inference Context Memory Storage Platform),這款新一代 AI 原生儲存基礎設施,以千兆級規模擴展推論情境。
該平台採用 NVIDIA BlueField-4,可在 AI 基礎設施之間高效共享與重複使用鍵值快取資料,提升回應能力與輸送量,同時實現代理型 AI 可預測且節能的擴充。
隨著 AI 工廠愈加採用裸機與多租戶部署模型,保持強大的基礎設施控制與隔離變得至關重要。
BlueField-4 也引進先進安全可信任資源架構(Advanced Secure Trusted Resource Architecture,ASTRA),這是一種系統級信任架構,可為 AI 基礎設施建構商提供單一且受信任的控制點,在不影響效能的情況下,安全地佈建、隔離及營運大規模 AI 環境。
隨著 AI 應用向多回合代理推理演進,AI 原生組織必須跨使用者、工作階段與服務,管理及分享大量推論情境。
適用於不同工作負載的不同配置形式
NVIDIA Vera Rubin NVL72 提供整合了 72 個 NVIDIA Rubin GPU、36 個 NVIDIA Vera CPU、NVIDIA NVLink 6、NVIDIA ConnectX-9 SuperNIC 與 NVIDIA BlueField-4 DPU 的安全統一系統。
NVIDIA 也將提供 NVIDIA HGX Rubin NVL8 平台,這款伺服器主機板可透過 NVLink 連接八個 Rubin GPU,以支援 x86 架構的生成式 AI 平台。HGX Rubin NVL8 平台可加速 AI 與高效能運算工作負載的訓練、推論與科學運算。
NVIDIA DGX SuperPOD™ 可作為大規模部署 Rubin 系統的參考,將 NVIDIA DGX Vera Rubin NVL72 或 DGX Rubin NVL8 系統與 NVIDIA BlueField-4 DPU、NVIDIA ConnectX-9 SuperNIC、NVIDIA InfiniBand 網路與 NVIDIA Mission Control™ 軟體整合。
下一代乙太網路網路技術
先進的乙太網路與儲存是 AI 基礎設施的元件,對於維持資料中心全速運作、提升效能與效率,以及降低成本至關重要。
NVIDIA Spectrum-6 乙太網路是新一代的 AI 網路乙太網路,以更高的效率與更強的韌性擴展 Rubin AI 工廠,並由 200G SerDes 通訊電路、共同封裝光學元件與 AI 最佳化網狀架構支援。
Spectrum-X 乙太網路光子學共同封裝光學交換器系統以 Spectrum-6 架構為基礎,相較於傳統方法,可為 AI 應用提供 10 倍的可靠性,並將上線時間延長 5 倍,同時將能源效率提升 5 倍,將每瓦效能提升至最高。Spectrum-XGS 乙太網路技術為 Spectrum-X 乙太網路平台的一部分,可讓相隔數百公里或以上的設施作為單一 AI 環境運作。
這些創新技術共同定義了新一代 NVIDIA Spectrum-X 乙太網路平台,採用 Rubin 的極致協同設計,可支援大規模 AI 工廠,為未來百萬台 GPU 環境奠定基礎。
Rubin 就緒
NVIDIA Rubin 已全面投產,基於 Rubin 的產品將在 2026 年下半年由合作夥伴發售。
2026 年首批部署 Vera Rubin 執行個體的雲端供應商將包括 AWS、Google Cloud、微軟與 OCI,以及 NVIDIA 雲端合作夥伴 CoreWeave、Lambda、Nebius 與 Nscale。
微軟將部署 NVIDIA Vera Rubin NVL72 機架級系統,作為新一代 AI 資料中心的一環,包括未來的 Fairwater AI 超級工廠場地。
Rubin 平台以為訓練與推論工作負載提供前所未有的效率與效能而設計,將為微軟的新一代雲端 AI 功能打下根基。Microsoft Azure 將提供高度最佳化的平台,讓客戶加速企業、研究與消費類應用的創新。
CoreWeave 從 2026 年下半年起將 NVIDIA Rubin 系統整合至其 AI 雲端平台。CoreWeave 可並行執行多個架構,讓客戶將 Rubin 引進其環境,使訓練、推論與代理型工作負載發揮最大影響力。
CoreWeave 將與 NVIDIA 攜手協助 AI 先驅利用 Rubin 在推理與混合專家模型的先進技術,同時利用 CoreWeave Mission Control 在整個生命週期持續提供生產 AI 所需的效能、營運可靠性與規模。
此外,思科、戴爾科技集團、慧與科技、聯想集團與Supermicro預計將提供基於 Rubin 產品的多種伺服器。
包括 Anthropic、Black Forest、Cohere、Cursor、Harvey、Meta、Mistral AI、OpenAI、OpenEvidence、Perplexity、Runway、Thinking Machines Lab 與 xAI 在內的 AI 實驗室正仰賴 NVIDIA Rubin 平台訓練更大、更強大的模型,並以比前幾代 GPU 更低的延遲與成本提供長情境、多模態系統服務。
基礎設施軟體與儲存合作夥伴 AIC、Canonical、Cloudian、DDN、戴爾科技集團、慧與科技、Hitachi Vantara、IBM、NetApp、Nutanix、Pure Storage、Supermicro、SUSE、VAST Data 與 WEKA 正與 NVIDIA 合作,為 Rubin 基礎設施設計新一代平台。
Rubin 平台標誌著 NVIDIA 的第三代機架級架構,擁有 80 多家 NVIDIA MGX™ 生態系統合作夥伴。
為了釋放這種密度優勢,Red Hat 今天宣布擴大與 NVIDIA 的合作,提供針對 NVIDIA Rubin 平台最佳化的完整 AI 堆疊,搭配 Red Hat 混合式雲端產品組合,包括 Red Hat Enterprise Linux、Red Hat OpenShift 與 Red Hat AI。 這些解決方案已應用於絕大多數《財星》世界 500 強企業。
- 與 NVIDIA Blackwell 平台相比,Rubin 平台利用軟硬體的極致協同設計,可將推論詞元成本降低 10 倍,並將訓練混合專家模型所需的 GPU 數量減少 4 倍。
- NVIDIA Spectrum-X 乙太網路光子學交換器系統將能源效率與正常運作時間提升 5 倍。
- 採用 NVIDIA BlueField-4 儲存處理器的全新 NVIDIA 推論情境記憶儲存平台,可加速代理型 AI 推理。
- 微軟的新一代 Fairwater AI 超級工廠採用 NVIDIA Vera Rubin NVL72 機架級系統,將擴充至數十萬個 NVIDIA Vera Rubin 超級晶片。
- CoreWeave 率先提供 NVIDIA Rubin 服務,透過 CoreWeave Mission Control 運作,可提供彈性與效能。
- 擴大與 Red Hat 的合作,提供針對 Rubin 平台最佳化的完整 AI 堆疊,包括 Red Hat Enterprise Linux、Red Hat OpenShift 與 Red Hat AI。
NVIDIA 今日發布 NVIDIA Rubin 平台,開啟新一代人工智慧(AI)時代,該平台包含六款全新晶片,並可用於打造一台出色的 AI 超級電腦。 NVIDIA Rubin 為建置、部署和防護全球規模最大、技術最先進的 AI 系統樹立新標竿,同時以最低成本加速主流 AI 的普及運用。
Rubin 平台的六款晶片採用極致協同設計,包含NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink™ 6 交換器、NVIDIA ConnectX®-9 SuperNIC、NVIDIA BlueField®-4 DPU 與 NVIDIA Spectrum™-6 乙太網路交換器,可大幅縮短訓練時間並降低推論詞元(token)成本。
NVIDIA 創辦人暨執行長黃仁勳表示:「Rubin 的問世恰逢其時,因為 AI 運算對訓練與推論的需求正呈現爆炸性成長。憑藉我們每年推出新一代 AI 超級電腦的節奏,以及橫跨六款全新晶片的極致協同設計,Rubin 正朝 AI 的下一個前沿邁出重大躍進。」
Rubin 平台以美國天文學先驅 Vera Florence Cooper Rubin 命名,其發現改變了人類對宇宙的理解。Rubin 平台包括 NVIDIA Vera Rubin NVL72 機架級解決方案與 NVIDIA HGX Rubin NVL8 系統。
Rubin 平台導入五項創新技術,包括最新一代的 NVIDIA NVLink 互連技術、Transformer Engine、機密運算與 RAS Engine,以及 NVIDIA Vera CPU。這些突破將加速代理型 AI、先進推理與大規模混合專家(MoE)模型推論,而每個詞元的成本相較 NVIDIA Blackwell 平台降低高達 10 倍。與前代產品相比,NVIDIA Rubin 平台使用減少 4 倍的 GPU 數量即可訓練混合專家模型,以加速 AI 應用。
廣泛的生態系支援
預計將採用 Rubin 的全球頂尖 AI 實驗室、雲端服務供應商、電腦製造商與新創公司包括 Amazon Web Services(AWS)、Anthropic、Black Forest Labs、思科、Cohere、CoreWeave、Cursor、戴爾科技集團、Google、Harvey、慧與科技、Lambda、聯想集團、Meta、微軟、Mistral AI、Nebius、Nscale、OpenAI、OpenEvidence、Oracle Cloud Infrastructure(OCI)、Perplexity、Runway、Supermicro、Thinking Machines Lab 與 xAI。
OpenAI 執行長 Sam Altman 表示:「智慧隨運算能力而擴展。只要我們增加運算資源,模型就會變得更強大、可以解決更棘手的問題,並為人類創造更大的價值。NVIDIA Rubin 平台協助我們持續推進此進程,讓先進的智慧造福所有人。」
Anthropic 共同創辦人暨執行長 Dario Amodei 表示:「NVIDIA Rubin 平台的效率提升,正是實現更長記憶體、更佳推理能力及更可靠輸出所需的基礎設施突破。我們與 NVIDIA 的合作有助於推動安全研究與尖端模型的發展。」
Meta 創辦人暨執行長 Mark Zuckerberg 表示:「NVIDIA 的 Rubin 平台承諾將帶來效能和效率的飛躍性提升,這正是為數十億人部署最先進模型所需的必要關鍵。」
xAI 創辦人暨執行長 Elon Musk 表示:「 NVIDIA Rubin 將成為 AI 的火箭引擎。如果想要大規模訓練並部署尖端模型,這便是必備的基礎設施,而 Rubin 將再次向世界證明 NVIDIA 是黃金標準。 」
微軟執行長 Satya Nadella 表示:「我們正在打造全球最強大的 AI 超級工廠,以最高效能與效率支援任何工作負載、任何地點的運算需求。透過 NVIDIA Vera Rubin GPU 的加入,我們將賦予開發人員與組織以全新方式進行創作、推理與擴展。」
CoreWeave 共同創辦人暨執行長 Mike Intrator 表示:「我們創立 CoreWeave 的初衷,是透過專為 AI 打造的平台及其無可比擬的效能,協助先驅加速創新,並隨著工作負載的演進,為其搭配最合適的技術。NVIDIA Rubin 平台代表了推理、代理型與大規模推論工作負載方面的重要躍進,我們也非常期待將其納入我們的平台。以 CoreWeave Mission Control 作為營運標準,我們可與 NVIDIA 密切合作,快速整合新功能,並在生產規模上穩定執行。」
AWS 執行長 Matt Garman 表示:「AWS 與 NVIDIA 攜手推動雲端 AI 創新已逾 15 年。在AWS 上部署的 NVIDIA Rubin 平台,代表了我們持續致力於提供尖端 AI 基礎設施,為客戶帶來無與倫比的選擇與靈活性。透過結合 NVIDIA 先進的 AI 技術與 AWS 成熟的規模、安全性與全面的 AI 服務,客戶可以更快且更具成本效益地打造、訓練及部署需求量最高的 AI 應用,以加速從實驗到任何規模生產的進程。」
Google 與 Alphabet 執行長 Sundar Pichai 表示:「我們對於與 NVIDIA 長期建立的深厚合作關係感到自豪。為了滿足客戶對 NVIDIA GPU 的龐大需求,我們致力於在 Google Cloud 上為其硬體提供最佳運行環境。我們會繼續合作,將 Rubin 平台的卓越能利帶給客戶,提供突破 AI 發展邊界所需的規模和效能。」
Oracle 執行長 Clay Magouyrk 表示:「Oracle Cloud Infrastructure(OCI)是專為最高效能而設計的超大規模雲端平台,透過與 NVIDIA 攜手合作,我們正突破客戶利用 AI 進行建構及擴充的極限。憑藉 NVIDIA Vera Rubin 架構驅動的超大規模(gigascale)AI 工廠,OCI 正在為客戶提供突破模型訓練、推論與現實世界 AI 影響力極限所需的基礎設施。」
戴爾科技集團董事長暨執行長 Michael Dell 表示:「NVIDIA Rubin 平台代表著 AI 基礎設施的重大躍進。透過將 Rubin整合至 Dell AI Factory with NVIDIA,我們正在打造可處理大量詞元與多步驟推理的基礎設施,同時提供企業與新型態雲端大規模部署 AI 所需的效能與韌性。」
慧與科技總裁暨執行長 Antonio Neri 表示:「AI 不僅重塑了工作負載,也正在改變 IT 的根本基礎,使我們必須重新構思從網路到運算的每一層基礎架構。HPE 正利用 NVIDIA Vera Rubin 平台打造新一代安全的 AI 原生基礎架構,將資料轉化為智慧,助力企業蛻變為真正的 AI 工廠。」
聯想集團董事長暨執行長楊元慶表示:「聯想集團正擁抱新一代 NVIDIA Rubin 平台,結合我們的 Neptune 液體冷卻解決方案,以及全球規模、製造效率與服務覆蓋範圍,協助企業打造 AI 工廠,作為提供洞察與創新的智慧加速引擎。我們正共同打造 AI 驅動的未來,讓高效安全的 AI 成為每個組織的標準。」
為擴展智慧而生
代理型 AI 與推理模型,以及尖端影片生成工作負載,正在重新定義運算的極限。多步驟問題解決要求模型能夠處理、推理並針對長序列的詞元間進行操作。為滿足複雜 AI 工作負載需求而設計的 Rubin 平台,具備五項突破性技術:
第六代 NVIDIA NVLink:提供當今大規模混合專家模型所需快速且無縫的 GPU 對 GPU 通訊。 每顆 GPU 可提供每秒 3.6TB 的頻寬,而 Vera Rubin NVL72 機架可提供每秒 260TB 的頻寬,超越整個網際網路的總頻寬。NVIDIA NVLink 6 交換器內建的網路內運算功能以加速集體運作,並具備強化的可維護性與韌性,可大規模實現更快速、更高效的 AI 訓練與推論。
NVIDIA Vera CPU:NVIDIA Vera 專為代理型推理而設計,是大型 AI 工廠最為節能的 CPU。 此NVIDIA CPU 搭載 88 個 NVIDIA 客製化的 Olympus 核心,完全相容於 Armv9.2,並提供超快速的 NVLink-C2C 連線能力。 Vera 提供卓越的效能、頻寬與業界領先的效率,可支援全方位的現代資料中心工作負載。
NVIDIA Rubin GPU:Rubin GPU 採用第三代 Transformer 引擎與硬體加速自適應壓縮技術,可為 AI 推論提供 50 petaflops 的 NVFP4 運算能力。
第三代 NVIDIA 機密運算:Vera Rubin NVL72 是首款支援 NVIDIA 機密運算的機架級平台,能夠在 CPU、GPU 與 NVLink 網域間維護資料安全,為全球最大型的專有模型、訓練與推論工作負載提供防護。
第二代 RAS 引擎:Rubin 平台橫跨 GPU、CPU 與 NVLink,具備即時健康檢測、容錯機制與主動維護功能,可將系統生產力發揮到極致。機架採用模組化無纜線托盤設計,組裝與維修效率較 Blackwell 提升高達 18 倍。
AI 原生儲存與安全的軟體定義基礎設施
NVIDIA Rubin 推出NVIDIA 推論情境記憶儲存平台(NVIDIA Inference Context Memory Storage Platform),這款新一代 AI 原生儲存基礎設施,以千兆級規模擴展推論情境。
該平台採用 NVIDIA BlueField-4,可在 AI 基礎設施之間高效共享與重複使用鍵值快取資料,提升回應能力與輸送量,同時實現代理型 AI 可預測且節能的擴充。
隨著 AI 工廠愈加採用裸機與多租戶部署模型,保持強大的基礎設施控制與隔離變得至關重要。
BlueField-4 也引進先進安全可信任資源架構(Advanced Secure Trusted Resource Architecture,ASTRA),這是一種系統級信任架構,可為 AI 基礎設施建構商提供單一且受信任的控制點,在不影響效能的情況下,安全地佈建、隔離及營運大規模 AI 環境。
隨著 AI 應用向多回合代理推理演進,AI 原生組織必須跨使用者、工作階段與服務,管理及分享大量推論情境。
適用於不同工作負載的不同配置形式
NVIDIA Vera Rubin NVL72 提供整合了 72 個 NVIDIA Rubin GPU、36 個 NVIDIA Vera CPU、NVIDIA NVLink 6、NVIDIA ConnectX-9 SuperNIC 與 NVIDIA BlueField-4 DPU 的安全統一系統。
NVIDIA 也將提供 NVIDIA HGX Rubin NVL8 平台,這款伺服器主機板可透過 NVLink 連接八個 Rubin GPU,以支援 x86 架構的生成式 AI 平台。HGX Rubin NVL8 平台可加速 AI 與高效能運算工作負載的訓練、推論與科學運算。
NVIDIA DGX SuperPOD™ 可作為大規模部署 Rubin 系統的參考,將 NVIDIA DGX Vera Rubin NVL72 或 DGX Rubin NVL8 系統與 NVIDIA BlueField-4 DPU、NVIDIA ConnectX-9 SuperNIC、NVIDIA InfiniBand 網路與 NVIDIA Mission Control™ 軟體整合。
下一代乙太網路網路技術
先進的乙太網路與儲存是 AI 基礎設施的元件,對於維持資料中心全速運作、提升效能與效率,以及降低成本至關重要。
NVIDIA Spectrum-6 乙太網路是新一代的 AI 網路乙太網路,以更高的效率與更強的韌性擴展 Rubin AI 工廠,並由 200G SerDes 通訊電路、共同封裝光學元件與 AI 最佳化網狀架構支援。
Spectrum-X 乙太網路光子學共同封裝光學交換器系統以 Spectrum-6 架構為基礎,相較於傳統方法,可為 AI 應用提供 10 倍的可靠性,並將上線時間延長 5 倍,同時將能源效率提升 5 倍,將每瓦效能提升至最高。Spectrum-XGS 乙太網路技術為 Spectrum-X 乙太網路平台的一部分,可讓相隔數百公里或以上的設施作為單一 AI 環境運作。
這些創新技術共同定義了新一代 NVIDIA Spectrum-X 乙太網路平台,採用 Rubin 的極致協同設計,可支援大規模 AI 工廠,為未來百萬台 GPU 環境奠定基礎。
Rubin 就緒
NVIDIA Rubin 已全面投產,基於 Rubin 的產品將在 2026 年下半年由合作夥伴發售。
2026 年首批部署 Vera Rubin 執行個體的雲端供應商將包括 AWS、Google Cloud、微軟與 OCI,以及 NVIDIA 雲端合作夥伴 CoreWeave、Lambda、Nebius 與 Nscale。
微軟將部署 NVIDIA Vera Rubin NVL72 機架級系統,作為新一代 AI 資料中心的一環,包括未來的 Fairwater AI 超級工廠場地。
Rubin 平台以為訓練與推論工作負載提供前所未有的效率與效能而設計,將為微軟的新一代雲端 AI 功能打下根基。Microsoft Azure 將提供高度最佳化的平台,讓客戶加速企業、研究與消費類應用的創新。
CoreWeave 從 2026 年下半年起將 NVIDIA Rubin 系統整合至其 AI 雲端平台。CoreWeave 可並行執行多個架構,讓客戶將 Rubin 引進其環境,使訓練、推論與代理型工作負載發揮最大影響力。
CoreWeave 將與 NVIDIA 攜手協助 AI 先驅利用 Rubin 在推理與混合專家模型的先進技術,同時利用 CoreWeave Mission Control 在整個生命週期持續提供生產 AI 所需的效能、營運可靠性與規模。
此外,思科、戴爾科技集團、慧與科技、聯想集團與Supermicro預計將提供基於 Rubin 產品的多種伺服器。
包括 Anthropic、Black Forest、Cohere、Cursor、Harvey、Meta、Mistral AI、OpenAI、OpenEvidence、Perplexity、Runway、Thinking Machines Lab 與 xAI 在內的 AI 實驗室正仰賴 NVIDIA Rubin 平台訓練更大、更強大的模型,並以比前幾代 GPU 更低的延遲與成本提供長情境、多模態系統服務。
基礎設施軟體與儲存合作夥伴 AIC、Canonical、Cloudian、DDN、戴爾科技集團、慧與科技、Hitachi Vantara、IBM、NetApp、Nutanix、Pure Storage、Supermicro、SUSE、VAST Data 與 WEKA 正與 NVIDIA 合作,為 Rubin 基礎設施設計新一代平台。
Rubin 平台標誌著 NVIDIA 的第三代機架級架構,擁有 80 多家 NVIDIA MGX™ 生態系統合作夥伴。
為了釋放這種密度優勢,Red Hat 今天宣布擴大與 NVIDIA 的合作,提供針對 NVIDIA Rubin 平台最佳化的完整 AI 堆疊,搭配 Red Hat 混合式雲端產品組合,包括 Red Hat Enterprise Linux、Red Hat OpenShift 與 Red Hat AI。 這些解決方案已應用於絕大多數《財星》世界 500 強企業。
