ComfyUI、LTX-2、Llama.cpp、Ollama、Hyperlink 等多項工具迎來全面 RTX 加速,解鎖 AI PC 上的影片、影像與文字生成應用
2025 年是 PC 端 AI 開發的突破之年。PC 等級的小型語言模型(SLM)準確度相較 2024 年幾乎提升近 2 倍,大幅縮小與雲端前沿大型語言模型(LLM)之間的差距。
同時,Ollama、ComfyUI、llama.cpp、Unsloth 等 AI PC 開發者工具日趨成熟,年成長率翻倍;下載 PC 等級模型的使用者數量,也較 2024 年成長 10 倍。上述進展正推動生成式 AI 在 2026 年全面走向日常 PC 創作者、遊戲玩家與專業工作者。
在本週 CES 展會上,NVIDIA 宣布為 GeForce RTX、NVIDIA RTX PRO 與 NVIDIA DGX Spark 推出一系列 AI 升級,為開發者在 PC 上部署生成式 AI 提供所需的效能與記憶體資源,包括:
- 透過 PyTorch-CUDA 最佳化,以及 ComfyUI 原生支援 NVFP4/FP8 精度,影片與影像生成效能最高提升 3 倍,VRAM 使用量降低 60%
- RTX 影像超解析度整合至 ComfyUI,加速 4K 影片生成
- 針對 Lightricks 最尖端的 LTX-2 聲音與影像生成模型開源版,提供最佳化NVIDIA NVFP8
- 一套全新影片生成流程,透過 Blender 3D 場景,精準控制輸出並生成 4K AI 影片
- 透過 Ollama 與 llama.cpp,將 SLM 推論效能提升最高 35%
- 為 Nexa.ai 的 Hyperlink 新一代影片搜尋功能提供 RTX 加速
在 RTX PC 上實現 3 倍加速的4K AI 影片生成
生成式 AI 能製作出令人驚艷的影片內容,但僅靠文字提示的線上工具往往難以精準控制生成內容;嘗試生成 4K 影片更是幾乎不可能,因為多數模型過於龐大,難以放入 PC 的 VRAM。
1月6日,NVIDIA 推出 RTX 加速的影片生成流程,讓創作者在使用極少 VRAM 的情況下,不僅能更精準掌控生成結果,還能以 3 倍速度生成影片並將提升至 4K 解析度。
此流程讓新銳創作者可先建立分鏡腳本,再生成擬真關鍵畫格,最終輸出高品質 4K 影片。整體分為三個可自由搭配、依需求調整的模組:
- 3D 物件生成器:用於建立場景所需的資產
- 3D 引導影像生成器:讓使用者在 Blender 中設定場景,並生成擬真關鍵畫格
- 影片生成器:依據使用者設定的起始與結束關鍵畫格進行動畫生成,並透過 NVIDIA RTX Video 技術將影片升級至 4K
作為本地 AI 影片創作的重要里程碑,LTX-2 的生成效果可與頂尖的雲端模型並駕齊驅,能生成長達 20 秒且具備出色視覺擬真度的 4K 影片。該模型內建音訊支援、多關鍵畫格能力,以及進階的條件控制功能,並透過可控式低秩適配(LoRA)強化,讓創作者在不依賴雲端的情況下,也能達到電影級的品質與控制力。
在底層技術上,這套流程由 ComfyUI 驅動。過去數月,NVIDIA 與 ComfyUI 團隊密切合作,在 NVIDIA 顯示卡上將效能最佳化 40%;最新版本新增支援 NVFP4 與 NVFP8。在 RTX 50 系列顯示卡上採用 NVFP4 格式時,可讓效能提升 3 倍、VRAM 使用量降低 60%;採用 NVFP8 時,則可提升 2 倍效能、VRAM 降低 40%。
目前,NVFP4 與 NVFP8 Checkpoint 現已在 ComfyUI 中直接開放給多款頂尖模型,包括 Lightricks 的 LTX-2、Black Forest Labs 的 FLUX.1 與 FLUX.2,以及阿里巴巴的 Qwen-Image 與 Z-Image。使用者可直接在 ComfyUI 下載,後續也將陸續支援更多模型。
影片片段生成後,使用者可透過 ComfyUI 全新的 RTX Video 節點,在數秒內將影片升級至 4K。此影像放大(Upscaler)功能可即時運作,銳化畫面邊緣並消除壓縮雜訊,輸出清晰的畫面。RTX Video 將於下個月正式於 ComfyUI 中開放。
為協助使用者突破顯示卡的記憶體限制,NVIDIA 也與 ComfyUI 合作強化其記憶體卸載功能(weight streaming)。啟用後,當 VRAM 不足時,ComfyUI 可改用系統記憶體,讓中階 RTX 顯示卡也能執行更大型模型與更複雜的多階節點流程。
完整的影片生成工作流程將於下個月開放下載;LTX-2 影片模型的開源權重與 ComfyUI RTX 相關更新現已上線。
全新的 PC 檔案與影片搜尋方式
數十年來,PC 上的檔案搜尋方式幾乎沒有改變,仍主要依賴檔名與零散、不完整的中繼資料,讓使用者要找出一年前的特定文件,往往困難許多。
由 Nexa.ai 推出的本地搜尋代理 Hyperlink,能將 RTX PC 轉變為一個可搜尋的知識庫,使用者可透過自然語言提問,並即時取得附有引用來源的答案。Hyperlink 可掃描並索引文件、簡報、PDF 與圖像,讓搜尋依據內容與概念進行,而不再只是猜檔名。所有資料皆在本地處理並保留於使用者的 PC 中,兼顧隱私與資安需求。此外,Hyperlink 也透過 RTX 加速大幅提升效能,在 RTX 5090 顯示卡上,索引文字與影像檔案僅需 每 GB 約 30 秒,回應時間約 3 秒;相較之下,僅使用 CPU 時,索引每 GB 檔案需 約 1 小時,回應時間約 90 秒。
在 CES 2026 展會上,Nexa.ai 也首度公開支援影片內容的 Hyperlink 測試版本,讓使用者可在影片中搜尋物件、動作與語音內容。這項功能特別適合影片創作者快速尋找 B-roll 素材,也能讓玩家找出自己贏得比賽的精彩時刻,分享給朋友。
有興趣體驗 Hyperlink 私有測試版本的使用者,敬請造訪 Nexa.ai 官網登記申請,測試資格將自本月起陸續開放。
小型語言模型(SLM)效能再提升 35%
NVIDIA 攜手開源社群,透過 Llama.cpp 與 Ollama,在 RTX顯示卡與NVIDIA DGX Spark 桌上型超級電腦上為 SLM 帶來顯著的效能提升。此次更新對混合專家模型(MoE)特別有利,包含全新的 NVIDIA Nemotron 3 系列開放模型。
在過去四個月中,SLM 的推論效能已有明顯進展,在 llama.cpp 上提升了 35%,在 Ollama 上提升了 30%。目前 Ollama 的更新已正式推出;llama.cpp 也已加入改善使用體驗的更新,大幅加快大型語言模型(LLM)的載入速度,並預計於 1 月稍晚陸續推出更多更新。
這些效能提升將納入 LM Studio 的下一次更新,並陸續導入代理型應用程式,例如全新的 MSI AI Robot 應用。MSI AI Robot 同樣受益於 Llama.cpp 的最佳化,讓使用者能以自然語言方式控制 MSI 裝置設定,並將在即將推出的版本中整合最新更新內容。
NVIDIA Broadcast 2.1:讓更多 PC 使用者體驗虛擬補光效果
NVIDIA Broadcast 應用程式透過 AI 特效提升 PC 麥克風與網路攝影機的音訊與影像品質,非常適合用於直播與視訊會議。
在 2.1 版更新中,NVIDIA 進一步強化虛擬補光(Virtual Key Light)效果,不僅提升整體效能,也將支援範圍擴大至 RTX 3060 桌機顯示卡以上。新版可因應更多元的光源情境,提供更廣泛的色溫調整,並採用更新後的 HDRi 底圖,呈現專業直播中常見的雙主燈風格。欲下載最新版本,敬請造訪 NVIDIA Broadcast 官網。
以 DGX Spark 將居家創作工作室升級為 AI 超級工作站
隨著功能日益強大的 AI 模型每月持續登上 PC 平台,開發者對於更高效、彈性更大的本地 AI 環境需求也不斷升溫。DGX Spark 是一款可直接放置於桌面的精巧 AI 超級電腦,能與既有的桌機或筆電無縫搭配,讓使用者在原有 PC 旁,同步進行實驗、原型設計與進階 AI 工作負載。
DGX Spark 非常適合想測試 LLM、開發代理型工作流程的使用者,也適合創作者在背景平行生成素材,同時保留主力電腦持續進行剪輯與創作。
在 CES 2026 展會上,NVIDIA 宣布為 DGX Spark 推出重大的 AI 效能升級,自產品推出不到三個月以來,整體效能提升最高 2.6 倍。
此外,NVIDIA 也同步釋出多款全新的 DGX Spark 教學範例,其中包含用於推測式解碼(Speculative Decoding) 的範例,以及利用兩台 DGX Spark 模組進行模型微調 的實作指南。
