當前人工智慧發展正快速邁向「代理式 AI」(Agentic AI)的新階段。這類模型不僅能單向回答問題,更能自主規劃、執行多步驟的複雜任務。然而,隨著任務複雜度提升,AI 需要處理的上下文視窗(Context Window)已從過去的數千個 Token,暴增至數百萬甚至上千萬個。這意味著系統必須在極短時間內讀取、儲存並運算海量資料,對現有的資料中心基礎架構帶來了嚴峻的擴展挑戰。
為了解決這個運算與記憶體之間的傳輸瓶頸,NVIDIA 推出了全新的 CMX 上下文記憶體儲存平台(Context Memory Storage Platform)。該平台以新一代 BlueField-4 資料處理器(DPU)為核心,專門針對龐大上下文資料的存取進行最佳化。透過將資料處理與網路傳輸工作從主機運算單元卸載,CMX 平台能大幅降低延遲,並提升叢集間的資料吞吐量。從最新曝光的 DGX NVL72 系統配置可以看出,NVIDIA 正試圖在即將到來的 Vera Rubin 架構世代中,將記憶體與儲存的傳輸效率推向新高度。
這項技術發展對整體產業的影響相當明確。過去企業在導入大型語言模型時,往往受限於硬體記憶體容量,被迫將長篇文件切割或簡化,導致 AI 分析失去全局觀。CMX 平台的問世,讓企業能更具成本效益地部署具備超大上下文視窗的應用。無論是分析跨國企業的完整財務報表、處理數十萬行的程式碼庫,或是進行深度的法律合約審查,硬體基礎設施將不再是限制應用落地的絆腳石。
關注此發展的關鍵在於,它標誌著 AI 硬體競賽的焦點已發生轉移。純粹運算能力的提升固然重要,但如何高效管理與調度龐大的「系統記憶」,已成為決定次世代 AI 系統效能的勝負手。NVIDIA 透過專用平台的整合,不僅強化了基礎設施的處理能力,更實質為全自動化的代理式 AI 時代鋪平了道路。