新訊

Intel 推出 NNP-I 神經網絡處理器, Ice Lake 加上 Nervana 推理引擎

Intel 在位於以色列海法的研發中心推出了一款針對推理運算的 Nervana 神經網絡處理器,簡稱 NNP-I。這款處理器與常見的神經網絡處理器不同的是,它將此前發布的 Ice Lake 處理器與 Nervana 神經網絡處理器結合,組成這款 NNP-I 處理器,但這款處理器與 Ice Lake 處理器有很大的不同,使用 Ice Lake 基礎設計並做出了修改,將其中的 Gen 11 內顯及顯示模塊去掉,將其替換成針對推理運算的 AI 加速器。同時 Intel 還在這款處理器上添加了 DSP 引擎,用於未針對固定功能加速器優化的算法,為其他類型的 AI 運算提供相容性。



NNP-I-1.jpg

而 CPU 部分依舊採用多個 Intel Sunny Cove 架構的 x86 核心,但並不知道其核心數目。Intel 產品工程總經理Oren Gershon模糊地稱他們移除了一些其他的核心為 AI 加速器騰出額外的位置,所以這款處理器可能採用了兩個處理器內核。

NNP-I-2.jpg

Intel 提供了包括 m.2 等幾種形式的加速卡樣式,因此它可以安裝在伺服器主板的標準 m.2 接口或 PCIe 擴充卡上。與一些專為 AI 設計的定制晶片不同,這款產品幾乎兼容所有的現代伺服器,甚至可以根據需要為伺服器添加多個 NNP-I 模塊。

NNP-I-3.jpg

NNP-I-4.jpg

Intel 也在軟體方面進行了優化,在使用 NNP-I 加速器時,伺服器可將全部神經網絡推理運算轉移到 NNP-I 處理器中,並在任務完成時通知伺服器中的 Xeon 主處理器。而且由於 NNP-I 處理器擁有完整的I/O模塊(擁有 PCH),所以其可以訪問處理所需的數據,而且 Intel 稱這並不會受到 PCIe x4 帶寬的影響。

由於內部有全新的 Sunny Cove 架構的 x86 內核,所以 NNP-I 也有 AVX512 指令集,支援 VNNI 深度學習指令,所以它技術適用於任何類型的 AI 負載,Intel 也提供了編譯器,為 NNP-I 加速器提供定制代碼。如 PyTorch 及 TensorFlow 等機器學習框架,NNP-I 加速器可以幾乎無改動的運行支援這些框架的代碼。

Intel Ice Lake 處理器的 TDP 為28W,而 m.2 接口有15W的功耗限制,但由於其可以插在 PCIe 擴充卡上,所以 NNP-I 加速器可以運行在更高的功耗下,以提供更好的性能。而具體性能方面 Intel 並沒有透露,但 Intel 已經向早期客戶提供樣品,並在今年晚些時候大批量生產。

來源:
https://www.tomshardware.com/news/intel-ice-lake-10nm-nervana-npp-i-accelerator,39731.html
https://www.expreview.com/69164.html
▌延伸閱讀