• 2

Naver 將其 AI 地圖應用程式伺服器的 Nvidia GPU 替換為 Intel CPU

我就是愛拍照 wrote:
騎腳踏車的贏過走路的...(恕刪)

最新一代的intel cpu好像是內建ai計算用的電路,也許性價比不見得差.

畢竟nv的卡訂單排到天荒地老了
https://www.tomshardware.com/news/azure-instances-pair-amd-mi300x-with-intel-sapphire-rapids

AMD 的 EPYC 缺席? Microsoft Azure 執行個體將 AMD 的 MI300X 與英特爾的 Sapphire Rapids 配對

===

微軟全新的專注於 AI 的 Azure 伺服器由 AMD 的 MI300X 資料中心 GPU 提供支持,但與英特爾的 Xeon Sapphire Rapids CPU 搭配使用。AMD 旗艦第四代 EPYC Genoa CPU功能強大,但 Sapphire Rapids 在推動 AI 運算 GPU 方面似乎擁有幾個關鍵優勢。不僅僅是微軟選擇 Sapphire Rapids,Nvidia 似乎也更喜歡它而不是 AMD 當前一代 EPYC 晶片。

可能有幾個因素促使微軟選擇英特爾的 Sapphire Rapids 而不是 AMD 的 Genoa,但英特爾對其高級矩陣擴展(或 AMX)指令的支持可能是微軟選擇 Sapphire Rapids 的重要原因之一。據英特爾稱,這些指令是專門為將人工智慧和機器學習任務加速七倍而量身定制的。

雖然 Sapphire Rapids 的效率不是特別高,而且多執行緒效能比 Genoa 差,但其單執行緒效能對於某些工作負載來說相當不錯。這不僅僅是專門幫助人工智慧工作負載;這只是某些類型計算的整體優勢。

另外值得注意的是,Nvidia 資料中心級 GPU 的伺服器也使用 Sapphire Rapids,包括 Nvidia 自己的 DGX H100 系統。Nvidia 執行長 Jensen Huang 表示,Sapphire Rapids 的「出色的單線程效能」是他希望在 DGX H100 上使用英特爾 CPU 而不是 AMD 的一個具體原因。

新的 Azure 執行個體還配備了 Nvidia 的 Quantum-2 CX7 InfiniBand 交換機,匯集了所有三家科技巨頭的硬體。這只是表明,在人工智慧的尖端世界中,公司只想要整體上最好的硬體來完成工作,而不會特別挑剔誰製造它,無論競爭如何。

這些面向 AI 的 Azure 實例擁有 8 個 MI300X GPU,每個 GPU 包含 192GB 的 HBM3 內存,提供總計 1,536GB 的 VRAM,這對於訓練 AI 至關重要。所有這些 VRAM 可能是微軟選擇 MI300X 而不是 Nvidia 的 Hopper GPU 的一個重要原因。即使是最新最好的H200 晶片,每個 GPU 也只有 141GB HBM3e,明顯低於 MI300X。

微軟也讚揚了AMD的開源ROCm軟體。AMD 一直在努力使 ROCm 與 Nvidia 的 CUDA 軟體堆疊相媲美,後者在專業和伺服器圖形領域佔據主導地位。微軟對 ROCm 的信任或許顯示 AMD 的軟硬體生態系統正在迅速改善。

==

顯然 有 AI 加速器的 INTEL CPU 和 AMD 以 AI 為重心的 GPU 面對 NVIDIA 都不是一無是處
  • 2
內文搜尋
X
評分
評分
複製連結
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?