NVIDIA(納斯達克股票代碼:NVDA)和英特爾公司(納斯達克股票代碼:INTC)今天宣布合作,共同開發多代客製化資料中心和 PC 產品,以加速超大規模、企業和消費者市場的應用程式和工作負載。
兩家公司將專注於利用 NVIDIA NVLink 無縫連接 NVIDIA 和 Intel 架構——將 NVIDIA 的 AI 和加速運算優勢與 Intel 領先的 CPU 技術和 x86 生態系統相結合,為客戶提供尖端解決方案。
對於資料中心,英特爾將建置 NVIDIA 客製化的 x86 CPU,NVIDIA 將其整合到其 AI 基礎架構平台中並提供給市場。
在個人運算領域,英特爾將打造並向市場推出整合 NVIDIA RTX GPU 晶片組的 x86 系統級晶片 (SOC)。這些全新的 x86 RTX SOC 將為各種需要整合世界級 CPU 和 GPU 的 PC 提供支援。
NVIDIA 將以每股 23.28 美元的價格向英特爾普通股投資 50 億美元。此項投資需滿足慣例成交條件,包括必要的監管批准。
NVIDIA 創辦人兼執行長黃仁勳表示:「AI 正在推動一場新的工業革命,並重塑運算堆疊的每一層——從晶片到系統再到軟體。這場重塑的核心是 NVIDIA 的 CUDA 架構。此次歷史性的合作將 NVIDIA 的 AI 和加速運算堆疊與英特爾的 CPU 和龐大的 x86生態系統緊密結合,實現了兩大世界級平台的融合。
英特爾執行長陳立武表示:「數十年來,英特爾的 x86 架構一直是現代運算的基石——我們正在不斷創新產品組合,以支持未來的工作負載。英特爾領先的數據中心和客戶端計算平台,結合我們的製程技術、製造和先進封裝能力,將與 NVIDIA 在新計算實驗室的領導地位和新創實驗室的領導地位。團隊對我們的信任和投資,並期待未來繼續為客戶創新,拓展業務。
85683213 wrote:
這局跟聯發科和輝達的合作一樣,屆時雙方都能宣布設計代工業務(客製化晶片業務)大成功。(恕刪)
差很多
先不論這起合作背後原因,intel在本次合作中的利多是能夠無痛插入AI伺服器份額,還有取得NV 內顯能夠直接到時與對手大型APU(Strix Halo 或家機這種)對抗
但潛藏危險也在主導權在NV,要不要續約或是其他附帶/未來條件/訂單合約會變成主要由NV決定,而且intel的部分GPU(主要是行動市場的自家內顯)相關業務等於被壓縮及掐脖子
如果後續還有其他像本次NV這樣入資跟談出類似具主導能力條件的大型廠商出現,等於intel帳面利多,但背後實質上是被趁機瓜分
當然INTEL部分應該不會不設定自保條件,但從NV是救急方跟短期可見利益看大概INTEL也很難拒絕
不過至少仍在合作期間的業務收入會有一定程度保障,剩下的要看INTEL自己能否利用機會重新壯大到足以與合作方平起(或至少能夠抵抗不合理條件)
放眼能救Intel的就剩老黃,
另一好處...終於有人救
關稅帝君短期對台積電 欺番吵(台語)應該會少點...
不過既然N家入主,
先前Intel在Ai上布局自家開源碼工具等...,
應該也會受到影響?
短期對Intel來說很甜,續命強心針,
但長期來說AI跟GPU這塊Intel自我發展可能會受限,
老黃雖然成Intel最大股東,
但只要Intel的CPU而已,(伺服器業務整合與延伸更好賣)
並不一定會把本命的GPU、Ai 技術共享出去。
這和拿CPU指令去跟AMD換GPU技術,
然後自我自由發展差很多...
後續靜觀其變
==
Grok:
在從 NVIDIA CUDA 切換到 AMD ROCm 時,程式碼重寫的程度取決於應用程式的複雜度、使用 CUDA 特定功能的程度,以及是否使用自動轉換工具。ROCm 透過 HIP(Heterogeneous-compute Interface for Portability)提供相容層,讓大多數 CUDA 程式碼可以自動或半自動轉換為 HIP 程式碼,從而最小化重寫需求。以下是詳細說明:
轉換過程概述
自動轉換工具:AMD 提供 HIPIFY 工具(包括 hipify-perl 和 hipify-clang),可以將 CUDA 原始碼轉換為 HIP 程式碼。這些工具透過字串替換或語意分析,將 CUDA API(如 cudaMalloc 轉為 hipMalloc)自動轉換。
hipify-perl:適合小型或簡單程式,使用字串匹配,轉換速度快,但可能遺漏複雜結構。
hipify-clang:適合大型專案,使用 Clang 編譯器進行語意轉換,更準確,但需 CUDA 安裝。
轉換步驟:
使用 hipify-perl --inplace your_cuda_file.cu 轉換檔案。
檢查警告(如未轉換的巨集或內嵌 PTX 組譯碼)。
編譯為 AMD GPU(使用 hipcc)或 NVIDIA GPU(使用 nvcc,設定 HIP_PLATFORM=nvidia)。
相容性:HIP 程式碼可同時在 AMD 和 NVIDIA GPU 上運行,無需維持兩個程式碼庫。
需要重寫的程式碼比例
根據 AMD 的官方文件和實際案例,大多數 CUDA 程式碼(尤其是使用標準 API 的部分)可自動轉換,重寫需求通常很低:
自動轉換比例:約 95-99.6% 的程式碼可自動處理或無需修改。
例如,在 Caffe 機器學習框架(約 55,000 行程式碼)的轉換中,99.6% 程式碼自動轉換或不變,剩餘 0.4% 只需不到一週的手動調整。
手動重寫需求(約 0.4-5%):
CUDA 特定硬編碼(如 warp size 設為 32,AMD 為 64)。
內嵌 PTX 組譯碼或 CUDA 內建函數(需改為 HIP 等價物或條件編譯)。
架構檢查(如 __CUDA_ARCH__ 需替換為 __HIP_ARCH_<feature>__)。
庫依賴:大多數 CUDA 庫有 HIP 等價物(如 cuBLAS → hipBLAS),但 roc- 前綴庫(AMD 專屬)可能需調整。
時間估計:簡單應用只需數小時;複雜 HPC 或 AI 專案可能需數週,主要在測試和優化階段。
應用類型,自動轉換比例,重寫比例估計,範例時間
簡單 SAXPY 範例,100%,0%,<1 小時
Caffe ML 框架,99.6%,0.4%,<1 週
科學模擬(如 Gromacs),95-99%,1-5%,數天至數週
複雜 CUDA 專案(含 PTX),90-95%,5-10%,數週
性能:轉換後的 HIP 程式碼在 AMD GPU 上可達與原生 CUDA 相當的性能,但需針對 AMD 架構(如 SIMD 寬度 64)優化。
替代方案:若不願重寫,可用 ZLUDA(ROCm 上的 CUDA 模擬層)直接運行未修改的 CUDA 二進位檔,性能損失約 10-20%。
挑戰:ROCm 生態較 CUDA 成熟度低,某些新 CUDA 功能(如最新版本的擴充)可能不支援,需手動處理。建議從小專案開始測試。
總體而言,切換時只需重寫少量程式碼(通常 <5%),得益於 HIP 的設計,讓 CUDA 開發者能快速遷移到 ROCm,而無需從頭重寫。更多細節可參考 AMD ROCm 文件。</feature>
內文搜尋

X