• 2

NVIDIA投資INTEL 50億美金 將使用數代的客製化x86 CPU於AI資料中心運算

NVIDIA(納斯達克股票代碼:NVDA)和英特爾公司(納斯達克股票代碼:INTC)今天宣布合作,共同開發多代客製化資料中心和 PC 產品,以加速超大規模、企業和消費者市場的應用程式和工作負載。

兩家公司將專注於利用 NVIDIA NVLink 無縫連接 NVIDIA 和 Intel 架構——將 NVIDIA 的 AI 和加速運算優勢與 Intel 領先的 CPU 技術和 x86 生態系統相結合,為客戶提供尖端解決方案。

對於資料中心,英特爾將建置 NVIDIA 客製化的 x86 CPU,NVIDIA 將其整合到其 AI 基礎架構平台中並提供給市場。

在個人運算領域,英特爾將打造並向市場推出整合 NVIDIA RTX GPU 晶片組的 x86 系統級晶片 (SOC)。這些全新的 x86 RTX SOC 將為各種需要整合世界級 CPU 和 GPU 的 PC 提供支援。

NVIDIA 將以每股 23.28 美元的價格向英特爾普通股投資 50 億美元。此項投資需滿足慣例成交條件,包括必要的監管批准。

NVIDIA 創辦人兼執行長黃仁勳表示:「AI 正在推動一場新的工業革命,並重塑運算堆疊的每一層——從晶片到系統再到軟體。這場重塑的核心是 NVIDIA 的 CUDA 架構。此次歷史性的合作將 NVIDIA 的 AI 和加速運算堆疊與英特爾的 CPU 和龐大的 x86生態系統緊密結合,實現了兩大世界級平台的融合。

英特爾執行長陳立武表示:「數十年來,英特爾的 x86 架構一直是現代運算的基石——我們正在不斷創新產品組合,以支持未來的工作負載。英特爾領先的數據中心和客戶端計算平台,結合我們的製程技術、製造和先進封裝能力,將與 NVIDIA 在新計算實驗室的領導地位和新創實驗室的領導地位。團隊對我們的信任和投資,並期待未來繼續為客戶創新,拓展業務。
2025-09-19 0:33 發佈
這局跟聯發科和輝達的合作一樣,屆時雙方都能宣布設計代工業務(客製化晶片業務)大成功。
chanp

差很多,各方面 對NV是利多,對intel 就真的是個大哉問

2025-09-19 14:37
85683213 wrote:
這局跟聯發科和輝達的合作一樣,屆時雙方都能宣布設計代工業務(客製化晶片業務)大成功。(恕刪)


差很多

先不論這起合作背後原因,intel在本次合作中的利多是能夠無痛插入AI伺服器份額,還有取得NV 內顯能夠直接到時與對手大型APU(Strix Halo 或家機這種)對抗


但潛藏危險也在主導權在NV,要不要續約或是其他附帶/未來條件/訂單合約會變成主要由NV決定,而且intel的部分GPU(主要是行動市場的自家內顯)相關業務等於被壓縮及掐脖子

如果後續還有其他像本次NV這樣入資跟談出類似具主導能力條件的大型廠商出現,等於intel帳面利多,但背後實質上是被趁機瓜分

當然INTEL部分應該不會不設定自保條件,但從NV是救急方跟短期可見利益看大概INTEL也很難拒絕
不過至少仍在合作期間的業務收入會有一定程度保障,剩下的要看INTEL自己能否利用機會重新壯大到足以與合作方平起(或至少能夠抵抗不合理條件)
eclair_lave

這下INTEL算暗虧了,但亟需外部注資也沒法

2025-09-19 11:39
成急思汗

這下台積電終於可以鬆口氣了,迫於川老頭的淫威下……老黃終出來背這個鍋了,意思一下撒50億美刀有個交待給川普

2025-09-21 23:14
不太意外,
放眼能救Intel的就剩老黃,
另一好處...終於有人救
關稅帝君短期對台積電 欺番吵(台語)應該會少點...

不過既然N家入主,
先前Intel在Ai上布局自家開源碼工具等...,
應該也會受到影響?

短期對Intel來說很甜,續命強心針,

但長期來說AI跟GPU這塊Intel自我發展可能會受限,
老黃雖然成Intel最大股東,
但只要Intel的CPU而已,(伺服器業務整合與延伸更好賣)
並不一定會把本命的GPU、Ai 技術共享出去。

這和拿CPU指令去跟AMD換GPU技術,
然後自我自由發展差很多...

後續靜觀其變
skiiks

是投資 不是互告和解的交換持股 沒必要讓intel知道NV的業務內容

2025-09-19 9:38
chanp

老黃:真要救intel怎麼可能才花50億美刀[偷笑] 剛跳槽intel的AI產品線高管=[囧]。

2025-09-19 14:59
如果投資可以換減少限制 老黃應該會很支持
skiiks

大股東可以影響公司走向 但大股東不用跟intel交代他在NV上班的狀況 不用把NV技術拿給intel看

2025-09-19 18:02
tonyboy015

NVLINK

2025-09-20 10:51
感覺類似蘋果自研CPU一樣 自研X86 CPU
再搭上自家顯示晶片 整組賣
X86 CPU則意指以win系統或伺服器的AI使用者
CPU不用很強 但要有功用

主打賣顯示記憶體 要買這種一體機VRAM才有64/128可選
把VRAM不足的地方用這種方式補高
不玩遊戲不買顯卡的理由 轉為個人戶想玩AI只能掏錢買這種套裝機

再限制只能算AI 無法遊戲
想玩遊戲買顯卡
想玩AI買輝達套裝機

AI伺服器到遊戲用戶之間
下刀切出 高階AI個人用戶


推測
跟挖礦的礦機類似
個人戶專用來跑AI的AI機


 
chanp

差很多,是向 INTEL下單 客製化x86 CPU ,不是 NV自制CPU [挖鼻孔]

2025-09-19 14:50
真正原因台GG成本太高,等intel良率穩定後絕對會放生台積電
在來川普想讓intel再次偉大又能幹掉台積電
eclair_lave

光靠成本想壓人還挺難的,TSMC的設備攤抵大概1~1.5年左右,等INTEL良率爬起來對手早在淨賺往下一個製程繼續了,不如寄望川普多綁架一些企業替INTEL付錢餵奶可能還比較實際...

2025-09-19 11:36
Gabriellin

GG的總成本大致就這樣,省錢去投牙膏或三星,隱藏成本就難說,這個老黃自己很懂吧,想不起來也可以問股溝或是Q家。

2025-09-19 13:36
處理器客製化可以在若干方面提升老黃產品的商業訴求

為啥老黃不自己設計?

包給intel也等於可以繞開很多專利授權等相關問題

歷史也證明了想要通通全包那往往都不會有甚麼好下場就是

甚至可以說和intel合作等於又給美國政府一個面子

老黃真不差這點錢
cruiseton
cruiseton 樓主

重新設計一個x86cpu沒有intel授權做的出來? 輝達所有本身的cpu也都是向arm取得授權

2025-09-19 10:43
chanp

不找intel可以找AMD[XD]

2025-09-19 15:03
二強合作, AMD 壓力來了. 這會只是輝達強勢介入x86的開端嗎?

CUDA + x86 整合到一起會是許多人在AI浪潮下的首選,

==

INTC 股價暴漲到 30 鎂
問了 Grok: 在 Nvidia CUDA 和 AMD ROCm 切換時 多少程式碼需要重寫?

==
Grok:

在從 NVIDIA CUDA 切換到 AMD ROCm 時,程式碼重寫的程度取決於應用程式的複雜度、使用 CUDA 特定功能的程度,以及是否使用自動轉換工具。ROCm 透過 HIP(Heterogeneous-compute Interface for Portability)提供相容層,讓大多數 CUDA 程式碼可以自動或半自動轉換為 HIP 程式碼,從而最小化重寫需求。以下是詳細說明:
轉換過程概述

自動轉換工具:AMD 提供 HIPIFY 工具(包括 hipify-perl 和 hipify-clang),可以將 CUDA 原始碼轉換為 HIP 程式碼。這些工具透過字串替換或語意分析,將 CUDA API(如 cudaMalloc 轉為 hipMalloc)自動轉換。

hipify-perl:適合小型或簡單程式,使用字串匹配,轉換速度快,但可能遺漏複雜結構。
hipify-clang:適合大型專案,使用 Clang 編譯器進行語意轉換,更準確,但需 CUDA 安裝。


轉換步驟:

使用 hipify-perl --inplace your_cuda_file.cu 轉換檔案。
檢查警告(如未轉換的巨集或內嵌 PTX 組譯碼)。
編譯為 AMD GPU(使用 hipcc)或 NVIDIA GPU(使用 nvcc,設定 HIP_PLATFORM=nvidia)。


相容性:HIP 程式碼可同時在 AMD 和 NVIDIA GPU 上運行,無需維持兩個程式碼庫。

需要重寫的程式碼比例
根據 AMD 的官方文件和實際案例,大多數 CUDA 程式碼(尤其是使用標準 API 的部分)可自動轉換,重寫需求通常很低:

自動轉換比例:約 95-99.6% 的程式碼可自動處理或無需修改。

例如,在 Caffe 機器學習框架(約 55,000 行程式碼)的轉換中,99.6% 程式碼自動轉換或不變,剩餘 0.4% 只需不到一週的手動調整。


手動重寫需求(約 0.4-5%):

CUDA 特定硬編碼(如 warp size 設為 32,AMD 為 64)。
內嵌 PTX 組譯碼或 CUDA 內建函數(需改為 HIP 等價物或條件編譯)。
架構檢查(如 __CUDA_ARCH__ 需替換為 __HIP_ARCH_<feature>__)。
庫依賴:大多數 CUDA 庫有 HIP 等價物(如 cuBLAS → hipBLAS),但 roc- 前綴庫(AMD 專屬)可能需調整。

時間估計:簡單應用只需數小時;複雜 HPC 或 AI 專案可能需數週,主要在測試和優化階段。

應用類型,自動轉換比例,重寫比例估計,範例時間
簡單 SAXPY 範例,100%,0%,<1 小時
Caffe ML 框架,99.6%,0.4%,<1 週
科學模擬(如 Gromacs),95-99%,1-5%,數天至數週
複雜 CUDA 專案(含 PTX),90-95%,5-10%,數週

性能:轉換後的 HIP 程式碼在 AMD GPU 上可達與原生 CUDA 相當的性能,但需針對 AMD 架構(如 SIMD 寬度 64)優化。

替代方案:若不願重寫,可用 ZLUDA(ROCm 上的 CUDA 模擬層)直接運行未修改的 CUDA 二進位檔,性能損失約 10-20%。

挑戰:ROCm 生態較 CUDA 成熟度低,某些新 CUDA 功能(如最新版本的擴充)可能不支援,需手動處理。建議從小專案開始測試。

總體而言,切換時只需重寫少量程式碼(通常 <5%),得益於 HIP 的設計,讓 CUDA 開發者能快速遷移到 ROCm,而無需從頭重寫。更多細節可參考 AMD ROCm 文件。</feature>
chanp

理論跟實際 會有差距[挖鼻孔]

2025-09-19 14:55
cruiseton
cruiseton 樓主

chanp 當然. 相容性即使只差一點點, 除錯可能要很久. 有時數天, 有時數月甚至數年, 更別說 CUDA 會一直更新及擴張

2025-09-19 15:16
  • 2
內文搜尋
X
評分
評分
複製連結
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?