換換病極簡心得: 改的不多,但改進很多。

今年換換病發作晚了兩個月,
上週幾個重要的案子結束才有辦法拆機...

最近才在學Stable Diffusion 也是個指標考量,
買前交戰了一週...
因為 Intel 平台打折打到骨折不是沒考慮,
Ultra200系列內建NPU,感覺用來跑AI繪圖是不是比較好?

除了晃國外討論區收集資訊外,也詢問了AI,
結論是這樣...
換換病極簡心得: 改的不多,但改進很多。

(也問過 Ultra200的NPU是否能在Stable Diffusion本地模型訓練上,
跟RTX40系列進行效能加疊,答案是不行。
因為SD是吃CUDA)

好吧...再便宜沒用到也是零的鐵則...
最後還是9950X3D
(至少AVX512跟3D快取在Stable Diffusion有用)

換換病極簡心得: 改的不多,但改進很多。

對比7950X3D簡單說一下:
它改善了一些缺陷,
Boost增強許多,即便個人這種小型ITX散熱,
5.5~5.7GHz也能夠頻繁觸發,單核效能更穩定。
PBO+200快樂表 CCD0可到5.6GHz、CCD1能上到5.9GHz,
但閃個幾下沒實質意義就是...
(9000系列加強單核心,Scalar、VRM響應頻率等調節...依舊影響很大)

CCD0積熱有解決,戰艦世界跟朋友砲一整晚才60度。 這個超滿意
(以前7950X3D遊戲玩久一點都能噴到七八十)

當然缺點還是有,最大痛點還是那顆 IO Die...
這是未來Zen6真的要改的。

另外就是看某些9950X3D測試記憶體延遲不好看80、90ns...
(01的測試就是,甚至比7950X3D還差)
其實沒有
這邊提醒板廠都有最佳化設定模板可用,只是名稱稍有不同,
例如華碩板子不要呆選EXPO,下拉EXPO Tweaked ,延遲就會正常些。
換換病極簡心得: 改的不多,但改進很多。

最後...這邊就沒做傳統測試了 YouTube上一堆...

唯一較特別的是目前華碩板子有出個專為ai訓練、活用X3D大快取的
AI Cache Boost功能,
華碩推出 AI Cache Boost 技術
玩一陣子有用的話再上來報告。
2025-06-14 22:16 發佈
文章關鍵字 心得
缺點IO die是什麼?目前使用上都沒遇到問題🤔
loki6865
loki6865 樓主

上面eclair_lave兄幫回了(多謝)。不是說IO Die有問題,是可以做得更好。尤其溫度的部份,太高還會影響CPU本體效能...這有點冤...

2025-06-16 5:39
eclair_lave

loki6865[笑][拇指向上]

2025-06-16 9:29
IO die 平時閒閒沒事時也會比核心高10多度,以前好像不會

loki6865
loki6865 樓主

以前就醬了吧? 開EXPO鐵定噴的....。

2025-06-16 5:43
loki6865
loki6865 樓主

請問您這顆體質如何? 我的貌似有點烙賽,CCD1抓-30+200會黑掉重開,目前測得是-20+200可跑...

2025-06-16 5:43
neo6688 wrote:
請問您這顆體質如何? 我的貌似有點烙賽,CCD1抓-30+200會黑掉重開,目前測得是-20+200可跑.


體質的SP分,目前好像是華碩主機板才有,我用技嘉的沒有這個資訊

我覺得大部分是散熱器問題,把風扇開全速去跑,再不行去換3-5千轉的工業扇,空調開最低,就能解放性能了

技嘉主機板有懶人調教模式,可設定最高溫度 90, 80, 70..,每個溫度裡有5個等級 Level 1 - 5,我目前用的是80 Level 3,CPU最高溫度只會跑到80,功耗大約是 170-180W,對我來說這樣夠用,就沒再往上解

另外有 X3D Turbo 模式,這其實就關閉CCD1跟超執行緒,可以解鎖更高的性能,記憶體和CPU頻率都能拉得更高,不過就純8大核運作

不曉得跟BIOS版本有沒有關係,用5月底最新的版本,我的256GB記憶體在自檢時不容易過關,後來退回到3月初的版本比較好設定記憶體頻率

其他的沒去試了,技嘉的懶人模式太方便,我也不知道這顆體質好不好
loki6865
loki6865 樓主

了解,聽起來技嘉板子也有進步,還有多個模式可選。256G夠猛啊,我玩畫圖的才你的四分之一不到 XD 有在考慮美光5600 96G那組套條

2025-06-16 13:40
恭喜入手~
個人首發就入手,我認為最大改進就是溫度吧
還有極限性能的能耗表現進步很多
雖然體感感受不出來
但軟體執行速度提升基本都能到二位數

雖然帳上IOD真的是要升級了
不過目前來說除了內顯規模真的建議在提升一點
其他的體感上倒是沒差

只能說多開(工)成這樣對16C的壓力依舊很小啊
瓶頸反而在顯示卡上

然後簡單分享我的CPU設定
功率全預設
Max Cpu Boost clock -500
CO All Core -30
CS Med以上-5
溫度牆85度
記憶體128G 5600 C46(全預設)
SOC 1V

R23 188W全核約5.1G(CCD0 5.05G+CCD1 5.15G)
單核5.25G下大約35W而已


多核約44000;單核約2080
neo6688

別衝高容量記憶體,我目前就專門弄AI繪圖的,大部分都是吃GPU的記憶體,不是系統記憶體,會用系統記憶體的是大語言模型,專門聊天的像DeepSeek,SD上的採樣編解碼是GPU處理找4090才有用

2025-06-18 19:04
ロリ大大

neo6688 大家都知道主要靠顯示卡啊但4090買不起啊[鬼]顯示記憶體當黃金賣,反而DDR5記憶體128G 10K而已,顯示卡顯示記憶體不足就拿系統記憶體來撐,速度慢了點但至少能跑[鬼]

2025-06-18 22:18
如果要用128GB記憶體,建議用64*2方式,插上去就直接用

我用64GB*4,用 X3D Turbo 模式,就是關閉一個CCD狀態,這樣也是插上去不用調就直接抓到四條6400頻率

可是要用到兩個CCD時,自動的話只會跑在四條3200頻率,後來我改記憶體電壓到1.35V才可跑到6000頻率

目前AI模型在加載時,若模型是載入到GPU的記憶體就會用GPU去跑,加載到系統記憶體就會用CPU跑

跑SD繪圖基本需求顯卡8G,16G大部分都夠跑,若要跑Flux這種高級的繪圖,最低需求要16G,不過後面的開發者,都會把原始模型改成半精度 fp8 版本,或是量化版GGUF(把原版參數量減少),使用 fp8 或 GGUF 版模型在 8G 顯卡記憶體也能跑

現在出的NPU,大部分都是加強矩陣運算能力,這對聊天的AI很有用,AMD Ai MAX 的 NPU 雖然只有 4060Ti 的性能,但如果配置96GB的記憶體給NPU,在跑 70B 參數的 Deepseek 反而比 4090 還順暢,4090 大概只能跑 32B 參數的模型

最原始的 Deepseek 參數量是 671B,目前沒有一台電腦能跑的順暢,都是要在專用的服務器上運作,本地用量化模型,用在不用精準度高的作文報告可以,但去回答一些深入的程式碼,常常給錯的答案,因為模型內的資訊被刪除,像這種需要高準度的AI工作,最好還是用線上版

Flux 現在有官網線上版可用,一個帳號有免費200點,而且它的收費也很便宜,比一張9萬元的5090還省非常多,應該不用去折騰本機的配備
loki6865
loki6865 樓主

多謝兩位的經驗,我是ITX,也只能兩根。目前考慮美光或芝奇96G的套條。

2025-06-20 5:09
內文搜尋
X
評分
評分
複製連結
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?