• 5

【情報】AMD的Zen 2架構IPC效能僅為4年前Intel Skylake的67%?

sweetmelody wrote:
您標題有誤導讀者的可(恕刪)


因此,AMD在舊英特爾處理器的IPC的2/3下運行。真是可憐!

當然,您的結果會有所不同。我非常願意相信,在許多(甚至可能是大多數)實際案例中,AMD Zen 2可以比最好的Intel處理器在單位工作量上完成更多的工作。但是,我認為我們應該對這些主張進行限定。我認為AMD客戶期望他們關心的任務每個週期的指令數量更多是完全不合理的,甚至他們找到的數量可能更少。AMD Zen 2並沒有主宰英特爾Skylake,因此可以預期大致平價。

======================
不曉得這個是..............????
RK2K0602 wrote:
==========(恕刪)


謝謝...
文章解讀能力真的很重要...

才在想先前有篇Linux的漏洞修補測試,
A牌處理器即使安裝修正檔,
程式編譯、數據服務器等測試還是贏...

若真的Zen 2架構IPC效能僅為4年前Intel Skylake的67%,
再加上時脈落後,
各種測試應該是輸到脫褲,
Google、百度等IT大廠早就避而遠之,
根本不會下訂EPYC...

---------------

剛把這段文章的大意做了個小圖,

意思是該教授測試只看綠色區
"CPU一週期能處理的指令數量"來決定IPC好壞,
某角度講確實是沒錯,但架構並不一樣,
假設...
Zen+優化過的只用三個指令數量處理到18分的效能,
而 Skylake 用五條跑到15分的效能,
帳面上看Skylake一個週期能處理的指令數量比Zen+多,
好像能承載更多繁重的工作?
但事實上是消耗更多的資源與功耗...

難怪這位教授自己也說這測試不等於效能...
針對收入以及消費行為的特定研究調查

我今天晚餐吃了三千塊,郭董只吃了個便當,結論:
郭董不見得比我有錢


針對特定性的目的研究
人家也只是粗淺下個結論,那篇文章長長一頁,但內文只有top幾行而已
下面十分之九的部全都是回文
小笨賢 wrote:

.......
因此,AMD在舊英特爾處理器的IPC的2/3下運行。真是可憐!

當然,您的結果會有所不同。我非常願意相信,在許多(甚至可能是大多數)實際案例中,AMD Zen 2可以比最好的Intel處理器在單位工作量上完成更多的工作。但是,我認為我們應該對這些主張進行限定。我認為AMD客戶期望他們關心的任務每個週期的指令數量更多是完全不合理的,甚至他們找到的數量可能更少。AMD Zen 2並沒有主宰英特爾Skylake,因此可以預期大致平價。

======================
不曉得這個是..............????
(恕刪)


(1)這是原作者表達他的個人觀點,他想聲明,在某些特定用途,AMD Zen2不會比Intel Skylake得到更多的平均 IPC 值(他稍後指出,單看IPC數據和效能無關,而且他也願意相信在一些實際案例中,AMD可能可以比Intel最好的CPU完成更多的工作)。

(2)您翻譯大致中肯,不過,原文意思似乎應該翻譯成『我認為AMD客戶期望他們關心的任務每個週期的指令數量更多不是完全合理的』。(在此您似乎太強化他的語意了,圖1,圖2)。

(3)在不同平台上編譯相同軟體,可以使用不同參數來『最佳化』利用CPU指令集(如同前面有回文提到,他們都是CISC架構)。原作者提到他用的gcc所產生的執行檔,不論在Intel或AMD他用的都是同一個(沒有重新編譯),所以參數有可能是針對Intel指令集最佳化(下方對答有提到 -march=native),不運用gcc對ZEN2的architecture 的最佳化,也許這也會有影響的。(作者同意此疑問的基礎卻仍然沒回答,圖3)。

(4)其實,大家針對自己的需求買合適的CPU就好了。



被頂著屁眼的CPU廠.........所以01開始靠打嘴砲才可以贏了?前陣子嘴50%.....這陣子嘴IPC65%.....下一陣子小弟先幫忙嘴一下預估500%

結果市場反應一窩蜂去降%..............................
我想這位教授比較特異的地方, 就是:

"他測試IPC性能的手段跟媒體不一樣,首先在Linux系統下使用GNU GCC8測試了一個自己製作的名為twitter.json的檔,這是一個負載很高的基準測試,裡面包括的分支預測錯誤、緩存未命中很少,他記錄了兩個階段的CPU運算速度數。"

因為 GCC Compiler 會先針對程式碼最佳化; 對於 x86 系統而言, GCC 編譯完後會轉成機器碼, 這是會因為 CPU 不同的關係, 使用不同的 CPU 指令集!!
因為 AMD 有提供新的指令集可以快速處理 bit-operation, 所以可能會是用比較少的 CPU 指令, 這點非常合理!!
如果 GCC 本身是比較陳舊, 不認識新的指令集, 可能就會使用較舊的 CPU 指令, 可能會使用較多指令或是取用到效能沒有搭配到新的 CPU 比較優化後的指令, 沒有辦法在某些方面享受到新的 CPU 指令在功能強化後的好處!!
這點在 AES 或 RSA 在做矩陣運算或非常長整數運算時, 會有很明顯的效能落差!!

CPU 分歧預測會在 GCC Compiler 做完程式碼轉譯後的執行階段才進行!! GCC 本身也具備分歧預測的功能, 而且會最佳化!! 會不會是把這兩者搞混了??
給各位一個參考!!
RK2K0602 wrote:
我想這位教授比較特異(恕刪)

首先...這位教授 都是使用簡單程式碼!!
所以沒有對Intel 優化的問題...
PS: 這些都不用用光快取, 也沒有跨CCX延遲問題

就連...分支預測失誤 Zen2 需要週期也是要多2個週期
原文連結2:
https://lemire.me/blog/2019/12/06/amd-zen-2-and-branch-mispredictions/

程式碼說明:
1.產生一個亂數
2.
假如單數 > 輸出
假如雙數 >輸出
小笨賢 wrote:
首先...這位教授 (恕刪)


你錯了!!
只要經過 Compiler 或 Interpreter, 都會進行 Optimize!!
我是資工系與資訊所畢業的!!

我大概跟你解釋一下!!
 node.j  跟 java-script, python, perl 這一類的直譯器, 編出來的都是中間碼, 是給  Run-time 去執行的!!
 GCC 現在第八版以後比較強, 可以原生支援不同語言 (C, C++, Objective-C, Objective-C++, Fortran, Ada, D, Go, and BRIG (HSAIL).),  因為那只是語法不同而已!!

沒有Optimize 的程式碼,基本上是不可能出現在這個年代!!這些都有 compiler/Interpreter 幫你處理完了,所以人們都說是透明化,你以為沒有,其實已經做了很多事!!
RK2K0602 wrote:
你錯了!!只要經過 Compiler...(恕刪)
他只有簡單 轉換 JSON 字串喔!! 簡單運算都不行不可能吧!!
沒有用 AES RSA
為什麼大家都這麼傻呢? 一直被intel特工釣魚

無視就好。
  • 5
內文搜尋
X
評分
評分
複製連結
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?