樓主拋出 cache 及 CPU 運算效率的問題,其實在 '90 年帶也有類似的爭論。'90 初期的工作站用的多是用RISC CPU,當時最主要 CPU 效能測試軟體是 SPEC_92Int 及 SPEC_92FP,而各家採用的 on board cache 都是 1MB (不是 on chip, on chip 通常只有16k(D)+16k(I)),原因無它,沒有 1MB 的 cache,SPEC_92 的分數就很難看。當時採購工作站的 RFP 上,都會以SPEC_92 的分數設定門檻。
SPEC_95 剛推出的時候,大家的分數都奇慘無比,因為測試程式的 problem size 加大了,1MB 的 cache 無法容納整支程式,必須真正存取記憶體。所以關鍵應該回到 CPU 與 Memory 的頻寬了。結果呢? 各家新推出的系統,on board cache 都提升至 4MB 以上。SPEC_95 的分數才會漂亮。
所以 SPEC_2000 推出的時候,不再單純加大 problem size,而是要求同時跑多少份 COPY。就是為了讓 cache 永遠裝不下,如此才能比較真實反應複雜運算的效率。
但是現在絕大部分人使用的都是個人電腦,在單人及假多功的平台下,Cache 的確扮演了很大的角色。而樓主使用的 benchmark 軟體,不也是為了這種平台而發展及執行的嗎?
所以今天樓主的重點,因該在於 benchmark 軟體是否足以反映真實的使用效能,以及為何廠商大幅增加 on chip cache 吧。
tsaidi wrote:
所以今天樓主的重點,因該在於 benchmark 軟體是否足以反映真實的使用效能,以及為何廠商大幅增加 on chip cache 吧。...(恕刪)
這點其實大部分人應該都有看懂樓主要表達什麼,不過網路上作的更好、更有公信力的測試也所在多有,以樓主寫的程式以及測試方法論並無法嚴謹到令人信服,甚至可以說方向錯到離譜,基本coding能力、計算機架構學理以及過濾引用資料能力也不及格。
勉強說來,樓主測的是Core架構以及K8架構在固定Windows環境下跑16-bit DOS程式(執行內容未知的計算迴圈)時,何種架構的執行管線執行16位元計算的penalty較高或是執行效率較差,這已經是很冷門的測試項了,但就連這能否代表16-bit通案,也得看樓主程式寫了什麼,即使M01、OC、PCDVD的眾多網友已提出呼籲公布程式碼,這部分卻仍是黑盒子狀態。
有作過研究的,應該知道提一篇論文所要接受的質疑或許會比樓主碰到的更赤裸裸、更刻薄,但真金不怕火煉。
我之前也是用AMD K9的一出來就買了,當初也是因為他比較快,比起P4又沒有那麼熱
現在也是改用INTEL的,原因無他只是轉檔及整體表現較佳
或許以後換AMD的也不一定(只是真的希望AMD不要倒,互相競爭,才會有越來越好的產品出來)
不過樓主用如此不客觀且不成熟的程式,就想以偏蓋全,現在是甚麼時代了,並不是以前古早的DOS時代,懂電腦的只有少數那幾個,講的話就是"聖旨",可以"妖言惑眾",現在就算不懂,查查萬能的大神就有一堆結果跑出來了,不要在活在舊時代了啦
http://www.top500.org/static/lists/2007/11/top500_statistics.pdf
Intel : (322+19+13=354)/500台 = 71.8%
AMD : 79/500台 = 15.8%
IBM : 61/500台 = 12.2%
但以用到的處理器總數來說,IBM的數量跟Intel就相差不多了(38.5% vs. 39.8%),AMD的比例也蠻高的(20.6%)。

內文搜尋

X