• 13

CPU 發展為何停滯不前?

就是物理性上的限制
其實現在有點接近半導體的極限了
再往下做什麼幾奈米的不是都很難嗎
10奈米一層也才幾顆原子
換個材料
看看單電子 光 碳管
看那個有用吧
不然時脈再上去很可怕啊

XD現在的能源密集度已經很高了
雖然拜V CORE概念所賜,有降低並同時提高速度
但其實也快差不多了啦XD
不是不能,是錢作怪
用5年重新做再提升到3.0g ,你要買三次機器,
cd 2.0 比,p 3.2 HT
其實是差不多的,我兩台都有
至於多工,我想有人用過osx 吧,
我在g4 單蕊開18個程式都可以,
從沒有掛過
當然現在在mac pro 的紀錄是300 多個,
很強
只是單蕊會掛是說不通的,

會掛只是當時xp 沒做好吧 

光波長多少? 現在的導線最細多少?

----
現在的製程, 照這趨勢來看, 都是選用highK介質當作電閘, 比起前幾代的polyoxide,

效果好很多, 不過也沒有那麼理想, 還不是一堆打穿跟漂移的情況發生, 但事實上,

第一個半導體也是用銅不是?(走歷史回頭路?)


問題在哪呢? 在於生產不出來阿~ 先進製程metal 2以下的光罩一片都是以億計價阿~

為什麼不賣便宜一點? 如果我能生產這種等級的商品, 我想我也不可能賣太便宜,

天曉得人家研發到生產花多少錢. 不過這東西我不熟 (炸~, 被打飛~ QQ


現在的製程已經小於光波長很多了, 光線的干涉繞射問題之嚴重, 很多大廠都很棘手阿,

單就曝光介質就夠變成商業機密了, 更別說DFM(design for money 誤!)的細項,

之前去參加幾次研討會, tsmc他們也說了.18 um -> 90nm -> 45nm 就有一狗票問題了,

電閘漂移, 被打穿, bridge 啥鬼情況會發生都不意外, 至於 45 -> 22 ?

看看那個design rule指數次方成長就知道了 (layout team 哭哭~

既然無法快速解決當前的問題, 那不如在繼有的area裡面多塞一個core, 這樣效能也相對提高了阿~


至於frequency, 其實這算有點迷思, 拉高frequency跟提高throughput, 並沒有絕對的關係,

真要拉高方法很多, 比方壓縮pipeline數量拉高stage, 瞬間frequency拉高很多, 這樣好像沒啥用...

然後又不小心把chip的溫度拉高了(粉嚴重哩), 然後就準備哭哭了 囧


事實上, CPU走向multi-core也只是走著過去歷史走過的路罷了~

與其討論CPU製程可以多advance, 那不如討論SOC... 或者3D-IC 好像比較有搞頭~

ps. 一兩年前intel 曾經在某期刊上發表過80core的sigle chip, 不過... 是來亂的 (毆飛~
猴小孩 wrote:
就是物理性上的限制其...(恕刪)


快一點的..像4G的應該早就有了....只是良率問題..拿出來賣,一般人應該聽到價錢就暈了
更快很多的...製程上有瓶頸...光蝕刻就很麻煩....

遇到瓶頸....也不能不做事...只好走偏們...這時多核心還滿好用的
一邊做多核一邊做製程...製程突破了...而舊製程也賣爛了....
那新產品就會出來
好像近年來都如此.....

不過
世界排名在前面的超級電腦
哪台不是陣列式的?
這對壓出高運算能力是目前很好的方法....不管經濟面或是效能來說

有什麼劃時代的CPU新技術可以讓人期待嗎?....


期待喔, 有啊...
4G, 5G 不值得期待啦,
請上 Google 搜尋 1000GHz

Chernsha wrote:
為何不往4GHz 、5GHz、6GHz方向發展呢?


這邊要談些歷史了......

當年I社有個Netburst架構
目標很簡單
就是發揮該製程的時脈極限
但是與同樣是1Ghz的P6相比
Netburst的效能卻只有P6的70趴而已
沒關係,既然Netburst可以容易拉高時脈
那只要把時脈拉到1.5Ghz的話就能夠把損失的效能彌補回去了

當年Pentium4誕生時雖然效能輸給同時脈的Pentium!!!
但是I社降低Pentium!!!的宣傳
開始大力宣傳Pentium4的高時脈讓低效能缺點淡化
也因此讓CPU時脈沒麼高的A社提出了PR值

Netburst雖然有許多缺點
像是die size過大以及耗電量過高
但是只要時脈高到一定程度就可以把缺點忽視掉
而讓Netburst的優點顯現而出(簡單的說是轉檔的運算速度)
理論上來說I社的作法不能算是錯誤的

首先是Netburst第一代Willamette
時脈為1.3Ghz到2.0Ghz
似乎是成功贏過K7
只是付出了許多代價
Netburst實在是太貴了
.18製程的die size太大而且當年最大只有八吋晶圓廠
更何況用的還是傳說中的Rambus
即使效能好過K7
但是整體售價影響到了銷量

接著是Netburst第二代的Northwood
基本上是將Willamette改成.13製程並加些新功能
時脈為1.4Ghz到3.4Ghz
受惠於.18製程變成.13製程
價格開始降低
相關衍生產品開始大量出現
耗電量也比Willamette來的低

然後是Netburst後期的Prescott
時脈為2.13Ghz到3.8Ghz
在Northwood到達與理論值差不多的3.4Ghz後
I社要研發出一種讓理論時脈能夠更高的晶片
並藉由製程微縮讓時脈再提升到更高
而結果做出來Prescott效能沒有比Northwood好到哪裡去
本來該大幅提升的時脈一樣也沒表現多少
從Northwood到Prescott只有讓時脈從3.4Ghz變成3.8Ghz
這樣小幅的進步有跟沒有一樣
反而讓缺點更加明顯了
溫度與耗電量大幅提高
同時也出現因為散熱而產生的風扇噪音問題

講到這裡就要提一個I社的黑歷史了
就是傳說中的Tejas
在Prescott誕生前Tejas就已經開始在研發
目標是比Prescotts還要能夠到達更高的時脈
也就是Prescott的加強版
所以說Prescott的特色Tejas全都會有
譬如說Prescott已經很高的溫度
到了Tejas只會變更高

來看看2003年I社所定的計畫
Prescott最高時脈到達4.8Ghz
而同樣是90nm製程的Tejas將會從4.4Ghz起跳
2005年Tejas進入65nm製程後
Tejas將由5.6Ghz起跳
最高達到9.33Ghz
2006年發表時脈為9.6Ghz的Nehalem
當Nehalem進入45nm製程後時脈可以到達10.2Ghz

看起來很棒吧
比起樓主所題的6Ghz來說
I社在2003年就已經把記畫定到突破10Ghz了
可是實際上這份計畫裡實現的部分只有製程演進而已(I社的確是製程能力恐怖......)
到現在仍是看不到預設時脈超過4Ghz的cpu(A社預設時脈就突破4Ghz的Phenom FX到底什麼時候要出來啊)

Prescott目標失敗後Tejas也胎死腹中
Tejas為什麼消失在歷史之中呢
雖然是因為有不少的問題
其中最現實的就是溫度與耗電量問題了
Prescott很熱大家都知道
那麼身為Prescott加強版的Tejas可以稍微推算一下
Tejas在4.4Ghz的耗電量可試著用Prescott超頻到4.4Ghz來推算(假設能超到的話)
然後再加點核心電壓並把溫度提高一點就是了
至少要250W跑不掉
和Prescott的3.8Ghz相比效能只有1.16倍
但是功耗卻變成2.17倍
這樣說的話
要使用合理的電源供應讓Tejas能夠正常工作根本是不可能的事情

有個流言是說LGA775原本是設計給Tejas專用的
所以LGA775又叫做Socket-T
為了Socket478無法負擔的Tejas供電量
於是誕生了LGA775
否則對於Prescott來說Socket478供電量便已足夠
Tejas消失後LGA775才變成那時I社雙核心專用

也許是I社終於認清了效能和功耗的真正意義
再加上Prescott預計跑到4.8Ghz實際卻只有到3.8Ghz的失敗
於是I社放棄硬上Tejas
而讓Tejas消失在歷史中
也還好I社當年沒有完全把P6扔掉
後來變成了現在的Conroe

如果那時候I社真的成功
現在大家都可以至少用7Ghz的CPU
也許世界會變得更美好
但現實上I社對於高時脈的走法失敗了
變成了現在的時脈都不高的情況
Hiro hyn hi^dh ab 'wanath......
只能說~ 懂得就懂~ 不懂還是不懂~

不懂還用責備的語氣寫標題~

我就真的不懂了~
時脈還是有提升的阿!

以C2D為例,最初的E6300時脈才1.8X G,現在的E8600 有3.X G,不是提升了將近1倍嗎?


如果我要買,一定也是買四核的... 可以同時處理比較多工作
taiwan2008 wrote:
super computer 的 cpu 是多少 ghz ??


目前小弟有帳號的 cluster 一共有 7,832 顆 Quadcore AMD Opteron 2.1 GHz,所以
一共有31,328 個核心。每個 node 有8GB DDR2-800 的記憶體。SeaStar2 router 最
高頻寬可以到每秒 45.6 GB。

前一陣子這組機器做了一次升級,升級後一共有 18,688 個 computing node,每個 node
有兩顆 Quadcore AMD Opteron 2.3GHz 的處理器核心,所以一共有 149,504 個核心。
每個 computing node 配有 16GB DDR2-800 的記憶體。

目前 NCSA 正在蓋新的 cluster,名字叫做 Blue Water。預計一共會有超過 200,000 個
處理器核心,每個核心是以 IBM Power 7 為架構。




taiwan2008 wrote:
目前問題是 所有 program 不是對 parallel 方式來 coding
所以 4 core CPU 跟本沒有 達到 4 core
最大問題是軟體


就像我在第三頁提到的,目前 cluster 應用最大的 bottleneck 是
資料流量跟不上處理器的速度,所以 cpu 時脈再高意義也不大。
很多時候沒有 optimized 過的 mpi 程式只會讓一堆 cpu 在 idle
等資料進來,完全沒有發揮作用。


Zachil wrote:
時脈不重要...別騙人了
Intel要是做的出5GHz以上的CPU, 早就獨占市場KO AMD了)


沒有人說時脈不重要,很多人也說了:周邊的頻寬跟不上處理器的速度,
cpu 時脈再高也只是白白浪費 cpu 的效能,拿來煎蛋可能效率還比較高一點。


前面提過了,目前的另外一個趨勢是 data parallization,目前在此地挺熱門的
一個研究方向是用顯示卡的 GPU 來做平行運算,這方面 nVidia 開發的很起勁。
但對於科學社群來說,還是比較希望能有 open source 的 CUDA。
You don't take a photograph, you make it. - Ansel Adams
不用討論了
人家要賺錢
不然自己做

以上隨便亂說= =
  • 13
內文搜尋
X
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 13)
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?