GbE 超高速乙太網路發表這麼久,都已經滿普及了,但是使用 GbE 接口的 NAS ,據報告指出,傳輸速率多數還是在 50 MB/s 以下。
GbE 的最高速率理論上明明是 125 MB/s ,現在新型硬碟的內部傳輸速度也有到最大 120 MB/s 、平均近百 MB/s 的效能了,並不像以往卡在硬碟讀寫速度要靠 RAID 0 才能餵飽線路,那何以目前 GbE 環境下的檔案傳輸速度,要高過 50 MB/s 還是那麼困難呢?時下 GbE 環境的檔案傳輸速度瓶頸究竟在哪?又該如何突破呢?
使用較好的網路卡,可以把 GbE 環境的檔案傳輸速度提高到多少 MB/s 呢?
但現實環境一個網路不會只有2 node
所以一定用CSMA/CD技術下的碰撞情形 效率一定會打折 (這牽涉到排隊理論和其他東西 研究所課程吧)
加上Network Packet還要加上header / tail / CRC .... 所以真正的有效payload只有80%上下
另外HD I/O速度也只是內部傳輸速度
其實還要考慮檔案放置的位置(HD製造商data block interleaving algorithm和技術就重要了)
上層OS是否能即時消化(OS Filesytem buffer cache)
再加上網卡自己的cache control效率和error handling能力
以上每一樣因素都在拼命將理論數值打折
這就是現實啊
分析影響NAS效能的因素,我們可以依據影響的程度來排序:RAID控制器>交換器>伺服器調校>網路卡,這個順序可作為評估採購的參考,例如:RAID控制器會是最首要的考量點,選擇硬體RAID控制器的效益會比選擇網路卡廠牌來得重要...在某些情況下,交換器對NAS系統整體效能的影響,甚至會遠大於其他的因素...(恕刪)上面提到的「影響 NAS 效能的因素」順序現在還適用嗎? 硬碟能提供的讀寫效能仍然是目前 GbE 環境中最大的瓶頸嗎?
把HP StorageWorks NAS 2000S接至10/100BASE-T的網路埠,在相同的Asus GigaX 2048交換器之下,最大的資料傳輸率為227.04Mb/s;連結GbE網路埠的資料傳輸率則是745.56Mb/s,效能差距超過3倍...(恕刪)以上面那段描述來說,745.56Mb/s 已經接近 100 MB/s 了呢!能有這種速度已經很好了呀!更何況是五年前的數據,難道五年後的今天,要接近 100 MB/s 還是那麼不容易嗎?
1DX + 35L、85L II、135L、 16-35L II、28-70L、70-200L II
Bentley wrote:也就是說兩臺電腦對連,不經由交換器的話,是能夠接近理論上限嘍?我另外爬到一篇 2005 年的舊文提到:
沒錯,我用netperf 對smartbit做點對點傳輸可達960Mb/s,多port同時進行就不行了...(恕刪)
Cat 6 & Cat 5e 最大差別在於線材所能夠承受的最大頻寬,以目前的硬碟傳輸率來說還無法高過 90MB/sec, 所以使用 Cat 5e 就很足夠了。需要用到 Cat 6 的環境, 除非特殊需求, 否則等過個五年看看有沒有機會吧 :)...然而現在單一顆 SATA 硬碟已經可以測出最高超過 120 MB/s、平均接近 100 MB/s 的傳輸效能,NIC 採用 PCI-Express 就算是 x1 也有最高 250MB/s 的單向傳輸頻寬,以上兩者對 GbE 的理論上限 125 MB/s 都不太算是瓶頸了,如果再使用兩臺電腦直接對連,去除 Switch 對傳輸效能的影響的話,傳輸速率大約可提高到多少 MB/s 呢?
PCI-32 33MHZ 頻寬 132MB/sec,VGA 多半的 PC 都已經使用 AGP Bus, AGP bus 頻寬已經從北橋獨立,ATA-66 以上也獨立, USB 2.0 也是獨立通道, Keyboard/Mouse 也不是使用 PCI Bus 通道, 扣除 Audio 部份, 在 GLAN 可以吃掉 60% 以上 PCI 頻寬的前提之下,才會勉強出現 PCI-32 33MHZ Bus 頻寬不足的情況...
順帶一問,現代主板內建的 GbE 接口,都已經內建 Auto MDI / MDI-X 功能,兩臺電腦對連不管有沒有跳線都可以正常使用了嗎?
內文搜尋




























































































