• 6

Z117 Quad SSD 安全性問題

grathior wrote:
Z117 的MB 已...(恕刪)


什麽??? z116和117接口不同嗎??
話說哪裡可以看到圖片,畢竟心目中還是追求ssd+光碟機外接hdd的理想配備。。
joey_hung wrote:
潛水爬文了很久,看到...(恕刪)


想請教一下,您說的不到2年,開機要3分鐘
那存取的速度衰退了多少呢?
還有,你有試著重灌系統嗎?重灌完速度會變得快一點嗎?
請您幫忙解答一下
joey_hung wrote:
潛水爬文了很久,看到...(恕刪)


參考看看吧~~..8年就好~那作這些SSD 的廠商不就要倒了...
..請考慮商業角度.PLM...

又不是大同電鍋...

google 參考先前其他人討論的部份

這指的還是有 Wear leveling...RAID 後,可是沒有了..加上要手動作~~


joey_hung wrote:
潛水爬文了很久,看到...(恕刪)


你所引用的數據是指SSD具有完美的Wear leveling機制才可能,
對於沒有Wear leveling的SSD, 檔案都會被固定在相同的區塊,
所以某些區塊拼命的被讀寫 (例如 page file),
有些區塊永遠不會被寫入 (例如 OS 系統檔案)
導致有些區塊已經壞了, 有些區塊幾乎沒被使用過,
萬一壞的是重要資料, 那就損失慘重了,
所以 SSD 的 Wear leveling (平均塗寫) 技術是很重要的功能.
cslin2007 wrote:
你所引用的數據是指SSD具有完美的Wear leveling機制才可能,
對於沒有Wear leveling的SSD, 檔案都會被固定在相同的區塊


因為一直沒有找到這個SSD IC的型號
我對z117的ssd說 "完全沒有" 做 wear-leveling 產生相當大的疑慮
因為若是這樣在 sony 內部測試的時候一定鐵不過..
台灣廠商都要拿去burn-in個一個月 (正常敬業的話)
龜毛的日本人會這樣隨便嗎? (當然我也不知道是不是現在日本人變得很隨便,從車子的例子看起來)

當然因為它的大容量 256G
要測出問題還要看怎麼測

一般來說會先塞個95%滿 然後一直增減改寫小檔案
(如果是整個寫滿再移除的測試方法, 相同時間容量越大寫到同一塊區域的次數越少,那這樣說測過就不準)
固定的檔案配置表區一定會重複寫很多次
所以有問題一定會出現

我個人在還沒找到資料前會先相信他有做 wear-leveling
但是不夠好
不過就算很爛
只要在保固期出現機瘟
那 ssd ic 廠商會死得很慘以外, sony 應該也不會繼續拿同一家的 ssd 給你吧?
只是這段期間資料要自己小心就是
抱歉

又來亂講話了

大家還是放心

反正會「召回」

現在流行

我是找不到關於z117 是否wear-leveling的資料
但是一般的SSD在設計時就保留一些不計算入容量的額外 blocks,
當有block使用到極限時,這些預留的 blocks 去充當生力軍,藉以延長SSD的壽命
所以某些區塊拼命的被讀寫快要到1萬次的時候,接下來就會被寫到這些保留地區了
不然只要在同一個block 寫1萬次,理論上會寫不進去才是,
但是我試結果的,卻不是這樣,我用簡單的script 寫了一個迴圈(超過一15000次以上),一直複寫同一個檔案(4K),也沒發生寫不進去的狀態
可見他是會被搬到保留區塊的,但是保留區塊有多大,可以撐多久,我就不知道了
不然你的機器快過保固時,
找個程式來操你的硬碟,只要固定寫某些個block 一萬次,讓他們變成無法寫入,這樣sony 我看光煥SSD,就跟豐田汽車一樣的下場了
不過我想是沒這麼容易的啦!!!
最近我老闆給我一個全新的SSD,目的就是要操掛他,來實驗SSD到底壽命有多長,因為有客戶要在大型伺服器的機器上想用SSD,來取代現有的SAS 硬碟,客戶希望我們提出一份測試報告,證明SSD的可靠度
我個人認為要操掛SSD,應該是在好幾個月後,甚至是年的事啦!!!,
OS 是Linux 上面跑Oracle 10g,每天異動資料異動約500G(from archive log list)
等他真的掛掉了,我再來向各位報告狀況
joey_hung wrote:
我是找不到關於z11...(恕刪)



不對等的關係...Z117 的Quad SSD 64G
跟您要測的單顆~~還有放在Storage 上的...是三種...

我手上剛好有二座EMC Symmetrix Storage V-Max.....快.但是掛的也快...

您老闆應該不擔心.萬一客戶資料損毀時.要多少人要去罰站...反正只是代理.有Storage 廠商在後面扛著..

寫500G...您的客戶。應該是金融行業~不過4K 同個File 很難測出一個合理的數據出來...
請問。內容有異動嗎~~..因為內容不去異動,它不會去搬.只是暫時性的掩蓋掉
建議您可以去看看SSD 的設計架構~~運作原理後,再寫符合的script去作壓力測試~~


影響的變數
1. 內容的異動/增減
2. 組態後的RAID 不支援Wear
3. 同時寫入的數目/Table
4. 同時讀取的資料庫/欄位
5. FC 板背頻寬
6. Storage Controll HA/STACK
7. SSD IOPS
8. 溫度

找個MS 的壓測工具吧...24HRs 測試
Exchange 2007 jetstress <---Z119 跑二天就掛了...(3/13 3/14)(估算照這個工具的搞法..一般人使用約1年到一年半後.效能會有很明顯的落差或損壞)

某銀行..為了個系統..硬體純Storage 就六七千萬...壓測完..平均一組Cluster 只能跑1400人~~沒產生任何的錯誤..
但是那是一小時而以...二小時要降到400人~~同時使用Storage 廠商提供的監控..每秒997mb~1231mb 在跑~...看那一堆的Log 我看了四天...

工具哩它很單純的作檔案寫入.讀出...寫滿..
grathior wrote:
2. 組態後的RAID 不支援Wear


這點我不太懂
如果單顆64G 有做wear leveling
就算組成 raid, 對單顆來說應該還是下達 logic r/w 指令
為何會變成沒有 wear leveling 了呢?

grathior wrote:
Z119 跑二天就掛了


請問這跟 117 的 ssd 類似嗎?
如果是的話那我不敢買 117了
pcking wrote:
這點我不太懂如果單顆...(恕刪)



簡單來說..自動的機制是..隨時隨機去作..RAID 它不知道要下給那一顆......


所以才會有手動下指令這件事~~
  • 6
內文搜尋
X
評分
評分
複製連結
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?