我正在研究需要支持計算綁定深度分析以及I/O綁定大數據的大型集羣(10k核心)的維度,並且我想聽聽一些建立了大數據集羣的人員他們是什麼樣的用於計算計算量與本地磁盤存儲量。我假設一個直接連接的存儲架構,如在線MapReduced數據倉庫所倡導的那樣,我可以將大約每臺服務器大約2TB作爲直接連接的存儲設備(比如雙Xeon 5650),看看一些中等密度的刀片設備anno 2012, 。這會給我每個2TB存儲100TFlops或5:1的比例。低密度設備可以低至1:1,高密度設備可高達10:1。大規模Hadoop集羣的計算和存儲容量之間的典型關係是什麼?
我很想聽聽其他大數據人員正在運行的比率。
第三篇文章有答案 – Ravenwater 2012-01-13 21:38:27