我也有一個very large table in SQL Server(2008 R2開發版),它有一些性能問題。哪個數據庫(DBMS)可以最好地處理大型表?
我想知道如果另一個DBMS會更好地處理大型表格。我主要只考慮以下系統:SQL Server 2008,MySQL和PostgreSQL 9.0。
或者,正如上面提到的問題所迴避的,表格大小和性能主要是指標和緩存因素?
此外,更大規範化會提高性能還是阻礙呢?
編輯:
下面的評論之一,我的含義是模糊的。我有超過2000萬行(20年的股票數據& 2年的期權數據),我試圖找出如何提高一個數量級的性能。我只關心閱讀/計算性能;我不在乎寫作表現。唯一的寫入是在數據刷新期間,而這些是BulkCopy。
我已經有一些索引,但希望我做錯了什麼,因爲我需要加快很多事情。我也需要開始查看我的查詢。
提供的評論和答案已經幫助我瞭解如何開始分析我的數據庫。我是一名程序員,而不是DBA(因此Marco的書推薦是完美的)。我沒有那麼多的數據庫經驗,而且我以前從未對數據庫進行過配置。我會嘗試這些建議並在必要時報告。謝謝!
沒有「最好的」。簡單地說「足夠[足夠]滿足功能需求和資源限制」。此外,這個問題是如此令人不安的模糊 - 建立一些測試用例,檢查查詢計劃,未使用/超額索引,集羣,使用滑動窗口的好處(如果有的話)等。 – 2010-07-13 21:14:49
做什麼時會出現性能問題?讀?寫作?此外,也許定義大。許多行?很多專欄?都?你使用分區嗎?你爲什麼不以自己的表格結構,數據和查詢爲基準來衡量自己? – 2010-07-13 21:16:47
一些更多的資源:http://stackoverflow.com/questions/761204/what-resources-exist-for-database-performance-tuning – 2010-07-13 21:51:26