這篇報導在 http://www.ithome.com.tw/itadm/article.php?c=82998
我想為了強調新的記憶體引擎,其實這也不是什麼多"新"的技術啦,
不過這類廣告型的,大多會忽略歷史,這先不談.
我想討論的是這裡的一段描述: 只要單一資料表的資料量超過十萬筆,就會出現系統資源釋出緩慢而影響處理效能,導致需要重新開機來因應,除此之外,宏碁還另外部署了Hadoop環境來進行防火牆Log的排序運算,然後再將運算結果寫入SQL Server 2008,每當寫入資料量達到2千萬筆時,就會因為硬碟I/O量太大而當機。
個人覺得,之前的版本,也許有缺點,不過沒看到他們的硬體配置,
參數配置等相關資訊,也很難評估;不過10萬筆就要採用"重開機",
個人很難想像,這種情境.
不知大家有何看法??
這個問題很難回答...
畢竟每一筆資料,該筆資料的寫入的效能與該資料庫的結構有關係..
如,一筆資料有10個index與只有1個叢集index,寫入的效能上1筆index的效能當然會比較快。
而每一筆資料中,每一個欄位的資料格式,格式內容不一樣,寫入的效能也會不一樣(如chat、varchar)。
這些些許的差異,在少量資料的寫入時或許沒什麼感覺,但是到了十萬筆,兩千萬筆時的寫入,就會有關係了!
不過,總而來看,SQL的工作安排本來就是長時間不間斷的工作,中間甚至會有高附載的瞬間運算出現,所以資源的安排對於SQL來說應該都是最基本的課題。如果只是單一僅10萬筆的作業而導致整個伺服器資源出問題而必須重開機解決,那真的是凸顯環境的設定安排上出現了問題。
在這個案例中,雖然有很多隱性的參數無法得知,但這一台SQL SERVER的設定上無法應付突然的高附載運算,有可能是虛擬機器的環境設定,硬碟可能是採取網路硬碟如iSCSI類似的設定,而非本機磁碟,也有可能x64的OS搭x32的SQL Server....
(結果以上全錯~哈哈)
總而言之,很多問題都被歸類於是軟體的問題,使用新軟體新預算法可以增加效能,但這就像是感覺效能不佳,卻只死命的增加記憶體,更換CPU,卻不針對問題點去改善,有點浪費錢的做法。