如何評價阿里云的麒麟液冷服務器?
首先,這個PUE確實diao
要知道北京、上海等地都規定數據中心的PUE不得高于1.5,而我國數據中心的PUE平均值大約在2.5左右,貌似阿里把PUE做到了1.03,這個數字對業內還是很震撼的
這幾年,大型數據中心都在往低溫的地理位置建造
主要原因就是服務器的散熱成本已經很大程度上影響到整體成本
除了環境溫度低,地價、電價便宜也是主要因素,Facebook把數據中心建在了離北極圈不到100公里的位置,就是出于三方面綜合考慮
摩爾定律差不多還能延續個10年,計算的性能基本壓榨得差不多了,最佳的辦法就是找另外一條出路,比如量子計算。
同樣的道理,數據中心越建越大,邊際成本也越來越高
其實在DIY領域,這種浸沒式的液冷10多年前就有應用了,但做到服務器集群或者說是數據中心還是頭一次
阿里向來是業務推動技術創新的
所以我想這個解決方案應該是基于阿里對數據中心的強烈需求
谷歌有TPU,阿里有麒麟,一個正向思維,一個逆向思維,殊途同歸
為這些改變世界的科學家點贊