Facebook 的服務即將變得越來越複雜,需要消耗越來越多的電力。社群巨頭必須為這樣的未來做好準備。現在,它的資料中心電源使用效率已經達到了1.06—1.08的水平,甚至比Google的資料中心能效還要高。它是怎麼做到的呢?
在瑞典呂勒奧的資料中心園區內,Facebook實現了其Open Compute Project(OCP,開放運算計畫)勾勒的伺服器和資料中心設計,在這裡伺服器、供電和UPS都是定製的設計。
你在享受著觀看朋友Instagram照片的愉悅?很喜歡親人Facebook上貼出新出生的小孩?你要靠Messenger跟在海外居住的同學朋友聊天?或者喜歡Oculus Rift帶來的那種沉浸式體驗?
如果沒有那幫人開發、建造和維護著Facebook位於全球各地的資料中心基礎設施的話,這一切都不可能實現。
2009年,當Facebook的用戶數只有現在18億的一小部分的時候,而且還沒有收購或者開發Instagram、Messenger、Whatsapp以及Oculus的時候,該公司只有一個資料中心,這個資料中心就在它的矽谷總部內,裡面真的就只有一組伺服器。
不過正如Facebook負責工程的副總裁所說,該公司很快意識到自己需要擴張到第二個位置,也即是東海岸。並且更多的擴張也在此後迅速進行。
Parikh 說:Facebook所做的一切「都是高度相關的。」不是說加州這邊有一批用戶,所以就把這批用戶放到加州的伺服器,然後針對其他地區的用戶也是類似的處置。所有用戶都跟公司所做的一切事情以及所有其他用戶連接到一起,而這給公司帶來了重大的工程挑戰。
在那段日子裡,Facebook仍然還需要完全依靠第三方硬體和主機託管設施來放它的伺服器基礎設施。但隨著時間轉移,它已經放棄了對外部技術和設施的依賴,從2009年開始,Facebook就在建設自己的資料中心網路,它認為自己的這種基礎設施是業界能效最高的資料中心之一,這種設施對於為龐大的用戶群提供日常體驗是必不可少的。
怎麼做呢?其想法是讓Facebook的工程師以及開發其app的人能夠開發新服務,然後迅速部署到整個用戶群。
比如說Facebook Live,這個原先只是一個駭客馬拉松計畫,但在5個月的時間內就推向了整個Facebook社區。
Parikh說:「我們很珍視這個,這是我們文化的一部分,也就是快速行動,然後把體驗快速交付給一個非常龐大的社群。」
更複雜的應用要求更複雜的基礎設施
隨著Facebook開始開發自己的資料中心,把自己2011年在俄勒岡州Prineville建設的那種基礎設施如法炮製過去往往是很有誘惑的一種做法。實際上Parikh說這已經變成公司內部的一個玩笑,說公司需要做的就只有「定型/漂洗/重複」。
但隨著公司開始透過Facebook服務以及其他app提供更為沉浸式的體驗,它意識到自己既需要提升新的資料中心的電力和能源效能以維持經濟效率,並且做出的不過時技術,從而能滿足日益依賴人工智慧和機器學習的系統的未來需求。
Parikh指出,畢竟,在2014年能夠平穩作的系統,未必就能應付2017年的事情。
他說:「我們不希望謹慎行事太過保守,也不會對我們思考技術的方式感到自滿。」
綠色資料中心
儘管Facebook本身的app就有18億用戶,但它的其他app用戶數加起來甚至更多,至少已經有25億。所有這些都需要一個全球的資料中心網路來提供空前的能力和效率。
Parikh說Facebook現在「正在思考如何建設配套,使得它對所有應用服務都具備可伸縮性和彈性,並且為類似影片直播以及360°影片等新的沉浸式(服務)做好準備。」
目前Facebook在全球有著7個資料中心——其中5個在美國,分佈在俄勒岡、愛荷華、德州、新墨西哥以及北卡羅萊納,此外在愛爾蘭和瑞典也各有一個。儘管公司不願分享未來的數字,但這個數字還在迅速增長。Parikh說Facebook通常會在12到18個月內破土動工一個新的資料中心。
隨著網路的發展,頻寬需求也在不斷擴大。Facebook正在「非常積極地推進」資料中心之間每秒100GB的互聯速率,而且已經在嘗試如何把這個頻寬提高到400Gbps。
即便頻寬需求提高了能源使用量,Facebook仍然致力於建設依賴綠色電力的資料中心網路。去年,該公司稱預計到2018年採用50%的清潔和可再生能源。其計劃是,在愛荷華州、德州、愛爾蘭、瑞典以及新墨西哥州的設施將100%利用風能、太陽能或者混合電力能源。
可行方式之一是一開始就限制電力用量。為了做到這一點,Facebook稱自己已經開發出平均浪費電量只有6-8%的系統,相比之下,業界的標準是50-60%。而Google聲稱自己的數字是12%。
該公司對自己的能源使用效率(PUE)數字很有信心,甚至自信到敢即時展示其每一個資料中心的PUE數字。
實現這麼高的能效其主要辦法之一,是設施在設計上就考慮了從外面引入空氣來對伺服器激進型製冷,而不是靠昂貴並非耗電的空調系統。然後再把伺服器產生的熱量排出到建築物外面。在更冷一點的氣候條件或者季節下,其中的一部分暖氣還可以回送到建築物內,減少了對加熱器的依賴。
Facebook很清楚自己的用戶群和所提供的應用及服務的複雜性還會繼續發展,如果自己沒有為這一增長做好準備的話,資料中心就跟不上需求變化的步伐。
公司的用戶期望的是高性能,他們不會管你使用的工具是什麼,但如果資料中心基礎設施沒有好的適配性和擴展性的話,就無法保證實現Facebook的核心使命:讓全世界的人們與家人朋友分享自己的生活,讓地球成為連接更加緊密的地方。
- 本文來自翻譯:www.fastcompany.com
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!