在瑞典吕勒奥的数据中心园区内,Facebook 实现了其 Open Compute Project(OCP,开放计算项目)勾勒的服务器和数据中心设计,在这里服务器、供电和 UPS 都是定制的设计。
你在享受着观看朋友 Instagram 照片的愉悦?很喜欢表亲 Facebook 账号更新的新出生的小孩?你要靠 Messenger 跟在海外居住的同学朋友聊天?或者喜欢 Oculus Rift 带来的那种沉浸式体验?
如果没有那帮人开发、建造和维护着 Facebook 位于全球各地的数据中心基础设施的话,这一切都不可能实现。
2009 年,当 Facebook 的用户数只有现在 18 亿的一小部分的时候,而且还没有收购或者开发 Instagram、Messenger、Whatsapp 以及 Oculus 的时候,该公司只有一个数据中心,这个数据中心就在它的硅谷总部内,里面真的就只有一组服务器。
不过正如 Facebook 负责工程的副总裁最近解释那样,该公司很快意识到自己需要扩张到第二个位置,也即是东海岸。并且更多的扩张也在此后迅速进行。
Parikh 说:Facebook 所做的一切“都是高度互联的。”不是说加州这边有一批用户,所以就把这批用户放到加州的服务器,然后针对其他地区的用户也是类似的处置。所有用户都跟公司所做的一切事情以及所有其他用户连接到一起,而这给公司带来了重大的工程挑战。
在那段日子里,Facebook 仍然还需要完全依靠第三方硬件和主机托管设施来放它的服务器基础设施。但随着时间转移,它已经放弃了对外部技术和设施的依赖,从 2009 年开始,Facebook 就在建设自己的数据中心网络,它认为自己的这种基础设施是业界能效最高的数据中心之一,这种设施对于为庞大的用户群提供日常体验是必不可少的。
怎么做呢?其想法是让 Facebook 的工程师以及开发其 app 的人能够开发新服务,然后迅速部署到整个用户群。
例子?比如说 Facebook Live,这个原先只是一个黑客马拉松项目,但在 5 个月的时间内就推向了整个 Facebook 社区。
Parikh 说:“我们很珍视这个,这是我们文化的一部分,也就是快速行动,然后把体验快速交付给一个非常庞大的社区。”
更复杂的应用要求更复杂的基础设施
随着 Facebook 开始开发自己的数据中心,把自己 2011 年在俄勒冈州 Prineville 建设的那种基础设施如法炮制过去往往是很有诱惑的一种做法。实际上 Parikh 说这已经变成公司内部的一个玩笑,说公司需要做的就只有“定型/漂洗/重复”。
但随着公司开始通过 Facebook 服务以及其他 app 提供更为沉浸式的体验,它意识到自己既需要提升新的数据中心的电力和能源效能以维持经济效率,并且做出的不过时技术,从而能满足日益依赖人工智能和机器学习的系统的未来需求。
Parikh 指出,毕竟,为 2014 年规模平稳运行准备的系统未必就能应付 2017 年的事情。
他说:“我们不希望谨慎行事太过保守,也不会对我们思考技术的方式感到自满。”
绿色数据中心
尽管 Facebook 本身的 app 就有 18 亿用户,但它的其他 app 用户数加起来甚至更多,至少已经有 25 亿。所有这些计算需求都需要一个全球的数据中心网络来提供空前的能力和效率。
Parikh 说 Facebook 现在“正在思考如何建设配套,使得它对所有应用和服务都具备可伸缩性和弹性,并且为类似视频直播以及 360°视频等新的沉浸式(服务)做好准备。”
目前 Facebook 在全球有着 7 个数据中心——其中 5 个在美国,分布在俄勒冈、爱荷华、德克萨斯、新墨西哥以及北卡罗莱纳,此外在爱尔兰和瑞典也各有一个。尽管公司不远分享未来的数字,但这个数字还在迅速增长。Parikh 说 Facebook 通常会在 12 到 18 个月内破土动工一个新的数据中心。
随着网络的发展,带宽需求也在不断扩大。Facebook 正在“非常积极地推进”数据中心之间每秒 100GB 的互联速率,而且已经在尝试如何把这个带宽提高到 400Gbps。
即便带宽需求提高了能源使用量,Facebook 仍然致力于建设依赖绿色电力的数据中心网络。去年,该公司称预计回到 2018 年采用 50% 的清洁和可再生能源。其计划是,在爱荷华州、德克萨斯州、爱尔兰、瑞典以及新墨西哥州的设施将 100% 利用风能、太阳能或者混合电力能源。
可行方式之一是一开始就限制电力用量。为了做到这一点,Facebook 称自己已经开发出平均浪费电量只有6-8% 的系统,相比之下,业界的标准是 50-60%。而 Google 声称自己的数字是 12%。
该公司对自己的能源使用效率(PUE)数字很有信心,甚至自信到敢实时展示其每一个数据中心的 PUE 数字。
实现这么高的能效其主要办法之一,是设施在设计上就考虑了从外面引入空气来对服务器激进型制冷,而不是靠昂贵并非耗电的空调系统。然后再把服务器产生的热量排出到建筑物外面。在更冷一点的气候条件或者季节下,其中的一部分暖气还可以回送到建筑物内,减少了对加热器的依赖。
Facebook 很清楚自己的用户群和所提供的应用及服务的复杂性还会继续发展,如果自己没有为这一增长做好准备的话,数据中心就跟不上需求变化的步伐。
公司的用户期望的是高性能,他们不会管你使用的工具是什么,但如果数据中心基础设施没有好的适配性和扩展性的话,就无法保证实现 Facebook 的核心使命:让全世界的人们与家人朋友分享自己的生活,让地球成为连接更加紧密的地方。
CIO之家 www.ciozj.com 公众号:imciow