OCP峰会:PCIe SSD版本的Open Vault存储机箱,没有了SAS的双端口

 

这款PCIeJBOD由Facebook资深华人工程师Mike晏勇操刀,它是如何在30个3.5寸硬盘位中塞入60个SSD呢?...

点击上方“企业存储技术”可以订阅哦
正值今年OCP(Open Compute Project,Facebook发起的开放计算项目)峰会期间,记得去年春季我撰写过3篇相关的东西:

《OCP开源硬件1:IP硬盘&存储密度》(严格说应该写以太网硬盘)

《OCP开源硬件2:SMR硬盘技术路线之争》

《NetBRIC S5:“另类”设计的全闪存阵列》

其中前两篇,是用opencompute.org网站上的多份资料整理而来,特别是第二篇SMR硬盘的下了比较大的功夫,攒出一份自认为还凑合的ppt,也是借着这个机会把相关的概念整明白了。
今天的内容,来自这两天OCP峰会相关的资料。如上图,本文引用资料中的Lightning硬件系统,是由Facebook资深的华人工程师Mike晏勇操刀,因此我也重点看了一下。



简单说Lightning就是一个2U(Open U)PCIe JBOD存储扩展机箱,里面安装NVMe SSD。我们注意到它前端连接主机的PCI Switch模块没有冗余设计,也就是说存在单点故障。应该是Facebook有跨机箱/抽屉的多副本或者纠删码存储机制(文件系统)来保证数据的可用性。

大家看看这款机器像不像下面我在3年前写过的另外一个?

截图来自《解析DSSD对象机制:内存APIAtomic读写再现
Lightning To Host Connection Block Diagram
上图中描绘了Lightning PEB上的4个PCIe上行接口与主机之间的连接示意,主机一端的PCIe Re-timer应该是用于PCIe信号放大和保证完整性的。PCIeSwitch连接SSD的下行接口可以配置为8个x8(在这款机箱中没有用到)、15个x4或者30个x2。再加上红圈部分省略的4个x4上行PCIe,最多用到96 lane PCIe,目前的PCIe 3.0 Switch芯片最高lane数量应该就是96和97。

Lightning PCIe Block Diagram, x4 connections
这张图很好理解吧?配置15个U.2(SFF-8639)PCIe/NVMe x4 SSD的连接拓扑,在原来3.5英寸驱动器位上用托架固定2.5寸SSD。



U.2(SFF-8639)接口现在也是标准了,这个连接器形状是由SAS硬盘接口演变而来。

扩展阅读:《IDF2013:PCIe SSD趋势——2.5英寸热插拔》,链接:http://storage.chinabyte.com/442/12589442.shtml

Lightning PCIe Block Diagram, x2 connections
这张图我觉得比较有趣,相当于PCIe Switch到每个驱动器位的连接拆分成2个x2,上面安装2个M.2 PCIe SSD(图中文字应该有小笔误)。这样每抽屉/整个机箱支持的SSD数量就由15/30翻倍达到30/60个。



这就是配合M.2 SSD的转换托架,2280应该代表SSD PCB的长度为80mm,22110就是加长的110mm。

总结

其实Lightning的设计思路并不复杂,时间有限明天还要上班,我就写到此为止吧。

在《企业存储技术》发表的上一篇文章里,我尝试了一把打赏功能,结果还真有一位朋友给了赏钱。虽然是个娱乐,但我还是很感谢这位以前一起打球的朋友!同样感谢每一位在文章下面留言、点赞的朋友给我支持:)

:本文只代表作者个人观点,与任何组织机构无关,如有错误和不足之处欢迎批评指正。进一步交流技术,可以加我的QQ/微信:490834312

 

重要提示:请在本公众号发布2天后,才能转载本文,有疑问请联系作者。尊重知识,请必须全文转载,并包括本行及如下二维码。

 

感谢您的阅读和支持!《企业存储技术》微信公众号:huangliang_storage



长按二维码可直接识别关注
点击下方“阅读原文”,查看更多历史文章

↓↓↓


    关注 企业存储技术


微信扫一扫关注公众号

0 个评论

要回复文章请先登录注册