返回
ZStack实践汇 |如何构建“正确的”云平台存储
2019-11-24 17:15



从 2015 年到现在,ZStack 有一条宗旨一直没有变过,就是向客户交付稳定、可靠、高性能的云平台,这条宗旨在前几年让我们一直聚焦云平台本身,包括虚拟化、云网络、云编排、存储管理等等这些功能。

在这里面让我们头痛的,即使不是第一也能进前三的存在,就是存储管理

2.png

考虑到存储对业务的无比的重要性,以及我们作为一家创业公司的支持能力,我们一开始一直是基于一些开源的存储方案对客户提供服务:

1.     XFS,作为 RHEL 默认的本地文件系统,我们原本一直对 XFS 是比较信任的,但实际上 XFS 在使用过程中问题多多,我们帮客户绕过了很多坑,也在考虑别的替代方案;

2.    NFS,NFS 是一个对云平台很简单的方案,因为它屏蔽了很多存储的复杂性,用文件系统的方式提供了共享存储,使得我们可以用类似本地文件系统的管理方式管理共享存储,既简单又支持热迁移等高级功能,看似完美,但实际上 NFS 几乎是我们不推荐的生产用存储方案之一,细节将在后面讨论;

3.    OCFS2,当用户只有 SAN 存储,也无法提供 NFS 接口时,我们的选择并不多,此时 Oracle 的 OCFS2 成为一个值得青睐的方案,其优点是在小规模使用时基本上很稳定,部署后也可以使用文件系统的方式使用,但在性能、大规模的扩展性和部分功能(例如文件锁)上支持也并不完美;

4.    Ceph,基于 Ceph 可以提供很棒的存储方案,但 Ceph 相对复杂的部署运维对部分客户还是比较难接受,特别是在私有云中,很多客户习惯了 SAN 存储带来的性能和安全感,对他们来说也没有超大容量的需求或者随时需要灵活扩容,反而大厂商带来的安全感,或者能够将之前用在VMware 上的 SAN 存储继续用起来才是重要的。

综合考虑前面的各种存储,NFS、OCFS2 的不完美促使我们提供一个能够管理共享存储的存储方案,这个方案要能达到下面的要求:

1.     部署速度要足够快,ZStack 的部署速度一向是业界前列,我们的标准一直是对于 Linux 有基本理解的人能够在 30 分钟内完成部署,这个时间是包括部署主存储、镜像仓库的时间的。

2.    能够扩展到足够大的规模,根据 SAN 存储的性能,单个集群应该可以接管几十到上百的服务器(因为一般来说单个 SAN 存储能支撑的服务器数量有限)。

3.    性能能够完整发挥 SAN 存储的性能,IO 模式能够发挥 SAN 存储的 cache性能,对于 OCFS2 我们可以通过调整 block size来优化 OCFS2 性能,但如果在分层 SAN 存储上测试就会发现由于大 block size 带来的 IO pattern 变化,如果测试 4k 小文件随机写,性能并不稳定,无法像直接在物理机上对 LUN 测试前期全部写到高速盘上,带来了测试数据的不理想。

4.    高稳定性,与互联网、公有云业务不同,私有云均部署在客户机房,甚至是一些隔离、保密机房,这意味着我们无法像互联网环境一样执行“反复试错”的策略,我们无法控制用户的升级节奏,无法时刻监控运维存储状态,也无法再客户环境进行灰度测试、镜像验证。

最后,在2018 年我们决定自己开发一个面向共享块存储的存储方法,命名很直接就叫 SharedBlock。整个方案是这样的:

1.     基于块设备,直接基于块设备向虚拟机提供虚拟云盘,通过避免文件系统开销可以明显提升性能和稳定性;

2.    在块设备上基于 Paxos 实现分布式锁来管理块设备的分配和节点的加入、心跳、IO 状态检查;

3.    通过 Qemu 的接口实现对用户磁盘读写状况进行监控;

3.png


SharedBlock在推出后,应用在了很多的生产客户上,特别是可以利旧SAN 存储特点让 SharedBlock 快速部署在大量以往使用虚拟化的客户上。

后来随着 5G 和物联网、云端互联的发展,让市场迫切需要一个价格不高、可以简便部署、软硬一体的超融合产品,因此我们就在考虑一个两节点一体机的产品,通过和硬件厂商合作设计,可以实现 2U 的一体机包含足够用户使用的硬盘、独立的模块和双电冗余,我们希望能通过这个产品将客户的原本单节点运行的应用平滑升级到两节点备份,让客户的运行在轨道站点、制造业工厂这些“端”应用既享受到云的便利,又不需要复杂的运维和部署。这就是我们的Mini Storage

4.png

在开发这些存储产品的过程中,我们踩了无数的坑,也收获了很多经验。

下面先说说将存储做正确有多难,在今年说这个话题有一个热点事件是避不开的,就是今年的 FOSDEM 19' 上 PostgreSQL 的开发者在会上介绍了 PostgreSQL 开发者发现自己使用 fsync() 调用存在一个十年的 bug——

1.     PG使用 writeback 机制,特别是在过去使用机械硬盘的时代,这样可以大大提高速度,但这就需要定时 fsync 来确保把数据刷到磁盘;

2.    PG使用了一个单独线程来执行 fsync(),期望当写入错误时能够返回错误;

3.    但其实操作系统可能自己会将脏页同步到磁盘,或者可能别的程序调用 fsync();

4.    无论上面的哪种情况,PG 自己的同步线程在 fsync 时都无法收到错误信息;

这样 PG 可能误以为数据已经同步而移动了 journal 的指针,实际上数据并没有同步到磁盘,如果磁盘持续没有修复且突然丢失内存数据就会存在数据丢失的情况。

在这场 session 上 PG 的开发者吐槽了 kernel 开发以及存储开发里的很多问题,很多时候 PG 只是想更好地实现数据库,但却发现经常要为 SAN/NFS 这些存储操心,还要为内核的未文档的行为买单。

5.png

这里说到 NFS,不得不多提两句,在 Google 上搜索 "nfs bug" 可以看到五百万个结果,其中不乏 Gitlab 之类的知名厂商踩坑,也不乏 Redhat 之类的操作系统尝试提供遇到 NFS 问题的建议:

4.5.png

从我们一个云厂商的角度看来,虚拟机存储使用 NFS 遇到的问题包括但不限于这几个:

1.     部分客户的存储不支持 NFS 4.0 带来一系列性能问题和并发问题,而且 4.0 之前不支持 locking;

2.    nfs服务本身会带来安全漏洞;

3.    对于在 server 上做一些操作(例如 unshare)带来的神秘行为;

4.    使用 async 挂载可能会带来一些不一致问题,在虚拟化这种 IO 栈嵌套多层的环境可能会放大这一问题,而使用 sync 挂载会有明显的性能损失;

5.    NFS本身的 bug

我们的建议就是生产环境、较大的集群的情况下,起码,少用 NFS 4.0 以前的版本……

另一个出名的文章是发表在 14 年 OSDI 的这篇 All File Systems Are Not Created Equal,作者测试了数个文件系统和文件应用,在大量系统中找到了不乏丢数据的 Bug, 在此之后诸如 FSE'16 的 Crash consistency validation made easy 又找到了gmake、atom 等软件的各种丢数据或导致结果不正确的问题:

6.png

7.png

上面我们举了很多软件、文件系统的例子,这些都是一些单点问题或者局部问题,如果放在云平台的存储系统上的话,复杂度就会更高:

1.     首先,私有云面临的是一个离散碎片的环境,我们都知道 Android 开发者往往有比 iOS 开发者有更高的适配成本,这个和私有云是类似的,因为客户有:

1)不同厂商的设备

2)不同的多路径软件

3)不同的服务器硬件、HBA 卡;

虽然 SCSI 指令是通用的,但实际上对 IO 出错、路径切换、缓存使用这些问题上,不同的存储+多路径+HBA 可以组成不同的行为,是容易出现难以调试的问题地方,例如有的存储配合特定 HBA 就会产生下面的 IO 曲线:

8.png

2.    由于我们是产品化的私有云,产品化就意味着整套系统不可能是托管运维,也不会提供驻场运维,这样就会明显受客户参差不齐的运维环境和运维水平限制:

1)升级条件不同,有的用户希望一旦部署完就再也不要升级不要动了,这就要求我们发布的版本一定要是稳定可靠的,因为发出去可能就没有升级的机会了,这点和互联网场景有明显的区别;

2)联网条件不同,一般来说,来自生产环境的数据和日志是至关重要的,但对产品化的厂商来说,这些数据却是弥足珍贵,因为有的客户机房不仅不允许连接外网,甚至我们的客户工程师进机房的时候手机也不允许携带;

3)运维水平不同,对于一个平台系统,如果运维水平不同,那么能发挥的作用也是不同的,比如同样是硬件故障,对于运维水平高的客户团队可能很快能够确认问题并找硬件厂商解决,而有的客户就需要我们先帮忙定位分析问题甚至帮助和硬件厂商交涉,就需要消耗我们很多精力。

3.    漫长的存储路径,对于平台来说,我们不仅要操心 IO 路径——Device Mapper、多路径、SCSI、HBA 这些,还要操心虚拟化的部分——virtio 驱动、virtio-scsi、qcow2…… 还要操心存储的控制平面——快照、热迁移、存储迁移、备份…… 很多存储的正确性验证只涉及选举、IO 这部分,而对存储管理并没有做足够的关注,而根据我们的经验,控制面板一旦有 Bug,破坏力可能比数据面更大。

9.png

说了这么多难处,我们来说说怎么解决。提到存储的正确性,接触过分布式系统的同学可能会说 TLA+,我们先对不熟悉 TLA+ 的同学简单介绍下 TLA+。

2002 Lamport 写了一本书《Specifying Systems》基本上算是 TLA+ 比较正式的一本书,了解的朋友可能知道在此之前 Lamport 在分布式系统和计算结科学就很出名了——LaTex、Lamport clock、PAXOS 等等,TLA+ 刚开始的时候没有特别受重视,他的出名是来自 AWS 15 年发表在 ACM 会刊的《How Amazon Web Services Uses Formal Methods》。

从本质上讲,形式化验证并不是新东西,大概在上世纪就有了相关的概念,TLA+ 的优势在于它特别适合验证分布式系统的算法设计。因为对于一个可验证的算法来说,核心是将系统时刻的状态确定化,并确定状态变化的条件和结果,这样 TLA+ 可以通过穷举+剪枝检查当有并发操作时会不会有违反要求(TLA+ 称之为 invariant)的地方——例如账户余额小于 0,系统中存在了多个 leader 等等。

10.png

看最近的几场 TLA Community Meeting,可以看到 Elasticserach、MongoDB 都有应用。

那么既然这个东西这么好,为什么在国内开发界似乎并没有特别流行呢?我们在内部也尝试应用了一段时间,在 Mini Storage 上做了一些验证,感觉如果 TLA+ 想应用更广泛的话,可能还是有几个问题需要优化:

1.     状态爆炸,因为 TLA+ 的验证方式决定了状态数量要经过精心的抽象和仔细的检查,如果一味地增加状态就可能遇到状态爆炸的问题;

2.    TLA+ Spec 是无法直接转换成代码的,反过来,代码也无法直接转换成Spec。那么换句话说,无论是从代码到 Spec 还是从Spec 到代码都有出错的可能,轻则有 Bug,重则可能导致你信心满满的算法其实与你的实现根本不同;

3.    外部依赖的正确性,这一点可能有点要求过高,但却也是可靠系统的重要部分,因为用户是不管产品里是否用到了开源组件,不论是 qemu 的问题还是 Linux 内核的问题,客户只会认为是你的问题,而我们不太可能分析验证每个依赖。

当然了,涉及到算法的正确性证明,形式化证明依然是不可替代的,但不得不说目前阶段在云平台存储上应用,还没做到全部覆盖,当然了我们也看到 TLA+ 也在不断进步——

1.     可视化

2.    增强可读性

3.    Spec的可执行

这里特别是第三点,如果我们的 Spec 能够被转换成代码,那么我们就可以将核心代码的算法部分抽象出来,做成一个单独的库,直接使用被 Spec 证明过的代码。

分布式系统的测试和验证,这几年还有一个很热门的词汇,就是混沌工程

混沌工程对大多数人来说并不是一个新鲜词汇,可以说它是在单机应用转向集群应用,面向系统编程转向到面向服务编程的必然结果,我们已经看到很多互联网应用声称在混沌工程的帮助下提高了系统的稳定性如何如何,那么对于基础架构软件呢?

在一定程度上可以说 ZStack 很早就开始在用混沌工程的思想测试系统的稳定性,首先我们有三个关键性的外部整体测试

1.     MTBF,这个概念一般见于硬件设备,指的是系统的正常运行的时间,对我们来说会在系统上根据用户场景反复操作存储(创建、删除虚拟机,创建、删除快照,写入、删除数据等)在此之上引入故障检查正确性;

2.    DPMO,这个是一个测试界很老的概念,偏向于单个操作的反复操作,例如重启 1000 次物理机,添加删除 10000 次镜像等等,在这之上再考虑同时引入故障来考察功能的正确性;

3.    Woodpecker,这是 ZStack 从开始就实现的测试框架,代码和原理都是开源的,它会智能的组合ZStack 的上千个 API自动找到可以持续下去的一条路径,根据资源当前的状态判断资源可以执行的 API,这样一天下来可以组合执行数万次乃至上百万次,与此同时再考虑引入错误。

上面这些方法,在大量调用 API、测试 IO 之外,很重要的一点就是注入错误,例如强制关闭虚拟机、物理机,通过可编程 PDU 模拟断电等等,但是这些方法有一些缺陷:

1.     复杂场景的模拟能力有限,例如有些客户存储并不是一直 IO 很慢,而是呈现波峰波谷的波浪型,这种情况和 IO 始终有明显 delay 是有比较大的区别的;

2.    不够灵活,例如有的客户存储随机 IO 很差但顺序 IO 性能却还可以,也不是简单的降低 IO 性能就可以模拟的。

总之大部分混沌工程所提供的手段(随机关闭节点、随机杀进程、通过 tc 增加延时和 iproute2、iptables改变网络等等)并不能满足 ZStack 的完全模拟用户场景的需求。

在这种情况下,我们将扩展手段放在了几个方向上:

1.     libfiu,libfiu 可以通过 LD_PRELOAD 来控制应用调用 POSIX API 的结果,可以让应用申请内存失败、打开文件失败,或者执行 open 失败。

使用 fiurun + fiuctl 可以对某个应用在需要的时刻控制系统调用。

14.png

fiu对注入 libaio 没有直接提供支持,但好在 fio 扩展和编译都较为简单,因此我们可以轻松的根据自己的需求增加 module。

2.    systemtap,systemtap 是系统界的经典利器了,可以对内核函数的返回值根据需求进行修改,对内核理解很清晰的话,systemtap 会很好用,如果是对存储进行错误注入,可以重点搜 scsi 相关的函数,以及参考这里:Kernel Fault injection framework using SystemTap

3.    device-mapper,device-mapper 提供了 dm-flakey、dm-dust、dm-delay,当然你也可以写自己的 target,然后可以搭配 lio 等工具就可以模拟一个 faulty 的共享存储,得益于 device-mapper 的动态加载,我们可以动态的修改 target 和参数,从而更真实的模拟用户场景下的状态;

4.    nbd,nbd 的 plugin 机制非常便捷,我们可以利用这一点来修改每个 IO 的行为,从而实现出一些特殊的 IO pattern,举例来说,我们就用 nbd 模拟过用户的顺序写很快但随机写异常慢的存储设备;

5.    此外,还有 scsi_debug 等 debug 工具,但这些比较面向特定问题,就不细说了。

上面两张图对这些错误注入手段做了一些总结,从系统角度来看,如果我们在设计阶段能够验证算法的正确性,在开发时注意开发可测试的代码,通过海量测试和错误注入将路径完整覆盖,对遇到的各种 IO 异常通过测试 case 固化下来,我们的存储系统一定会是越来越稳定,持续的走在“正确”的道路上的。


升级提醒

若您选择升级至4.0.0及之后版本,请注意以下功能调整:

1. 云路由器全面升级为VPC路由器,云路由网络全面升级为VPC网络,不再单独设云路由器页面。升级全程无感知,相关业务不受任何影响。

2. 企业管理账号体系取代用户组与用户,不再单独设用户/用户组页面,不可再使用用户/用户组账号登录云平台。升级前,请先将“用户组与用户”纳管的账号数据妥善迁移至“企业管理”纳管,再执行升级操作。注意:对于admin创建并具备admin权限的用户账号同步取消,如有需要,可使用企业管理账号体系中的平台管理员实现相同功能。

3. 调整AD/LDAP与账户的对接管理方式,统一由企业管理纳管,不再单独设AD/LDAP页面。升级前,请先将“账户”对接纳管的AD/LDAP账号数据妥善迁移至“企业管理”纳管,再执行升级操作。

如对上述升级提醒有任何疑问或需要升级帮助,请联系ZStack官方技术支持

下载ZStack企业版

您已填写过基本信息?点击这里

姓名应该不少于两个字符
手机号格式错误
验证码填写错误 获取短信验证码 60 秒后可重发
公司名称不应该少于4个字符
邮箱格式错误

下载链接将会通过邮件形式发送至您的邮箱,请谨慎填写。

同意 不同意

我已阅读并同意云轴科技 《法律声明》《隐私政策》

下载ZStack企业版

还未填写过基本信息?点击这里

邮箱或手机号码格式错误
同意 不同意

我已阅读并同意云轴科技 《法律声明》《隐私政策》

验证手机号
手机号格式错误
验证码填写错误 获取短信验证码 60 秒后可重发
同意 不同意

我已阅读并同意云轴科技 《法律声明》《隐私政策》

登录观看培训视频
仅对注册用户开放,请 登录 或 填写资料 观看培训视频
填写资料

业务咨询:

400-962-2212 转 1

售后咨询:

400-962-2212 转 2

业务联系:

扫码立即线上沟通
周一至周五 9:30-18:30
(不含公共节假日)
ZStack认证培训咨询
姓名应该不少于两个字符
手机号格式错误
验证码填写错误 获取短信验证码 60 秒后可重发
公司名称不应该少于4个字符
邮箱格式错误

同意 不同意

我已阅读并同意云轴科技 《法律声明》《隐私政策》

业务咨询:

400-962-2212 转 1

商务联系:

channel@zstack.io

业务联系:

扫码立即线上沟通
周一至周五 9:30-18:30
(不含公共节假日)
申请ZStack多机版
姓名应该不少于两个字符
手机号格式错误
验证码填写错误 获取短信验证码 60 秒后可重发
公司名称不应该少于4个字符
邮箱格式错误

同意 不同意

我已阅读并同意云轴科技 《法律声明》《隐私政策》

业务咨询:

400-962-2212 转 1

售后咨询:

400-962-2212 转 2

业务联系:

扫码立即线上沟通
周一至周五 9:30-18:30
(不含公共节假日)
立即咨询
姓名应该不少于两个字符
手机号格式错误
验证码填写错误 获取短信验证码 60 秒后可重发
公司名称不应该少于4个字符
邮箱格式错误

同意 不同意

我已阅读并同意云轴科技 《法律声明》《隐私政策》

业务咨询:

400-962-2212 转 1

售后咨询:

400-962-2212 转 2

业务联系:

扫码立即线上沟通
周一至周五 9:30-18:30
(不含公共节假日)
培训认证合作伙伴申请
姓名应该不少于2个字符
手机号格式错误
验证码填写错误 获取短信验证码 60 秒后可重发
邮箱格式错误
城市名称不应该少于2个字符
公司名称不应该少于4个字符
职位名称不应该少于2个字符

同意 不同意

我已阅读并同意云轴科技 《法律声明》《隐私政策》

业务咨询:

400-962-2212 转 1

商务联系:

channel@zstack.io

业务联系:

扫码立即线上沟通
周一至周五 9:30-18:30
(不含公共节假日)
ZStack&工信人才联合证书申请
已获得ZStack原厂证书
未获得ZStack原厂证书
请填写您的基本信息
姓名应该不少于2个字符
手机号格式错误
验证码填写错误 获取短信验证码 60 秒后可重发
邮箱格式错误
城市名称不应该少于2个字符
公司/学校名称不应该少于4个字符
证书类型
ZCCT
ZCCE
ZCCA
ZCPC-ISP
申请ZStack&工信人才联合证书须支付工本费,是否可以接受
同意 不同意

我已阅读并同意云轴科技 《法律声明》《隐私政策》

业务咨询:

400-962-2212 转 1

商务联系:

channel@zstack.io

业务联系:

扫码立即线上沟通
周一至周五 9:30-18:30
(不含公共节假日)

下载链接已发送至您的邮箱。

如未收到,请查看您的垃圾邮件、订阅邮件、广告邮件。 当您收到电子邮件后,请点击 URL 链接,以完成下载。

下载链接已发送至您的邮箱。

如未收到,请查看您的垃圾邮件、订阅邮件、广告邮件。
或点击下方URL链接 (IE内核浏览器请右键另存为), 完成下载:

感谢您使用 ZStack 产品和服务。

成功提交申请。

我们将安排工作人员尽快与您取得联系。

感谢您使用 ZStack 产品和服务。

信息提交成功。

我们将安排工作人员尽快与您取得联系,请保持电话畅通。

感谢您使用 ZStack 产品和服务。

业务咨询

扫码立即线上沟通
周一至周五 9:30-18:30
(不含公共节假日)

联系我们

业务咨询
400-962-2212 转 1
售后咨询
400-962-2212 转 2

联系我们

回到顶部

产品试用申请
请选择您要试用的产品
ZStack Cloud 企业版
ZStack Cloud 混合云版
ZStack Cloud 基础版
ZStack Cloud 标准版
请填写您的基本信息
姓名应该不少于两个字符
手机号格式错误
验证码填写错误 获取短信验证码 60 秒后可重发
公司名称不应该少于4个字符
邮箱格式错误

商务咨询:

400-962-2212 转 1

售后咨询:

400-962-2212 转 2

商务联系:

sales@zstack.io

成功提交申请。

我们将安排工作人员尽快与您取得联系。

感谢您使用 ZStack 产品和服务。