Session1. Ceph,now and later: our plan for open unified cloud storage
Ceph的初始作者Sage今天为大会带来了精彩的presentation,介绍了ceph的现状和未来发展。
演讲一开始,Sage就为我们展示了ceph各个模块的现状,各个模块都已经很完善,只有cephfs,处于“接近完善”的阶段。众所周知,ceph在最新的release版本jewel中,声称cephfs已经production ready。但是与ceph其他模块相比,cephfs仍然需要改进其稳定性。
接下来,Sage向我们阐释了什么是ceph,以及ceph最重要的一些特性。其中尤其强调了其开源属性。
随后,Sage解释了为什么ceph一定要坚持开源。为了防止被企业把控,是很重要的原因。他非常不愿意ceph成为某一家企业的项目,那样会葬送ceph的未来。
然后Sage向我们解释了为什么ceph一定要做统一存储。易于部署和易于管理是其中最重要的原因。
到这里,Sage已经向我们阐释了什么是ceph,为什么要做ceph以及为什么要做这样的ceph。接下来,Sage将为我们展示ceph现在在业内的使用情况。包括SSD,HDD以及persistent memory。
至此,Sage对于ceph的现状已经阐述的很清楚了,接下来将为我们说明ceph的发展理念以及发展规划。
关于发展理念,Sage说的简洁有力,“ceph要做分布式存储领域的linux”。
接下来逐步为我们逐一介绍了ceph社区的发展动向和未来规划:
1. Bluestore:计划将取代filestore成为默认objectstore backend。
2. Asyncmessenger:补充simplemessenger的不足。
3. Erasure code overwrites:rbd和cephfs将可以使用ec pool。
4. Ceph-msg:将mon的部分功能分离出来,单独做一个daemon。
5. QOS:将基于mlock的paper开发。
随后,Sage阐述了自己对未来存储的预见,简单明了“未来,大部分的数据都会以object形式存储”。
最后,Sage展示了ceph社区贡献情况,特别提到了几家公司,其中包括来自China的EasyStack等云计算公司。
Session2. Cinder Project Update
IBM的Jay Bryant 和Dell EMC 的core reviewer Xing Yang 女士和Sean McGinnis 共同给大家分享了Newton版本里Cinder项目的进展以及哪些feature将出现在Ocata 版本。
主讲人首先回顾了cinder项目的任务:在各种传统的第三方块存储设备之上提供一个抽象的自动化的软件定义块存储。之后介绍了在Newton版本新添加支持的存储设备清单。列表上显示有来自中国的中兴,华为和群晖的新设备。
Newton版本里Cinder驱动管理方面发生了重要变化。Cinder里面的存储设备驱动都是各个厂商提供的,有些驱动没有达到CI的测试要求,这些驱动在Newton里会被标识为“unsupported”,如果客户需要使用被标识为“unsupported”的驱动,需要手动enable。驱动提供方需要尽快解决驱动的问题,满足CI的测试要求,否则Ocata版本里将去掉这些不达标的驱动程序。
Newton版本的Cinder增加了user message 的API和随机权重(stochastic weight)调度器,还增加了几个设备的驱动来支持replication API。
主讲人随后重点介绍了新引入的通用卷组(Generic Volume Group)。Volume Group 的作用就是将被同一应用所使用的多个volume 集中起来管理。Generic Volume Group 比之前的一致性组(consistency group) 更加通用,更加容易扩展,可以支持整个group的replication。
Cinder 配置文件的格式在Newton版本里也发生了变化,取消了default backend设置,所有的backedn驱动都必须在自己的section里定义。
之后,主讲人还介绍了Cinder里几个新功能的进展情况,比如Active-Active HA,Multi-attach , Rolling upgrades ,OS-Brick 和python-cinderclient。
Session 3. CephPerformance on OpenStack (Over 50,000 Benchmarks!)
日立公司的工程师Takehiro Kudou 分享了经过25000次benchmark 测试ceph得到的测试结果。注:原计划是进行50000次,但是因为遇到无法解决的bug,最后只完成了一半的测试。
Takehiro原计划测试ceph的 hammer版本(图中的ceph 1.3)和Jewel 版本(图中的ceph2.0)并进行比较,但是测试Jewel版本时碰到了严重bug,只完成了hammer 版本的测试。
测试环境介绍:
测试中使用了27个openstack 实例,版本从Juno 到Mitaka;
18个600GB SAS盘作为OSD,使用1个320G SSD做journal盘。
测试使用fio,测试参数如下图:
写测试结果:
还进行了针对 bluestore 的测试,但是没有完成。
最后,测试结果如下:
Hammer版本:
1.读性能非常高
2.在非常大的IO负载下,写性能差强人意,journal 没有得到充分利用。
Ceph jewel 版本:
1.目前还没有成熟,不够稳定。
转载需注明来源:OpenStack中国社区
联系客服