Red Hat峰会示出Gluster&Ceph发展蓝图

在上周的Red Hat峰会上,厂商发布了对旗下Ceph&Gluster存储软件的发展蓝图,其中包括统一管理技术以及针对Ceph扩展协议的支持。

Red Hat展示了其最新的统一管理特性,该特性允许客户对Red
Hat旗下的Gluster&Ceph存储进行安装、管理以及监控等操作。据Red Hat产品管理部主管Neil
Levine表示,针对Red Hat Ceph存储的其他新特性将会在明年陆续推出,其中包括对iSCSI和NFS以及多站点的支持。

“Ceph因其稳定性被大众熟知,”Levine说道,“然而话说回来,如果用户无法成为Guru的专家就无法体验到它的全部特性,这一点对我们来说确实是一个挑战。”

据Gluster项目主管Sayan Saha透露,Red Hat
Gluster存储产品的3.2以及4.0版本将会在明年以后陆续发布,其主题将包括“按需分配的NAS”或者“FAAS”(file as a
service),以及动态配置特性、压缩和在线去重等。

由于Red Hat的软件产品是基于Ceph和Gluster社区的开源代码,因此某些功能的具体发布时间还要取决于上游社区,Saha提到。

“他们的发展蓝图令人惊讶,”来自Northwestern大学Education and Social
Policy学院的高级IT咨询师Ryan Nix说到(该学院为其基础文件级存储部署了开源的Gluster)。Nix提到,目前学院正在与Red
Hat开展一些列合作项目,开发人员已经开始涉及多个领域,例如Red Hat的OpenShift云计算PaaS等。

一些没有使用其订阅式存储软件的Red Hat客户表示,如果今后没有更多的基于开源的软件产品推出,他们在未来至少不会再使用Ceph&Gluster,主要是因为大多数这些客户已经使用了Red Hat Enterprise Linux(RHEL)。

一位来自American International Group开放系统(open system)部的Linux高级工程师,Amy
Brown表示,保险公司主要采用EMC的存储。但是她说她会考虑考虑Ceph或者Gluster的产品来存储那些几乎不被访问的数据,进而节省硬件、使
用许可以及维护上的成本,毕竟Red Hat的存储软件可以运行在通用硬件上。

“那些使用许可和维护成本的开销太可怕了,尤其是在存储那些临时停留的数据的时候,”Brown补充到。“过去两年的增长太大了。当你开始用保留那些大数据的时候,存储设备从来不对其进行压缩,只是任其不断增长。”

Red Hat的软件定义存储可以进行横向扩展来提供更多的容器,这个特点吸引了Dennis Avondet的注意,Dennis是一家健康领域的独立软件供应商的高级经理,他本人要求不透露公司名字。

“我们想沿着这条路走下去,”Avondet说到。“我们有一个很庞大的应用,而Red Hat的产品正在不断尝试调整那些不同类型的容器来适应各种类型的模型,从而避免了将整套应用进行重写。”

Saha提到Red Hat的RHEL Atomic
Host支持NFS,而客户可以从容器内部利用NFS来挂载Gluster进而存储数据。他表示Red
Hat也在寻求一种类似于“超融合层”的解决方案,“客户可以在容器内部运行Gluster然后将存储分发给其他运行在统一服务器集群的容器使用。”

“这样你就不需要两个不同的层,”Saha解释道。“这和VM的解决方案很相似。我们看到一些客户正在不断的挑战这种配置极限然后尝试去将其实现。”

Levine在Ceph蓝图展示的末尾提到了容器这个当下的流行词,他认为“容器是可以将存储变得真正吸引人的唯一方法。”他引证了Ceph为
Kubernetes(Docker容器的开源编排系统) RADOS Block Device驱动,为OpenShift建立后端的Amazon
Simple Storage Service以及一个将Ceph运行在容器内部的社区项目。

另外一个热门的话题就是目前正在进行中的Ceph文件系统(CephFS)。Levine提到,其中一个项目就是在修复漏洞方面要取得足够的进展,
另外一个则是将精力放在文件系统修复工具上进而避免数据损坏。他表示一旦开源CephFS在上游社区准备完毕(今年年末或者明年年初),Red
Hat将会考虑对其进行产品化。

对于Ceph在下一个版本(代号为“Tufnell”)可能会包括的内容,Levine列出了以下几点:

  • Red Hat Ceph Storage 2.0(可能的版本号)
  • 在多区域对虚拟块设备实现镜像功能
  • 支持将Ceph Object Gateway部署到跨多站点的双活配置中
  • 利用智能扫描策略以及改良的同级对等逻辑降低通用操作在整个集群上的影响,从而实现性能的一致性
  • 为Ceph开放式存储进程开发新型后背存储器,进而提升其在现有以及新型硬盘(例如固态硬盘以及Seagate Kinetic key-value硬盘)上的性能
  • 为管理员提供引导修复机制来挽救损坏的数据
  • 通过邮件或者SMS的形式将严重问题通知给管理员

Levine补充道,部署了Ceph的RHEL OpenStack Platform(OSP)也在进行其他一些功能的开发,例如QoS,卷在快/慢存储池之间的迁移以及灾难恢复优化等。

据Saha透露,RHEL-OSP 7发展计划会在今年夏天对OpenStack
Manila文件共享服务进行技术预览,而全部Manila的支持工作将会在今年年末或者明年年初进行跟进。他提到,Red
Hat计划在今年夏天将GlusterFS的驱动装配到Gluster上,进而作为Manila的后端来使用。

关于Red Hat Gluster Storage的发展计划,Saha在上周的会议上提到了以下几点:

Red Hat Gluster Storage 3.2(代号“Fundy”)

  • 预计完成时间:2016年上半段
  • 支持开源GlusterFS 3.8,RHEL 6,RHEL 7
  • 动态化卷分配
  • 支持SMB 3.0
  • 后端数据加密

RHGS 4(代号“Gir”)

目前仍在计划中

支持GlusterFS 4,RHEL 7

  • 数据压缩,去重
  • 新一代数据复制功能
  • QoS
  • 客户端缓存技术
  • 并行NFS
  • 全新的UI,Gluster REST API

原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/tech/aiops/57770.html

(0)
上一篇 2021年8月9日 09:22
下一篇 2021年8月9日 09:22

相关推荐

发表回复

登录后才能评论