系统运维、技术分享、架构、方案

it运维技术文章分享

超融合模式有哪些缺点

超融合基础架构(Hyper-Converged Infrastructure,或简称“HCI”)目前在全球和国内市场快速增长,更被称为是未来新一代数据中心基础架构的首选方案。但是,超融合真的是完美的吗?超融合的优势我们已经在很多文章中进行了分析和实践分享,以下是社区会员分享的一些超融合的缺点,以及选择超融合架构时需要考虑的因素。供大家参考,以便在选用相关技术时,规避其缺点,充分发挥其优点。

 

实际部署和使用过程中,发现的超融合模式的缺点有哪些?

 

@wykkx  某基金公司 系统架构师:

在笔者看来,目前超融合架构主要的缺点有两点:一是稳定性,二是有磁盘或者主机损坏时数据重建过程对性能的影响。

先来看稳定性,现在很多企业只将超融合使用在开发和测试环境也是因为超融合的稳定性问题,产生这个问题的主要原因一方面是超融合技术发展的时间不如集中式技术栈,另一方面是超融合技术和集中式相比还是省略了很多硬件的,众多的功能有纯软件或者x86服务器自身的硬件来实现,增加了硬件故障风险,最后x86服务器本身的稳定性就不如集中式存储,再次增加的风险。

对于第二点,还是受限于超融合技术栈自身的原因,数据重建过程都会对性能带来影响,不过这个问题各个厂商也都给出了解决方案,都是处于优化的状态。在笔者看来,基于x86的服务器的技术栈,其设计思维的初衷就不是稳定性,而是性价比和集群规模,那么如果计划采用这样的技术栈,就需要想办法规避其缺点,充分发挥其优点。

 

@z493694629 系统架构师:

其实目前超融合产品经过这几年的发展已经进入稳定期,各家超融合产品在功能上也趋于同质化。超融合我做下来很多,目前超融合产品存在最大的问题还是在于读取数据延迟上,尤其是跨节点数据读取上,当然领头厂商都有自己的解决方案来规避这个问题,做的好的产品具有本地读的功能。其次,在部署超融合系统中,节点间交互的数据交换机必须使用低延迟型号。

 

@刘东  IT技术咨询顾问: 

超融合基础架构实现了计算、存储、网络等资源的统一管理和调度,具有更弹性的横向扩展能力,可以为数据中心带来最优的效率、灵活性、规模、成本和数据保护。使用计算存储超融合的一体化平台,替代了传统的服务器加集中式存储的架构,使得整个架构更清晰简单,极大简化了复杂IT系统的设计。相对与传统的IT架构,超融合架构具有天然的优势。

整合是超融合架构的优点,同时又是缺点。主要包括:

1、整合计算+存储+网络资源,替代原有传统架构设备。但是各方面表现都不佳,集中在统一的服务器上,稳定性、可靠性都不如单独的设备。存储需要大规模部署+多副本+SSD固态盘,解决安全、冗余和性能等问题。网络需要40G/100G或infiniband交换机,解决数据交换问题。

2、扩展性的缺点。超融合扩展能力强是优点,但是要求扩展节点必须统一为超融合架构,而且为同一个厂商产品,这就限制了系统的架构,所以在初期立项时候,必须做好规划,为以后发展打好基础。

 

@blue_diamond 制造业 系统架构师:

超融合架构的优势和客户价值这个已经勿容置疑,但是,超融合真的是完美的吗?

(1)新的信息孤岛

几乎所有的超融合方案都不支持数据中心中原有的外部存储,大多数企业也不可能在短期内更换整个数据中心基础设施,结果数据中心又分裂成两个彼此独立分散的基础设施孤岛。对于大的数据中心,出于不同业务需求和平衡考量,很有可能会同时部署不同的超融合架构,不同HCI之间无法整合和互操作,结果就是又多了几个新的信息孤岛。新的信息孤岛带来了资源利用效率和统一管理的问题。

(2)性能一致性问题

数据中心中存储的性能至关重要,而且期望性能是可以预测并保持一致性的,包括延迟、IOPS和带宽,这一点尤其对核心业务系统很关键。对于超融合架构而言,这一点恰恰是很大的挑战。原因主要有两点,一是超融合架构“共享一切”。计算和存储会争抢CPU/内存/网络等物理资源,而且计算和存储又相互依赖,一旦一方资源需求骤升就是导致另一方资源枯竭,进而影响性能并在整个基础架构中产生涟漪效应。虽然可以采用cgroup或容器技术进行资源隔离限制,但和非超融合架构的效果还是不同的。二是超融合架构“一切分布式和软件定义”,集群规模较大后,网络、硬盘、服务器发生故障的概率都会增大,数据重删/压缩/加密/纠删码等功能都用软件实现,故障的自修复和数据功能实现都会消耗一定的系统资源,导致性能下降和抖动。自修复的流控,数据功能旁路到硬件模块处理,这些方法会缓解性能一致性问题,但似乎又与超融合的理念相背离。

(3)横向扩展之殃

超融合架构关键特征之一就是易于扩展,最小部署,按需扩容。超融合架构厂商宣称最大集群规模也差别很大,从数十到数千节点不等,通常从3节点起配。超融合中计算能力、存储性能和容量是同步扩容的,无法满足现实中单项能力的扩展,有些厂商还对扩容最小单元有要求,扩展灵活性会受到限制。集群达到一定规模后,系统架构复杂性就会非线性增加,集群管理变的更加困难,硬件故障和自修复发生的概率也会大大增加。因此,我们是不建议构建大集群的,如果业务允许尽量构建多个适当规模的较小集群,或者采用大集群中构建故障域或子资源池,光大是不行的。集群扩展还面临一个棘手问题,就是容量均衡。如果存储集群容量很大,均衡是一个非常漫长而痛苦的过程,同时还会对正常的业务负载产生较大的影响。

(4)系统复杂性

超融合架构简化了IT架构,极大降低了数据中心设计的复杂性,实现了快速交付,并极大简化了运维管理。不过,这都是基于用户角度的,从产品研发角度而言,超融合实际上使得内部的软件复杂性更高了。前面我们已经阐述,超融合架构需要采用CVM虚拟机控制器,并且需要将主机物理设备透传给控制虚机,增加了部署配置管理的复杂性。计算和存储对硬件平台的要求都不同,融合后也会一定程度上增加兼容性验证的复杂性。超融合架构下,管理、计算、存储、高可用通常都需要配置独立的虚拟网络,网络配置也会更加复杂。同时,共享物理资源的分配、隔离、调度,这也是额外增加的复杂性。还有一点,如果出现故障,问题的跟踪调试和分析诊断也变得更加困难。

(5)SSD分层存储

闪存SSD基本成为超融合架构中必不可少的元素,消除了计算和存储的巨大鸿沟,解决了I/O性能瓶颈问题,尤其是I/O随机读写能力。目前闪存的价格相对HDD磁盘还是要高于许多,迫于成本因素,全闪超融合方案应用仍然较少,多数应用以SSD混合存储配置为主,从而获得较高的性价比。通常情况下,我们假设热点数据占10-20%,配置相应比例的SSD存储,采用Cache加速或Tier分层模式将热点数据存储在SSD存储中,一旦热点数据超过预先设置阈值或触发迁移策略,则按相应淘汰算法将较冷数据迁移回HDD磁盘存储,从而期望在性能和容量方面达到整体平衡。看上去很完美是吧?SSD擅长的随机读写,带宽并不是它的强项,对于带宽型应用,SSD对性能并没有帮助。关于热点数据占比,这个并不好估计,如果SSD配置不足,性能会变得更差。假设应用场景合适并且SSD配置合理,情况又如何呢?SSD空间最终要被热点数据占满,就会触发数据迁移,这时HDD存储仍将成为I/O性能瓶颈,同时还要承担正常的I/O业务负载,整体性能就会出现降级和抖动。为了缓解这一问题,SSD Cache/Tier功能实现中,一方面会过滤掉顺序读写I/O,另一方面会把空间阈值设置较低,尽早进行数据迁移,同时选择系统空闲时间执行和流控。带来的负面效应是,SSD性能加速效果受限,物理设备效率发挥不充分。另外,SSD本身被写满时性能也会出现较大的波动。因此,SSD混合存储并非理想模式,实际中我们推荐根据应用场景采用全闪SSD或全磁盘HDD配置,从而获得一致性的性能表现。如果真的无法全用SSD,还有另外一种应用方式,同时创建一个全SSD和一个全HDD存储池,人为按照性能需求将虚拟机分配到不同存储池中。

(6)企业级数据功能

目前在大多数超融合系统以及SDS系统都具备了核心的企业级功能,包括数据冗余、自动精简配置、快照、克隆、SSD Cache/Tier、数据自动重建、高可用/多路径等数据功能,有些甚至还提供了重复数据删除、数据加密、数据压缩等高级数据功能。然而,相对于高端存储系统,如果超融合架构要承载核心关键应用,还有很大的差距,包括但不限于QoS控制、数据保护、数据迁移、备份容灾、一致性的高性能。核心存储系统应该遵循RAS-P原则,先做好稳定可靠性,其次是企业数据功能完备性,最后才是高性能,这个顺序不能乱,光有高性能是不行的。比如Ceph,企业级数据功能列表多而全,功能规格参数非常诱人,但真正稳定而且能够实际生产部署应用的其实不多。目前,核心关键业务系统还不太敢往超融合架构上迁移,主要还是从非核心业务开始检验,毕竟超融合出现时间还比较短,需要更多的时间和实践验证RAS-P特性。但是,未来超融合必定是核心关键业务的主流架构。

(7)物理环境应用

目前普遍公认的适合应用场景是桌面云、服务器虚拟化、OpenStack私有云、大数据分析等新型应用。理论上超融合系统可以适用于IT环境的所有应用类型,需要注意的是,超融合系统管理虚拟化环境,而更多的传统IT应用仍然运行在物理服务器和传统存储系统之上。我们可以乐观地认为没有哪一种应用程序不能被部署在超融合基础架构上,但是考虑到运行效率、硬件依赖性以及和虚拟化环境兼容性等因素,很多IT应用最好还是继续保持运行在物理硬件架构,比如数据库应用、实时控制系统以及大量遗留IT系统。

(8)超融合数据共享

超融合架构采用软件定义存储替换传统的共享式存储解决了虚拟化存储问题,这里的SDS实际上主要是指ServerSAN,提供分布式块存储。然而无论是虚拟机还是物理机,实际IT应用都有着数据共享需求,需要分布式文件系统或NAS存储系统。这是目前超融合普遍缺失的,现实还是依赖外部独立部署的NAS或集群NAS存储系统。从技术架构和实现来说,一个SDS系统很好地统一支持Object/Block/File存储,这个非常难以实现的。因此,超融合架构中可以采用相同方式同时部署两套SDS存储,分别提供分布式块存储和文件系统文件共享存储,不必非得要求分布式统一存储。(以上部分内容摘自网络)

 

@michael1983 某证券 技术经理

产品和技术成熟度还欠缺大量的实践经验来验证。

@匿名:

缺点就是相对太便宜了,不买存储,不买小型机,采购部门油水太少,后期维护工作量太小,信息部门人员需求变小,要裁员。

@donghuayi  某汽车有限公司 系统架构

超融合目前在国内是一个颇受欢迎的模式,但是个人并不看好,因为这种产品基本上都是国内厂商在做,都是基于KVM、OpenStack、Ceph等开源平台开发而来,产品的稳定性和延续性有待观察。

点赞

发表评论

电子邮件地址不会被公开。 必填项已用*标注