查看原文
其他

一文了解 SmartX 产品信创硬件选配最佳实践

深耕信创场景的 志凌海纳SmartX
2024-11-01

为了推动 IT 基础架构国产化转型,不少用户都使用 SmartX 超融合和分布式存储构建信创云基础设施。其中,信创硬件的选型与配置往往是用户在规划与部署环节关注的重点:国产 CPU/存储怎么选?哪个系列/型号的性价比最高?如何基于信创硬件构建高性能资源池?......


本文,我们将结合实践经验与测试数据,为用户提供基于 SmartX 产品的信创服务器、服务器部件(包括 CPU、SSD、HDD、RAID、网卡等)和交换机硬件的选型与配置建议。最后,我们将针对包括高性能资源池在内的 4 种业务场景,为用户提供信创硬件的整体配置方案参考。


如何基于 SmartX 超融合和分布式存储构建信创云平台


SmartX 以超融合软件 SMTX OS 为核心,提供自研、解耦、生产就绪的超融合信创云基础设施产品组合。欲深入了解 SmartX 超融合信创云基础设施解决方案,请阅读:一文了解超融合信创云基础设施



SmartX 超融合信创云基础设施


SmartX 超融合软件 SMTX OS 可以直接安装在搭载了海光、鲲鹏或者飞腾芯片平台的信创通用服务器上,存储网络可以使用 10GbE、25GbE、100GbE 高速以太网网络互联,同时支持 RDMA 协议。


在整体网络方面,推荐使用典型的 SMTX OS 网络架构部署。该网络架构中从 OVS、物理网卡、交换机实现了管理网络、存储网络和虚拟机业务网络的完全隔离,运维复杂度低,且安全合规。



同时,针对部分用户存算分离部署的需求,SmartX 也支持用户基于自主研发的分布式块存储软件 SMTX ZBS 构建信创分布式存储资源池。


基于 SMTX ZBS 构建信创云平台


SMTX ZBS 分布式块存储支持独立部署,支持的服务器、存储网络和整体网络架构与基于 SMTX OS 的部署方案一致。区别在于,SMTX ZBS 不提供虚拟化服务,只提供分布式存储服务,因此对于 CPU、内存的需求可进一步降低。目前,SMTX ZBS 支持 iSCSI、NVMe over RDMA(RoCE v2)和 NVMe over TCP 协议,支持 VMware vSphere/KVM 虚拟化平台、OpenStack 云平台、Kubernetes 容器云平台、物理机等多种平台。


SmartX 超融合与分布式存储的的信创硬件选型建议


服务器整机选型



对于服务器整机,得益于 SmartX 超融合与分布式存储软硬件解耦的优势,用户可选择 SmartX 与服务器厂商联合认证服务器,或者采用一体机进行软硬件一体化的形式进行交付,同时也可以根据信创云平台建设的需求,自行准备满足 SmartX 硬件兼容性列表(HCL)兼容要求的服务器以及硬件,SmartX 产品采用纯软件的方式进行交付。


  • 一体机形式交付:目前,SmartX 超融合与分布式存储已与海光与鲲鹏主流国产 CPU 的部分产品进行了深度适配,用户不用担心适配、调优等操作,开箱即可使用。

  • 信创服务器自行选配:SmartX 超融合与分布式存储适配浪潮、中科可控、紫光恒越、联想、H3C、超聚变、Huawei TaiShan、神州鲲泰、华鲲振宇、宝德、五舟、百信恒山等国内主流品牌中的信创通用服务器,涵盖海光、鲲鹏以及飞腾芯片构架硬件,支持用户使用已有或自行采购的服务器灵活配置。用户还可使用不同品牌的服务器搭建异构超融合/分布式存储集群,便于扩容和持续推进数字化转型。欲深入了解服务器利旧方案与用户实践,请阅读:4 个超融合利旧用户实践,揭秘如何以更低成本实现架构转型


信创服务器整机适配概览(部分)


服务器部件选型


信创服务器部件选型主要参考部件


目前信创服务器的整体硬件性能较 Intel、AMD 等传统 x86 平台存在一定的差异,各零部件品牌和型号众多,因此用户在服务器部件选型时(CPU、内存、SSD、HDD、RAID 卡、网卡)可以参考如下建议*。

*注:对于部分部件,信创产品可满足大多数使用场景,但在一些对性能与延时要求较高的信创场景,国外品牌配件产品仍为常见使用,且可通过信创验收,因此列出供读者参考。


CPU 选型参考



使用 SMTX OS 构建高性能集群时,建议选择海光 3 代 7390 或 7380 CPU,或鲲鹏 920 64 核 CPU 2 路标准服务器,用于承载 CPU 敏感型应用,如数据库、核心应用、高性能前端、数据分析、高性能计算等。


这里海光和鲲鹏 CPU 最大的区别是,海光 CPU 具备完整的 x86 指令集,且支持开启超线程,能够分发的虚拟核更多;而鲲鹏 CPU 由于其自身不支持超线程,为了实现最佳实践,建议使用 64 核。


使用 SMTX ZBS 构建高性能集群时,由于分布式块存储集群不对外提供计算虚拟化服务,资源占用量更低,因此用户可选择海光三号 5380 / 5390 两款主频相对较高的 CPU 或鲲鹏 920 32/48 核 CPU 单路服务器,即可满足高性能存储的 CPU 需求,同时降低 CPU 硬件成本。


内存选型参考


内存的选型比较简单,为了保证信创资源池场景下的整体性能,建议在规划时对每个业务系统使用的内存资源做适量增加(留出余额),同时建议用户先确认服务器内存的当前容量和最大扩容量,这样后续业务量增长,内存也方便随之扩展。


SSD 选型参考


  • Boot 盘

    我们推荐使用 2 块容量 ≧ 480GB 的企业级 SSD 做硬件 RAID 1,以确保可靠性、使用寿命和启动速度。目前 SmartX 支持绝大多数市场上主流的 RAID 卡或 M.2 Raid 卡来对 Boot 盘构建硬件 RAID 1。

  • 缓存盘/数据盘

    我们推荐使用不少于 4 块的企业级读写混合型(DWPD ≧ 3)SATA / SAS / NVMe SSD 作为缓存盘,进行分层部署,此时缓存盘与数据盘的配比比例应在 10% 以上。如用于构建高性能资源池,推荐使用 NVMe 全闪,并采用不分层的部署方式。


以上建议均适用于 SMTX OS 和 SMTX ZBS。


下图表展示了部分 SmartX 兼容适配的主流品牌和主流型号 SSD,标绿的为推荐型号(读写混合型,寿命更长,PCIe 4.0 起步)。当然,用户也可以选择读取密集型 SSD,但此类 SSD 在长时间的高负载、大块 I/O 场景下可能会出现增加延迟或者带宽降低等影响集群整体性能情况,需要用户结合实际情况考虑。





HDD 选型参考



目前,SMTX OS 和 SMTX ZBS 均支持主流品牌、主流规格的 512n / 512e 格式的 HDD(仅列举市场中常见 HDD 尺寸规格以及容量节点)。


HDD 的选择主要集中在 2.5 英寸 SAS 机械盘和 3.5 英寸 SATA 机械盘上。从使用性能上来讲,在缓存盘不击穿的情况下,2.5 英寸 SAS 机械盘和 3.5 英寸 SATA 机械盘的使用效果没有太大区别,业务系统也没有明显的感知。不过在生产环境中(尤其是混闪架构),如果硬盘需要更换,硬盘上存放的持久化数据越多,重构时间越长,这时 2.5 英寸 SAS 机械盘重构速度就会比 3.5 英寸 SATA 机械盘要快。如果存储资源使用量很大,需要使用 3.5 英寸盘,用户也可以有很多种选择,但结合可维护性与成本考虑,建议用户使用 10TB 及以下容量的 3.5 英寸盘。


总结一下,根据最佳实践经验,推荐集群服务器配置 2.5 英寸 SAS HDD,对硬件成本敏感或对性能不敏感的业务系统(如日志归档、镜像归档等场景),可以考虑使用单盘 10TB 及以下容量的 SATA HDD。


存储控制器选型参考



  • Boot 盘

    推荐使用两张 M.2 SSD 并通过 RAID 套件组硬件 RAID 1。若无法满足上述最佳方案,则可通过使用独占一块支持硬件 RAID 1 的存储控制器与两张后置 SATA SSD 组成硬件 RAID 1 以保证 Boot 盘的高可用。

  • SSD 缓存盘/全闪数据盘

    推荐独占使用 1 块或多块支持 JBOD 模式的存储控制器。选用存储控制器时建议通道数大于等于磁盘数,以获得更好的整体性能。另外,使用 NVMe 高速闪存介质做为缓存盘或全闪数据盘时,通常会配置 NVMe CPU 直通卡(Switch / Retimer)以获得更好的 NVMe 的支持性, NVMe SSD 无需额外的存储控制器。


网卡选型参考


网卡适配概览


  • Intel

    • i350

    • 基于 82599 芯片 OEM 品牌 

    • X500 系列 X520/X540/X550

    • X700 系列 X722/XL710/X710

    • E810

  • Mellanox

    • CX-3

    • CX-4

    • CX-5

  • Solarflare

    • X2、8000

  • Broadcom/HP/QLogic

  • 中兴

    • I-210/NS-212

  • H3C

    • 530F/560F/620F

  • Huawei

    • TM210

    • TM280

  • 中科可控/紫光恒越/宝德/联想/天宫/百信恒山/五舟

    • 以 OEM Intel/Mellanox 为主


高性能集群推荐


SMTX OS 和 SMTX ZBS 在网卡层面也适配了众多市面主流品牌的主流型号网卡和网卡芯片,如 Intel、Mellanox、Solarflare、Broadcom、中兴、H3C、Huawei 等。在构建高性能资源池时,推荐选用支持 SR-IOV、RDMA 的网卡,如果要启用 RDMA 模式建议选用Mellanox CX-5 网卡。


  • RDMA

    • Mellanox CX-5 25GbE

  • SR-IOV

    • Intel X722

    • Mellanox CX-4/5 

    • Solarflare X2、8000


交换机选型



使用 SmartX 超融合和分布式存储,推荐使用典型网络拓扑架构进行网络规划,存储网络、管理网络、虚拟机业务网络/存储接入网络推荐选择支持 MLAG 高可用组网特性的数据中心级交换机,以获得更好的网络质量。


存储网络推荐使用 10GbE 及以上的以太网交换机。如使用 NVMe 作缓存盘,或使用 SATA 全闪磁盘,推荐使用 25GbE 以太网交换机;如要构建高性能集群,建议使用支持 RDMA L3 流控的交换机。


存储接入网络通常在分布式块存储分离部署场景中使用,建议采用 10GbE 及以上以太网交换机。如果接入端(虚拟化、物理服务器、OpenStack、Kubernetes 容器平台)希望使用RDMA 特性,推荐使用 25GbE 及更高速率且支持 RDMA L3 流控的以太网交换机。


管理网络使用千兆网络即可满足网络要求,如要获得更好的网络体验,管理网络也可以使用 10GbE 或更高速的以太网交换机。


虚拟机业务网络对交换机没有具体的限制和要求,通常根据业务系统负载进行选择。如果现有千兆网络能满足业务系统需求,使用千兆网络也是可以的,如要获得更好的网络服务质量,推荐使用 10GbE 及以上以太网交接机。


另外,我们为用户提供一组信创交换机 RDMA 打流测试数据作为参考。目前 RDMA 在以太网网络上的主流传输方式是 RoCEv2,该协议是基于无连接服务的 UDP 协议,相比面向连接服务的 TCP 协议,UDP 协议传输速度更快、CPU 资源占用更少,但传输质量是不可靠的。RDMA 接收方网卡发现丢包时,会丢弃后续接收到的数据包,发送方需要重发之后的所有数据包,这会导致性能大幅下降。所以要想 RDMA 发挥出其性能,需要为其搭建一套不丢包的无损网络环境。


通俗的说,如果要构建 RDMA 无损网络,就需要流量控制和拥塞管理等流控机制,以确保RDMA 网络的服务质量。如图中 RDMA 打流测试为例,同一红框内左右两端网络流量数据误差越小,表示 RDMA 网络质量越好。


RDMA 交换机打流测试数据

注:在国产交换机 RDMA 打流测试过程中,使用的是同一套 SmartX 超融合集群。


从以上数据可以看出,华为、H3C 的信创交换机对 RDMA 场景的支持能力较强,完全能够满足构建高性能资源池的要求。


典型应用场景配置实践


场景一:要求“高性能、低延时”的重要业务系统


对于各种具有高性能、低延时需求的重要业务系统,如交易类业务系统、中间业务系统、数据库等,建议用户构建 NVMe 全闪资源池。整套架构的信创硬件配置,我们结合上述分析整理了以下方案,供用户参考。



场景二:性能敏感型业务系统


对于对性能相对敏感的业务系统,如重要业务系统的开发测试场景、数据分析业务、生产等,建议用户构建 NVMe + SATA SSD 分层全闪高性能资源池。整套架构的信创硬件配置可参考以下方案。



场景三:一般生产业务系统


对于一般生产业务系统、开发测试环境、一般业务系统容灾/备份等场景,建议用户构建 SATA SSD + SAS HDD 混闪分层存储资源池。整套架构的信创硬件配置可参考以下方案。



场景四:一般业务系统


对于边缘业务系统、管理类业务系统、一般开发测试环境、归档存储类等,建议用户构建 SATA SSD + SATA HDD 混闪存储资源池。整套架构的信创硬件配置可参考以下方案。



更多超融合信创云基础设施能力特性与用户实践,请阅读《信创云转型合集:技术路线、厂商评估与用户实践》

推荐阅读:

修改于
继续滑动看下一个
志凌海纳SmartX
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存