查看原文
其他

信创安全 | 基于量子信息技术的档案管理系统分布式加密存储解决方案

循态量子 信创纵横
2024-10-31

点击 信创纵横 并设为星标⭐️ 及时获取最新资讯

编者按:基于量子信息技术的档案管理系统分布式加密存储解决方案,兼容和适配X86服务器、国产飞腾服务器、华为鲲鹏、兆芯处理器等硬件,以及Linux系统、银河麒麟、中标麒麟等操作系统,支持国密算法,实现安全、自主、可控的软硬件一体的存储解决方案



编辑|信创纵横公众号(ID:xinchuangzh)出品 | 安东工作室作者|上海循态量子科技有限公司、北京循态捷量子科技有限公司转载|请注明出处

01

项目概述


项目背景


党的十九大报告中,习近平总书记明确提出了建设网络强国和数字中国的战略目标,提出推动互联网、大数据、人工智能和实体经济深度融合,促进传统产业优化升级。随着各类信息系统和数据中心快速建设发展,产生的敏感业务数据量也越来越多、存储越来越集中、价值越来越重要,来自内部和外部的安全威胁因素越来越多,安全风险越来越高,导致数据泄露事件层出不穷,数据存储的安全问题也越来越突出。

存储系统的安全包含保密性和完整性,威胁存储数据安全的根源在于存储介质中的数据是以明文方式保存,入侵者可以轻易地非法获取或修改数据,而应对这种威胁的最有效方法就是使用密码技术。事实上,密码是保障网络和信息安全的核心技术和基础支撑。

中办厅字【2018】36号文提出了金融和基础信息网络、重要信息系统、重要工业控制系统及政务信息系统等重要领域的密码应用要求,增强了应用密码技术保护网络安全的意识,密码与国家重大战略和新技术新应用深度融合,充分发挥密码保障金融和重要领域网络安全的作用。在2019年5月发布的《GB/T22239-2019信息安全技术网络安全等级保护基本要求》明确指出三级以上(包括三级)等级保护安全计算环境的数据保密性要求,规定“应采用密码技术保证重要数据在存储过程中的机密性,包括但不限于鉴别数据、重要业务数据和重要个人信息”,二级以上(包括二级)等级保护网络 “应遵循密码相关国家标准和行业标准;应使用国家密码管理主管部门认证核准的密码技术和产品”。在2018年2月发布的《GM/T 0054-2018 信息系统密码应用基本要求》中规定三级以上(包括三级)等级保护“应采用密码技术保证重要数据在存储过程中的机密性,包括但不限于鉴别数据、重要业务数据和重要个人信息”。以上政策文件和法律法规都明确指出了数据加密存储的重要性和必要性。

量子信息处理技术利用量子力学原理,运用一种全新的方式对信息进行编码、存储、传输和操纵,实现经典方式无法完成的信息处理过程,在提高运算速度、确保信息安全、增大信息传输容量等方面有着突出优势。其中,量子通信技术克服了传统信息安全技术内在的安全隐患,是目前唯一的安全性得到严格证明的通信安全技术,也是目前唯一实现了实用化、达到产业化水平的量子信息技术。

量子密钥分发不依赖于计算的复杂性来保证通信安全,而是基于量子力学基本原理,从原理上保证了一旦存在窃听就必然被发现。换言之,一旦成功在通信双方建立了密钥,这组密钥就是安全的,而这种具有绝对随机性的密钥从原理上是无法被破解的。量子密码系统的安全性不会受到计算能力和数学水平的不断提高的威胁,从而保证了利用量子密码系统加密的信息不仅在现在是安全的,而且在未来都是安全的。因此,量子保密通信是人类已知唯一的具有长期安全性保障的安全通信解决方案。

建设目标


  • 高性能


存储系统首先需要有能力提供足够的性能,能够覆盖到用户大部分业务需求,满足高并发或大量的业务数据分析等需求。

  • 高可用性


存储系统需要满足更高要求的高可用性。存储和数据高可靠性是业务活动连续开展的基础支撑。在存储发生故障时候,有相应的高可用机制来支撑和保障数据的自动恢复和动态迁移。

  • 资源动态扩展


存储系统能够支撑资源的动态伸缩以及资源池的动态扩展,能够按需分配,弹性扩展。在系统扩容的时候,能够做到性能和容量的线性扩展,避免资源的浪费。

  • 服务、接口的多样性


存储系统能够提供多样的存储服务,包括块设备服务来满足数据库类型的存储要求;文件系统、对象等存储服务来满足半结构化数据和非结构化数据的存储要求。因此,这就要求存储能够提供丰富的标准接口,包括文件系统接口(NFS、CIFS)、块接口(iSCSI、FC)或者对象接口(S3、SWIFT)以及对内能够提供标准的管理接口。

  • 高可管理性


存储系统在日常部署、管理、监控的环节能够实现自动化和可视化,提高存储资源服务的可管理性,包括资源分配、资源监控、故障告警等多方面的内容,提高运维管理人员的管理效率;并且逐步支持智能化的采集和分析,高效地利用现有资源,包括对存储IOPS、存储吞吐量以及存储容量的使用进行动态的监测和预测,方便管理人员对存储现有情况进行了解和及时对未来存储的扩容进行规划。

  • 安全性


采用量子加密技术提供全生命周期的数据安全解决方案,帮助客户解决各类数据安全防护问题。

设计原则

本方案中加密存储服务器解决方案,根据项目实际情况,以可靠性原则和安全性原则为主进行设计。

  • 可靠性原则


使用多副本技术来提高存储系统的可靠性;数据副本分布在不同的存储单元上,在硬件故障的情况下系统会把故障机器上的副本数据在其它机器上重构。

  • 安全性原则


只有合法的授权用户才能使用存储服务器系统,未授权用户无法使用;所有信息集中加密存储在存储服务器系统中,保障数据安全。

设计依据

GM/T 0009-2012《SM2密码算法使用规范》

GM/T 0003-2012《SM2椭圆曲线公钥密码算法》

GM/T 0010-2012《SM2密码算法加密签名消息语法规范》

GM/T 0015-2012《基于SM2密码算法的数字证书格式规范》

GM/T 0004-2012《SM3密码杂凑算法》

GM/T 0002-2012《SM4分组密码算法》

GB/T 15843.2-2008《信息技术安全技术实体鉴别第2部分:采用对称加密算法的机制》

GB/T 15843.3-2008《信息技术安全技术实体鉴别第3部分:采用数字签名技术的机制》

GB/T 37732-2019《信息技术 云计算 云存储系统服务接口功能》

GB/T 37737-2019《信息技术 云计算 分布式块存储系统总体技术要求》

GB/T 37722-2019《信息技术 大数据存储与处理系统功能要求》

GB∕T 37939-2019 《信息安全技术 网络存储安全技术要求》

GM/T 0005-2012《随机数检测规范》

02

需求分析


功能需求


  • 高性能


一个具有高性能的分布式存储通常能够高效地管理读缓存和写缓存,并且支持自动的分级存储。分布式存储通过将热点区域内数据映射到高速存储中,来提高系统响应速度;一旦这些区域不再是热点,那么存储系统会将它们移出高速存储。而写缓存技术则可配合高速存储来明显改变整体存储的性能,按照一定的策略,先将数据写入高速存储,再在适当的时间进行同步落盘。

  • 支持分级存储


由于通过网络进行松耦合链接,分布式存储允许高速存储和低速存储分开部署,或者任意比例混布。在不可预测的业务环境或者敏捷应用情况下,分层存储的优势可以发挥到最佳。解决了目前缓存分层存储最大的问题是当高性能池读不命中后,从冷池提取数据的粒度太大,导致延迟高,从而给造成整体的性能的抖动的问题。

  • 多副本的一致性


与传统的存储架构使用RAID模式来保证数据的可靠性不同,分布式存储采用了多副本备份机制。在存储数据之前,分布式存储对数据进行了分片,分片后的数据按照一定的规则保存在集群节点上。为了保证多个数据副本之间的一致性,分布式存储通常采用的是一个副本写入,多个副本读取的强一致性技术,使用镜像、条带、分布式校验等方式满足租户对于可靠性不同的需求。在读取数据失败的时候,系统可以通过从其他副本读取数据,重新写入该副本进行恢复,从而保证副本的总数固定;当数据长时间处于不一致状态时,系统会自动数据重建恢复,同时租户可设定数据恢复的带宽规则,最小化对业务的影响。

  • 弹性扩展


得益于合理的分布式架构,分布式存储可预估并且弹性扩展计算、存储容量和性能。分布式存储的水平扩展有以下几个特性:

1) 节点扩展后,旧数据会自动迁移到新节点,实现负载均衡;

2) 水平扩展只需要将新节点和原有集群连接到同一网络,整个过程不会对业务造成影响;

3) 当节点被添加到集群,集群系统的整体容量和性能也随之线性扩展,此后新节点的资源就会被管理平台接管,被用于分配或者回收。

安全性需求

用户访问数据需要保证认证的安全,每个用户的存储空间隔离,用户之间的数据无法相互访问。用户保存的数据需要加密存储。

性能需求


  • 持久性


指在一段时间内数据丢失的百分比,通常已年为计算统计周期,比如用户在这一年存储了100万比特的数据,出现了其中1个比特位数据错误,那么持久性就是1-(1/1000000)=99.9999%/年。出现数据错误是在系统三副本同时出现故障且无法恢复的情况下才会可能发生数据错误。

  • 数据一致性


系统数据采用三副本存储方式,每份数据都要三份都写完成后才确定最终写成功,从而达到数据的一致性。

  • 可用性


存储集群提供多副本机制,当某个单元出现故障,整个集群依然能够提供对外服务。

  • 带宽


由于系统采用量子加密通信技术和量子密钥加密的方式,每台机器提供1个高速随机数板卡2个密码卡,每个机器的最大写入带宽最大可以达到6Gb/s。

  • 空间利用率


指用户存储数据占用有效容量的存储空间比率,由于业务对数据安全性要求比较高,采用三副本的存储方式,根据选择副本的个数3,有效容量使用率就是设备总容量/副本数3。

  • 可扩展性


存储集群的容量可以在线线性扩展,扩展后数据会自动负载到新的扩容节点上,整个扩容的过程可以通过自动化方式完成。

兼容性需求

兼容和适配X86服务器、国产飞腾服务器、华为鲲鹏、兆芯处理器等硬件,以及Linux系统、银河麒麟、中标麒麟等操作系统,支持国密算法,实现安全、自主、可控的软硬件一体的存储解决方案。

维护性需求

系统自带监控管理自检系统。

可靠性需求

每次读取数据时检查单个数据块是否由于静默损坏造成数据的,如果发生,则通过副本数据进行修复;同一份数据会保存多份,即使副本所在的节点宕机也不会造成数据丢失;密码卡密钥备份,当密码卡损坏时也不会因加解密的问题造成用户数据的不可用。

03

系统设计


分布式加密存储架构

循态量子分布式存储系统逻辑架构上主要可以分成五个部分:Mon、OSD、client、循态文件存储、DB,每个部分可以独立部署且支持水平扩容。其系统架构组成如下图所示:
图3.1.1分布式存储系统架构

下面对每个部分进行简要概述:

Mon:集群中心控制软件,实现分布式存储的集群状态控制、集群管理、集群故障恢复、集群数据重建等服务,系统部署3个Mon服务,多个Mon服务组成的集群采用选举法选取主的Mon,主Mon对其它的Mon进行状态管理、数据一致性同步等处理。

OSD:管理单个磁盘存储设备服务进程。一个 OSD 守护进程与集群中的一个物理磁盘绑定,OSD 负责将数据以 Object 的形式存储在这些物理磁盘中,在客户端发起数据请求时提供相同的数据。物理磁盘总数与集群中负责存储用户数据到每个物理磁盘的OSD守护进程数是相等的。OSD同时还负责处理OSD之间的数据复制、数据恢复、数据的再平衡以及心跳机制监测其它OSD状况并报告给MON对于任何读写操作客户端都首先向MON请求集群的数据位置映射信息,然后客户端就可以直接与 OSD进行 I/O 操作。

DB:存放整个集群元数据信息。
循态文件存储基于SAMBA服务集群作为中间层的文件处理系统。

Client:用户访问端。
循态加密存储系统的特性包括分布式无状态客户端、分布式管理集群、分布式哈希数据位置分布算法,具有高可靠、自动数据重均衡、自动恢复的分布式对象存储系统。

系统基本原理及流程

  • 多副本机制

多副本机制将一份同样的数据存储到多台不同的主机上,确保主机出现故障的情况下数据可以正常使用。文件设置以3副本为例循态保存到分布式集群中,系统会寻找3台不同主机进行存储,每份数据在不同主机上有一份数据副本,每份数据是有顺序的编号,通过一定的算法定位到存储数据的位置编号。

图3.2.1 多副本分布示意图

每种颜色方框代表不同的用户数据,数据在系统中通过多副本的方式存储在不同的主机上。数据在系统中的每一个副本也是通过密码卡加密保存。

  • 写数据一致性保障
图3.2.2写数据流程图

在Client本地计算出三个副本的存储位置后,将直接和Primary OSD通信,发起写入操作,具体操作步骤如下:

步骤1:Primary OSD收到请求后,分别向Secondary OSD和Tertiary OSD发起写入操作

步骤2、3:当Secondary OSD和Tertiary OSD各自都完成写入操作后,分别向Primary OSD发送写完成确认信息。

步骤4、5:当Primary OSD收到其它两个OSD的写入确认后,并自己也完成数据写入。

步骤6:最终向client确认写入操作完成。

  • 数据写流程

循态分布式存储系统服务接入层采用SAMBA服务集群的方式向用户提供NAS存储服务。
图3.2.3数据写流程图

SAMBA服务采用循态分布式文件系统作为用户的存储空间。循态分布式文件系统会将用户写入的数据进行分片,将分片写入指定的存储OSD节点上。

内核加解密层位于磁盘映射层和物理磁盘层的中间,接收虚拟磁盘上写入的明文数据,调用密码卡和对应磁盘的密钥,对明文数据进行加密。系统采用一磁盘一密的方式,每个节点上的每块磁盘所采用的密钥均不相同。为保障数据加密的可靠性,系统采用双卡随机采样方式对加密结果进行校验,如果校验通过,则将密文数据写入对应的磁盘上;如果校验不通过,则此次写入操作失败。

用户通过NAS客户端向分布式存储中写入文件。

客户端先写主副本,然后同步到两个从副本。主副本等待从副本的ack消息和apply消息。当主副本收到ack消息,说明写操作已经写在内存中完成,收到apply 消息,说明已经apply到磁盘上了,在写之前需要查询具体写数据的位置信息,下图绘出了文件存储的位置信息计算流程:

图3.2.4文件存储位置信息计算流程图

  • 数据写描述

File:用户需要操作的文件,无论文件大小都要按照指定的块粒度大小进行切分,每个小块都有一个块编号。每个块称为一个个对象object。

Objects:object是数据操作的最小对象。object的大小可以自行配置。当上层应用定义的存放空间大于object定义块大小的时候,需将文件按照定义的块大小进行切分。

PG是一个逻辑概念,是数据的逻辑安放归置组,主要用于把一个个object进行逻辑组织映射,通过hash算法把object映射到一组pg的集合中,每次操作object的时候先找到对应的pg组,然后通过pg找到对应的存储载体磁盘位置信息,既文件的对象的访问过程是object->pg->osd的过程。

以对象名分别为cup和foo的两个对象,对它们的对象名进行计算即:
HASH(‘cup’) = 0x3E0A4162
HASH(‘foo’) = 0x7FE391A0
HASH(‘cup’) = 0x3E0A4162

对象名进行HASH后,得到了一串十六进制输出值,也就是说通过HASH我们将一个对象名转化成了一串数字,那么上面的第一行和第三行是一样的有什么意义?相同的意义就是对应一个同样的对象名,计算出来的结果永远都是一样的,通过HASH算法的确将对象名计算得出了一个随机数。有了这个输出,我们使用小学三年级学过的方法:求余数!假设PG的总数为256,用随机数除以PG的总数256,得到的余数一定会落在[0x0, 0xFF]之间,也就是这256个PG中的某一个:

0x3E0A4162 % 0xFF ===> 0x62
0x7FE391A0 % 0xFF ===> 0xA0
结论是对象cup保存到编号为0x62的PG中,对象foo保存到编号为0xA0的PG中。对象cup永远都会保存到PG 0x62中!对象foo永远都会保存到PG 0xA0中!

Osd:每个磁盘为一个osd存储空间,每个osd上保存若干个object。object的逻辑组织单元PG通过DHT分布式一致HASH算法映射到此对象的osd副本集合。每份数据在落盘之前会对数据进行加密。

把已有的PG映射到OSD上,有了映射的关系就可以把一个PG的object保存到磁盘上,此过程为pg到osd的映射,映射的过程流程如下:

给出一个PG的ID编号,作为CRUSH_HASH算法函数的输入参数。

CRUSH_HASH(PG_ID, OSD_ID, r) 得出一个随机数(重点是随机数,不是HASH,r权重参数因子)。

对于所有的OSD用他们的权重乘以每个OSD_ID对应的随机数,得到乘积。

选出乘积最大的OSD,这个PG的object就会保存到这个OSD上。

使用这样的映射机制能够精准地定位到每个对象使用在哪个osd上,最终和相应的osd连接通信去读写数据,object->pg->osd映射效果图如下:

图3.2.5 object->pg->osd映射效果图

通过上面两个存储位置的计算分析,从object->pg再从pg->osd的计算刷选,最终得到唯一的映射关系信息,把这样的计算结果保存到每个节点上,实际上,对应的存储服务网关通过这个映射关系信息,直接和相关的OSD建立访问通信连接,服务网关直接读取指定位置的数据,达到分布式并行处理的能力。

客户写流程图:

图3.2.6 客户写流程图

  • 数据流程

客户端读数据,通常情况下会首先从本地缓存读取,如果此时读的数据正好在缓存中命中就无需到后端再去取数据;对于未命中的数据首先需要查询数据的位置信息,通过映射位置的关联信息去与OSD管理进程建立访问通道,读取对应位置的数据。

以用户读取NAS中的文件数据为例,循态分布式文件系统会从指定的OSD中读取分片数据。内核加解密层在接收到OSD读取数据请求时,会从对应的物理磁盘上读取密文数据,再利用对应的密钥对密文数据进行解密。为保障数据存储的可靠性,系统采用双卡随机采样方式对解密结果进行校验,如果校验通过,则将解密后的明文数据返回给OSD;如果校验不通过,则此次读取操作失败。

客户端读流程,通常情况下对于热点数据系统会缓存到本地,如果此时读的数据正好在缓存中命中就无需到后端再去取数据;对于未命中的数据首先需要查询数据的位置信息,通过映射位置的关联信息去与OSD管理进程建立访问通道,读取对应位置的数据。

图3.2.8客户端读流程图

  • 数据隔离

用户数据的隔离主要由用户权限管理和用户逻辑空间隔离。

用户文件权限管理,为用户提供标准的文件权限访问控制功能,每个用户访问需要对应的key信息,在用户绑定目录访问文件时需要通过key认证才可以访问各自的文件目录,达到了不同用户访问文件的隔离,系统管理员也无权访问用户数据,所有用户数据的访问都必须通过key认证。

用户逻辑空间隔离,每个用户建立的存储空间都对应后端的一组逻辑空间,各个逻辑空间都是采用独立的空间划分模式,根据用户定义的逻辑空间大小,在系统中计算出逻辑块的分布信息,每个用户定义的用户空间之间是相互独立,它们之间无法进行任何数据的操作和访问,数据操作的唯一入口是在服务器网关侧。用户存储空间到后端的逻辑空间定义如下图:

图3.2.9 用户空间逻辑图

不同的用户文件定了不同逻辑存储空间,由于采用的是多副本机制,不同副本会写在不同的主机上,同时用户间的文件保存的逻辑块是相互隔离的。

管理员也无法访问其他用户的数据。

  • 用户空间使用流程
分布式存储系统提供对外标准的NAS和SCSI服务,用户通过注册申请,管理审核的模式批准用户空间的申请,申请成功后系统提供一个目录地址供用户使用,申请和审核流程如下:

图3.2.10用户申请流程图

新用户场景:

新用户注册申请,管理员对用户注册身份进行验证和资源需求信息进行审核,如果通过合规性检查,生成用户的访问信息,生成一条连接访问信息(适用于NAS和SCSI),用户通过访问连接信息可以访问自己的存储空间。

已有用户资源调整场景:

已有用户配额调整申请,管理员对已有用户资源调整申请的合规性进行审核,审核通过后调整用户资源的配额信息。对于SCSI资源配额的调整只能增大无法减小。

用户资源删除场景:

系统不会及时删除用户的数据信息,系统保留一周后对申请删除的资源数据进行彻底删除。

支持常规性的Linux和Windows系统对NAS和SCSI的连接访问。

用户使用流程:

用户运行系统自带的NFS或CIFS客户端,输入连接地址和用户/密码,通过身份验证后自动映射一个目录到本地,用户即可使用申请的空间。

  • 加解密流程

数据加解密对应用系统/用户透明,应用系统/用户保存到磁盘上的数据是密文;应用系统/用户从磁盘读取的数据是明文。
图3.2.11加解密流程图
图3.2.12数据读解密
  • 密钥管理

循态加密存储系统的密钥主要是数据加密主密钥和数据加密工作密钥。数据加密主密钥由硬件高速量子随机数板卡产品量子随机数通过设备内的高性能密码卡产生,整个生命周期(包括产生和销毁)由量子密钥管理系统进行管理。数据加密工作密钥由磁盘特征值和数据加密主密钥通过密码运算产生,数据加解密完成后立即销毁。

数据加密主密钥的密钥管理包括密钥生成、密钥备份、密钥恢复、密钥销毁。

(1)密钥生成
数据加密主密钥为对称密钥算法的密钥。在系统初始化时,由系统调用硬件量子随机数板块产生量子随机数,密码卡使用量子随机数结合相应的密码算法提供的对称密钥生成接口生成,并存储在硬件密码卡1中,密钥长度为32字节,用于生成数据加密工作密钥。同时调用硬件密码卡提供的对称密钥导出接口将密码卡1上的数据加密主密钥导出,调用硬件密码卡提供的对称密钥导入接口将数据加密主密钥导入密码卡2存储,保持双卡密钥同步。

(2)密钥备份
由量子密钥管理系统生成非对称密钥对,导出公钥。系统调用硬件密码卡提供的对称密钥导出接口将指定密钥位的数据加密主密钥导出,再调用硬件密码卡提供的非对称算法及量子密钥管理系统提供的公钥对导出的数据加密主密钥数据进行加密后生成数据加密主密钥密文文件。密钥密文文件由量子密钥管理系统利用私钥解密后得到加密主密钥数据存储在量子密钥管理系统。

(3)密钥恢复
在系统硬件密码卡上生成非对称密钥对,导出公钥。在量子密钥管理中心导出备份数据加密主密钥数据利用密码卡导出的公钥进行加密后生成数据加密主密钥密文文件。在加密存储系统利用密码卡上私钥对数据加密主密钥密文文件进行解密得到数据加密主密钥明文,调用硬件密码卡提供的对称密钥导入接口将数据加密主密钥导入至密码卡指定密钥位存储。

(4)密钥销毁
由系统调用硬件密码卡提供的对称密钥销毁接口对密码卡1和密码卡2上指定密钥位的密钥进行销毁。


故障处理

  • 单块磁盘的故障

系统平台有自动发现故障磁盘功能,当系统发现故障磁盘后会邮件或者短信通知管理员,管理员通过管理界面对此磁盘进行操作,依据故障类型采取在线修复或磁盘下线等处理方式。对于需下线的磁盘,可以设置故障恢复的时间点,同时也可以设置数据的恢复速度,避免在业务繁忙的时间段去恢复和搬迁数据。

  • 主机故障

主机故障分为两种场景,第一种场景是主机需下线更换故障的硬件,可以通过管理界面设置主机维护模式,待故障主机硬件修复好后上线,整个维护周期主要在硬件的修复上;第二种场景主要是服务器硬件无法修复,如果通过重建副本数据方式,数据量迁移过大,采取的措施是把故障机器的所有存储数据盘移到新的一台机器上恢复,需要人工把所有数据盘和密码卡插入到新的机器上,然后通过管理员界面初始化数据,重新上线,整个处理和恢复数据不会产生数据的搬迁,修复时间通常取决于服务器的硬件调整时间。

  • 密码卡故障

系统平台有自动发现密码卡故障的功能,当发现密码卡故障时需要将主机下线,替换上密码卡后主机开机,在量子密钥管理中心导出备份数据加密主密钥数据利用密码卡导出的公钥进行加密后生成数据加密主密钥密文文件。在加密存储系统利用密码卡上私钥对数据加密主密钥密文文件进行解密得到数据加密主密钥明文,调用硬件密码卡提供的对称密钥导入接口将数据加密主密钥导入至密码卡指定密钥位存储。

总结,对于硬件类故障主要分为三类,一类硬件支持热插拔,通常是磁盘故障,这类故障在线维护即可;另外一类,需停机维护更换故障的硬件,再次上线;最后一类,服务器硬件故障无法恢复,需要把这台机器下线。总之对于硬件类的故障都可以做到数据的恢复、数据不丢失、界面化的操作方式降低运维的复杂度。

安全性设计

数据的安全性通过三个层次的方式保驾护航:

业务安全层,用户访问数据需要通过安全认证。

逻辑空间存储层,每个用户申请的数据存储空间都会建立在一块独立的磁盘空间上,用户之间的逻辑空间无法相互访问。

数据加密层,用户保存的数据在落盘之前通过密码卡方式加密后落盘保存。

可靠性设计

循态分布式文件系统采用强一致性,即必须等待所有的副本全部写入完毕才算是写入成功,即使有硬件损坏的情况下依然不会出现数据丢失,对故障硬件上的副本数据会在正常的机器上自动重构减少的副本数据。

通过密码卡双卡校验保证加密的有效性和可靠性;密钥备份与恢复保证密码卡损坏时数据可用性。

04

系统建设


系统部署图

图4.1.1系统部署图

建设内容

机房采用多台循态存储加密服务器作为存储节点,以分布式部署方式构建加密存储资源池,以多副本方式提供高安全、大容量、高吞吐量的存储服务。加密存储资源池用于存储用户的敏感数据和关键数据,具有高安全性、高性能,高可用性,高可扩展性优点。

加密存储资源池(分布式加密存储方式)的核心是循态加密服务器存储系统,提供数据加密存储服务的解决方案,其融合了自适应条带化、数据分片均衡加密,多副本机制保障、数据自平衡、故障数据重机制、存储热升级等诸多存储技术,满足各个行业的关键业务的存储需求,保证客户业务高效稳定可靠运行。

基于加密服务器存储系统的存储资源池具有以下优点:集成分布式管理集群、分布式哈希数据路由算法、分布式无状态机头、分布式智能Cache等先进技术架构;具有数据分散存放,实现全局负载均衡,并且采用分布式缓存技术等高性能特性;采用集群管理方式,不存在单点故障,灵活配置多数据副本,不同数据副本存放在不同的机架、服务器和磁盘上,单个物理设备故障不影响业务的使用,系统检测到设备故障后可以自动重建数据副本等高可靠特性;没有集中式存储控制器,支持平滑扩容,容量几乎不受限制等高扩展特性,满足面向云平台和租户的各种虚拟化加密存储需求。

产品组成

循态存储管理系统包含集群管理、存储管理、权限管理和密码管理四个模块。

  • 集群管理

集群管理包括概览、主机管理和磁盘管理。

概览:包括健康状况、集群容量、集群带宽、主机信息和集群IOPS

图4.3.1 集群概览图

主机管理:对存储服务器节点的状态的展现和管理,包含主机状态、CPU使用率、内存使用率、总内存、已用内存、采集时间和主机删除。

图4.3.2 主机管理

磁盘管理:对存储服务器节点磁盘的管理。

图4.3.3 磁盘管理

  • 存储管理

存储管理包含存储池管理、文件存储和块存储

图4.3.4 存储管理

  • 权限管理

权限管理包含用户管理、角色管理和权限设置。
用户管理包含用户创建和修改。

图4.3.5 用户管理

角色管理包含角色的创建和修改。

图4.3.6 角色管理

权限设置:对角色资源权限的设置,包括集群管理、存储管理和权限管理。

图4.3.7 权限管理

  • 性能指标

读写类别
指标参数
描述
备注
数据吞吐量
最大吞吐量可达1.2Gb
每秒大文件读写的最大吞吐量
对磁盘存储位置的不连续访问

建设清单


一期建设产品清单如下页所示。


二期建设产品清单。
 

05

解决方案联系方式


陈先生:手机号:18019949466   微信号:safefollow
2
——如果你觉得不错,点个在看吧。

END

 


继续滑动看下一个
信创纵横
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存