GigaOm高性能云文件存储雷达报告v4.0
核心摘要
文件存储是混合云战略的核心要素,企业更倾向于选择它,而不是块存储和对象存储,尤其适用于大数据、人工智能和协作等场景。因此,我们决定将云文件存储领域的评估聚焦于两个方面:在本报告中关注大数据和人工智能的高性能云文件存储;在我们的配套雷达报告中关注分布式云文件存储中的协作。
云服务商最初并未提供文件存储服务,这促使多个存储供应商推出产品和服务来填补这一空白。在疫情期间,这种需求显得尤为迫切:随着对数据流动性的需求增加,以及大量工作负载在本地和云基础设施之间迁移,文件存储相较于其它形式的存储更具优势——更易于使用,更易于访问。
迁移到云的趋势和迁移方案越来越普遍,企业通常希望保持其环境尽可能与原始环境相同。文件存储在实现这一目标方面起着关键作用,但简单性和性能同样至关重要。
对于许多工作负载,文件系统仍能提供最佳的性能、可用性和可扩展性组合。它仍是大多数大数据、人工智能/机器学习和高性能计算(HPC)应用程序的主要接口,并且现在通常还提供数据服务,如快照,以优化数据管理操作。
近年来,文件系统更加适应云环境,与对象存储的集成也更加完善,实现了更好的可扩展性、速度和成本的平衡,同时具备了用于数据迁移和灾难恢复的先进功能。
传统存储供应商和云服务商现在都提供可在本地和云中运行的解决方案或文件服务。虽然他们的方法不同,但找到一个既能满足当前需求又能应对未来挑战的解决方案可能非常困难。云服务商通常能提供整个堆栈的最佳集成,但也增加了锁定风险,并且服务并非总是最佳。另一方面,存储供应商的解决方案通常提供更好的灵活性、性能和可扩展性,但可能效率较低或缺乏端到端解决方案提供的集成水平。
这标志着我们对云文件空间进行评估的第四个年头,我们基于对关键能力和雷达报告的深入分析,并充分考虑市场在过去一年的演变。
在本雷达报告中,所有涉及的解决方案均满足行业内广泛认可且实施良好的核心要求,包括:
可靠性和完整性
基本安全性
访问方式
快照功能
Kubernetes支持 关键能力对比
GigaOm雷达报告
本报告综合分析了关键能力及其对评估指标的影响,并提供了GigaOm雷达图的相关信息。该图表以前瞻性的视角评估了本报告中所有供应商,主要依据其产品技术实力和功能集合。
GigaOm雷达将供应商的解决方案呈现在一系列同心圆上,距离中心越近则被认为具有更高的整体价值。图表通过两个轴来描述每个供应商——平衡成熟度与创新,以及功能型态与平台型态——同时提供一个箭头,预测每个解决方案在未来12到18个月内的发展。
正如雷达图所示,供应商主要集中在“快速推进者”或“表现优越者”的区域。与去年相比,供应商在定位方面并没有发生显著变化,但创新的速度有所提升,每个供应商都展现出更为宏大的发展蓝图。
在创新/平台型态象限中的供应商包括Hammerspace、Nasuni、NetApp、Panzura、Qumulo和WEKA。
Hammerspace通过其全局命名空间实现,提供了基于策略的无缝数据编排功能,用于数据复制和分层。自从2023年收购RozoFS并在Linux内核方面取得创新以来,其在高性能实现的支持方面有了显著提升,为基于NFS的客户端提供了并行的文件系统架构。
Nasuni继续为用户提供一个平衡且设计精良的平台,该平台既具备大规模的可扩展性,又拥有出色的勒索病毒防护功能。该公司正在积极推进其短期路线图上的数据管理改进,以进一步完善其功能集。
NetApp通过提供新功能并同时简化管理界面,继续履行其实现雄心勃勃路线图的承诺。NetApp ONTAP企业级云文件系统在云和本地部署之间提供无缝互操作性,现在可作为一体化产品在Amazon Web Services(AWS)、Microsoft Azure和Google Cloud Platform(GCP)上提供。
Panzura提供了一个高度可扩展的解决方案,具备全面的功能集,如主动式勒索病毒保护和先进的数据管理套件。虽然它们也能满足云文件系统的需求,但各自的架构在应对云文件系统通常对性能、吞吐量和延迟的要求方面可能存在挑战。
Qumulo提供了一套全面的企业级解决方案,涵盖数据复制、数据流动性、数据集成和分析等多种服务。该解决方案现在可以在Azure上作为服务使用;除了令人瞩目的路线图外,Qumulo计划在2024年第一季度逐步实施关键功能,包括备受期待的数据压缩。
WEKA Data Platform继续成为高性能工作负载的首选解决方案,例如人工智能/机器学习、高性能计算(HPC)、生命科学中的基因组学和药物发现、媒体娱乐中的内容保护以及高频交易(HFT),无论是在本地、混合部署,还是在AWS、Azure、GCP和OCI等云中。该公司的路线图包括对数据管理领域的期待和受欢迎的改进。
在创新/功能型象限中的解决方案仅部分覆盖了GigaOm的关键能力。其中包括四个超大规模云服务商——AWS、GCP、Microsoft Azure和Oracle Cloud Infrastructure(OCI),以及一个软件定义存储解决方案ObjectiveFS。
这些超大规模云服务商在该区域的定位反映了它们各自或多或少拥有全面的云文件系统服务组合,尽管这些服务主要针对特定应用场景,因此并不总是涵盖全部关键能力的全谱。
AWS提供了一个非常全面的云文件系统组合,包括面向云原生文件存储的Amazon EFS以及与现有文件系统兼容的Amazon FSx for NetApp ONTAP、Windows Server、Lustre和OpenZFS等服务。2023年的改进主要集中在提高性能和弹性方面。
GCP现在提供了一个基于NetApp ONTAP存储操作系统的产品,品牌为Google Cloud NetApp Volumes,使用起来更加便捷。这是在2019年推出NetApp Cloud Volumes Service for Google Cloud之后的自然发展,当时是一个完全由NetApp支持的服务,但作为第三方解决方案提供。此外,还提供了Google Filestore,该解决方案在过去一年中得到了改进,但仍有进一步扩展的空间。
Microsoft提供了几个云文件系统解决方案——Azure NetApp Files、Azure Files和Azure Blob,每个都有多个性能和成本层次,在消耗和部署方案方面提供了极大的灵活性。其中,最成熟的企业级解决方案是Azure NetApp Files,这是Microsoft与NetApp合作的一个全球可用的解决方案。其它解决方案的命名空间相对较小,但微软正在努力提高这些限制。此外,微软还在2023年7月推出了Azure Managed Lustre解决方案。
OCI提供了一系列围绕强大的数据耐久性、高可用性和大规模可扩展性构建的文件存储服务。目前,该解决方案在稳健性和对数据管理的关注方面颇具吸引力,但在其它领域需要进一步发展以赶上竞争对手。Oracle还为面向高性能计算的企业提供了OCI HPC File System堆栈作为相关方案,并提供了OCI ZFS镜像。
在云存储领域,ObjectiveFS是唯一的非超大规模云服务商。其解决方案主要突显了底层稳定性和性能改进。该解决方案专注于支持要求苛刻的工作负载,并在本地、混合和基于云的部署中展现其适用性,特别适合追求卓越性能的企业。然而,它确实在数据管理功能方面有所欠缺。
第三组供应商位于成熟度/平台型态象限:DDN、IBM和Zadara。
DDN通过其基于Lustre的Exascaler EXA6设备,持续关注人工智能和高性能计算工作负载。该设备提供了可扩展性、高性能和多租户功能,这是这类工作负载的关键能力。此外,该公司还提供基于云的Exascaler设备。
IBM Spectrum Scale作为寿命最长的云文件系统,通过稳定的改进不断展示其相关性,包括不可变快照、勒索病毒保护和面向高性能工作负载的容器化S3访问服务,同时支持文件和对象访问。
Zadara主要通过托管服务提供商(MSP)以服务的形式提供其解决方案,部分部署直接在客户场地。其综合平台集成了存储(文件、对象和块)、计算和网络,具有出色的分析能力以及卓越的数据流动性和数据保护方案。
分析师观点
高性能云文件存储市场相当吸引人。对许多人而言,公有云服务商凭借其主导地位和庞大的市场份额,似乎能够提供最全面的解决方案,这似乎是不言而喻的。然而,实际情况并非如此。
公有云服务商提供的解决方案涵盖了从简单产品(如Oracle、Google)到更复杂的高性能云文件存储解决方案(如Azure、Amazon)等多种类型,它们之间存在一定的重叠和特定应用场景。然而,这些解决方案存在一些主要问题:除了与NetApp等供应商的一线合作伙伴关系等显著例外情况外,这些公有云解决方案通常需要进行额外的调整和改进,以满足企业的实际需求。
这些解决方案在管理、监控和先进安全性实施等关键能力方面存在一定的差距。值得肯定的是,公有云解决方案通常提供无缝扩展性和简单的按使用量付费方案,以及更广泛的应用场景覆盖,从而满足企业中不同角色的需求。
相比之下,专注于高性能云文件存储的存储供应商可能提供更为专一的解决方案,但具备更优越的企业级能力和更完整的功能集。这些解决方案中的许多可以在公有云上运行,并提供类似于云的消费模型,同时提供引人注目的价值,并能够无缝运行使用混合云模型。
随着企业越来越注重将基于文件的、对性能敏感的工作负载转移到云端并重新设计,对高性能云文件存储的需求将持续增长。目前,专业化的存储供应商更能满足这一需求,因为它们具备更完整的功能集,更符合企业需求。相比之下,公有云服务商在这方面相对落后,除非它们与专业化的存储供应商合作并提供专门的解决方案。
高性能云文件存储解决方案在能力方面正在不断成熟,导致创新逐渐减少(除了少数供应商)。今年,大多数供应商都专注于提高性能和稳定性,或者进行架构变更。后者对于释放解决方案的未来潜力、实现进一步的发展可能非常重要。然而,仅仅关注底层的长期路线图变更可能会丧失竞争优势,除非能够专注于解决一个具体的问题。
Amazon
Amazon提供了一个强大的基于文件的服务组合,包括Amazon FSx、Amazon EFS和Amazon File Cache。Amazon FSx系列提供了四种热门的文件系统选择:Windows文件服务器、NetApp ONTAP、Lustre和OpenZFS。这些服务可以通过Amazon FSx控制台进行管理和监控,该控制台提供了跨所有四个FSx产品的统一监控功能。
Amazon FSx for Windows File Server提供了使用服务器消息块(SMB)协议的完全托管的本机Windows文件共享服务。在2023年,该解决方案在吞吐量和IOPS方面显示出显著的性能改进。
FSx for NetApp ONTAP为AWS平台提供了一种经过验证的企业级云文件存储体验,它与AWS消费模型本地集成。由于NetApp在所有主要云平台上的存在,它具有卓越的技术能力。该解决方案遵循NetApp ONTAP原则,并且在单个命名空间中可扩展到多个PB。
Amazon FSx for Lustre实现了一个符合POSIX标准的文件系统,与Linux工作负载本地集成,并可由Amazon EC2实例或本地工作负载访问。该解决方案与AWS S3存储桶相关联,其对象被透明地呈现为文件。在2023年,Amazon增加了一个文件释放功能,通过从Lustre释放与S3同步的文件数据,实现了对AWS S3的分层。
Amazon FSx for OpenZFS将OpenZFS的本机能力引入到云中,包括快照、克隆和压缩。该服务简化了OpenZFS基础的数据密集型Linux工作负载迁移到AWS的过程。现在还支持多AZ文件系统,以提高关键业务应用的弹性。
Amazon EFS是基于NFS 4.1协议的大规模并行文件存储解决方案,作为完全托管的服务提供。它可以扩展到PB级别,文件系统可以在单个AZ内托管,或者在应用需要多区域弹性时跨多个AZ内托管。AWS Backup提供了集中式的数据保护功能,AWS DataSync支持数据的流动性。最后,Amazon File Cache为存储在任何地方的数据集提供了一个高速缓存,无论是在云中还是本地。
分析和监控通过多个端点处理。AWS控制台提供了总体概览,Amazon EFS或Amazon FSx的专用控制台提供了各种指标。日志记录和审计可以通过AWS Cloudwatch控制台执行。一些服务提供了快照的不可变性(可用于勒索病毒缓解和恢复),但配置、恢复和编排必须手动执行。
优势:Amazon提供了一套庞大的云文件存储解决方案,可以满足广泛的用户和应用场景需求,通过其FSx服务提供了与流行文件系统方案的很好的灵活性和兼容性,同时通过EFS提供了云原生体验以及通过Amazon File Cache提供了混合云方案。
挑战:Amazon庞大的产品组合要求企业充分了解公司的产品以及服务与特定应用场景的对齐情况。丰富的生态系统也很复杂,具有分析和管理功能。该平台可以提供卓越的价值,但需要对其全部潜力有深入的了解。
DDN EXAScaler
DDN的EXAScaler是一个并行文件系统,具有出色的性能、可扩展性、可靠性和简易性。DDN提供的数据平台旨在启用和加速大规模的各种数据密集型工作流。EXAScaler使用Lustre构建,这是一个快速且可扩展的广泛流行的并行文件系统,特别适用于规模化计算。它在最具挑战性的HPC环境中经过测试和精炼。Lustre和EXAScaler背后的团队,现在大部分受雇于DDN,技术娴熟且专注,继续积极开展工作。
DDN EXAScaler设备将并行文件系统软件与快速的超融合数据存储平台相结合,以一个易于部署的包中,由数据领域的领导者进行管理和支持。针对AI和HPC工作负载设计,DDN在GPU集成方面表现出色,首次实现了GPU直接集成。EXAScaler客户端部署到GPU节点,实现了远程直接内存访问(RDMA),并监控GPU客户端到磁盘的应用程序访问模式,提供了出色的工作负载可见性。DDN还是NVIDIA DGX SuperPOD唯一认证和支持的存储解决方案,使DDN客户能够将解决方案作为托管的AI云运行。DD还拥有支持NVIDIA DGX Pod和DGX SuperPOD的参考架构。
DDN EXAScaler的快速并行架构实现了可扩展性和性能,支持低延迟工作负载和高带宽应用程序,如基于GPU的工作负载、AI框架和基于Kubernetes的应用程序。此外,DDN EXAScaler解决方案可以随着规模化数据的增长而发展,其智能管理工具可管理各个层次的数据。
数据安全性内建,具备安全的多租户、加密、端到端数据保护和复制服务,为客户提供了一个平衡良好的解决方案。此外,Lustre在EXAScaler产品中具备的关于更改日志数据和审计日志的能力,为客户提供了对其数据更好的洞察力。不幸的是,勒索病毒保护尚未完全整合到解决方案中。
除了物理的EXA6设备,被品牌化为EXAScaler Cloud的基于云的解决方案在AWS、Azure和GCP上本地运行,可以轻松从每个云提供商的市场获得。云同步等功能使EXAScaler能够在存档、数据保护和云工作负载爆发方面具备多云和混合数据管理能力。
还值得一提的是DDN DataFlow,这是一个与EXAScaler紧密集成的数据管理平台。虽然它是一个独立的产品,但绝大多数DDN用户依赖DataFlow进行平台迁移、存档、数据保护应用场景、跨云的数据移动、还原等。
优势:DDN EXAScaler建立在Lustre并行文件系统之上。它提供了一个可扩展和高性能的解决方案,为客户提供了一种安全而灵活的方式,支持多租户、加密、复制等功能。该解决方案在GPU集成方面表现出色,DDN在该领域被认为是领先者。
挑战:勒索病毒保护能力仍然需要充分实施。
之前只有Google Filestore作为GCP上的高性能云文件存储服务,现在GCP上的高性能云文件存储服务还包括Google Cloud NetApp Volumes。基于NetApp Cloud Volumes ONTAP,Google Cloud NetApp Volumes是一个完全托管、云原生的数据存储服务,直接将NetApp企业级能力带到GCP。该解决方案与其它超大规模云服务商的第一方NetApp服务完全兼容,并且与任何本地或基于云的ONTAP 9.11部署兼容,允许以真正的多云方式进行无缝数据操作。Google Cloud NetApp Volumes还可以通过NetApp BlueXP进行管理(在NetApp解决方案评估中有全面介绍),并在28个地区提供服务。它是唯一一个提供SMB、NFS、克隆和复制功能的Google服务。
Google Filestore是一个完全由Google Compute Engine和GKE支持的Kubernetes实例托管的NAS解决方案。它使用NFSv3协议,旨在处理高性能工作负载。Google Filestore能够扩展到数百TB,有四个不同的服务层次:基本HDD、基本SSD、高扩展SSD和企业。每个层次具有不同的容量、吞吐量和每秒输入/输出操作(IOPS)特性。使用高扩展SSD和企业层的客户可以在不再需要时缩减容量。
该解决方案是Google Cloud环境的本地解决方案,因此无法在本地或其它云平台上使用。它不提供全局命名空间;客户获得每个层次的最大100TB的一个命名空间,具体取决于每个层次的临时容量限制。
Filestore具有增量备份功能(在基本HDD和SSD层上可用),可以在区域内或跨区域创建备份。备份是全局可寻址的,允许在任何GCP区域进行还原。目前在高扩展SSD层上没有数据恢复功能(既无备份也无快照),而企业层支持区域级的快照和可用性。不幸的是,企业层每个共享只能扩展到10 TiB。
Google建议企业利用生态系统合作伙伴提供企业级数据保护功能。数据移动能力主要依赖于命令行工具,如remove sync(rsync)或secure copy(scp),这些工具也可用于将数据复制到云存储桶,即Google的对象存储解决方案。对于更大的容量,客户可以使用Google Cloud Transfer Appliance,这是一个带有安全措施和认证的硬化设备。Google还提供了Storage Transfer Service,帮助客户执行更简单的数据传输或数据同步活动,但与市场上的数据迁移和复制工具相比,功能似乎有限。
Filestore包含一组可用于数据管理活动的REST API。数据分析提供基本的度量和配置警报的能力。
该解决方案实施了行业标准的安全功能,但没有审计用户活动的功能(除非手动解析日志),也没有防范勒索病毒的能力。但企业可以使用Bucket Lock功能创建Google Cloud存储桶,并使用数据移动工具将数据复制到对象存储。
请注意,本报告包含的几家供应商允许其高性能云文件存储在GCP上运行。这为利用GCP作为其公共云平台的企业提供了更大的灵活性,尽管目前这些解决方案均不作为第一方服务提供(通常由Google运营和向客户计费)。
优势:Google Cloud的文件存储能力正在提升,部分得益于Google Cloud NetApp Volumes的推出。对于在很大程度上依赖GCP的企业来说,Filestore是一个令人兴奋的解决方案。它提供了与高吞吐量和对延迟敏感的工作负载的持续性性能相结合的本地体验。
挑战:Google Filestore已经改进,但在可扩展性和定制性方面仍存在限制。需要高度可扩展存储的用户应考虑其它方案。
Hammerspace
Hammerspace通过创建具有自动化数据编排的全局命名空间,将全局数据环境纳入一个整体。它通过将并行全局文件系统与企业级NAS数据服务结合起来,提供了在任何使用数据的地方都能实现高性能的能力,同时不损害企业数据治理、保护和合规性要求。Hammerspace通过提供单一文件系统来克服混合云、多云区域和多云文件存储的隔离特性,而无论站点的地理位置如何,无论存储供应商提供的存储是在本地还是基于云的,都能提供单一文件系统,并通过将控制平面(元数据)与数据平面(实际数据所在的地方)分离。它符合多个版本的NFS和SMB协议,并支持NFSv4.2的RDMA。
Hammerspace于2023年5月收购了RozoFS,并将RozoFS技术整合到其解决方案中。现在,客户可以部署新的DSX EC-Groups,这提供了具有较高性能的数据存储,由于使用了纠删码编码,数据效率得到了显著提高。Hammerspace解决方案旨在为在HPC和AI培训、检查点和推理工作负载中需要的数据存储提供高性能和可伸缩性。
该解决方案允许客户使用基于目标的策略自动化,通过单一全局命名空间,使他们能够在世界各地使用、访问、存储、保护和放置数据,用户无需知道资源的物理位置。系统实时监控数据和存储使用是否符合策略目标,并以无缝透明的方式执行自动化的后台合规性纠正。通过在位置之间保持一致同步的本地元数据,为远程应用程序、AI模型、计算农场和用户提供高性能的本地访问。即使数据正在传输到新位置,用户和应用程序也可以对元数据服务器执行读/写操作,并在数据传输过程中使用其文件。
该产品基于对文件系统标准的元数据的智能使用,包括遥测数据(如IOPS、吞吐量和延迟)以及用户定义和分析收集的元数据,允许用户或集成应用程序快速查看、过滤和搜索元数据,而无需依赖文件名。此外,Hammerspace通过Hammerspace Metadata Plugin支持用户丰富的元数据。Hammerspace将解释自定义元数据,并可用于分类以及创建数据放置、灾难恢复或数据保护策略。
Hammerspace可以在边缘、本地或云中部署,支持AWS、Azure、GCP、Seagate Lyve、Wasabi和其它几个云平台。它可以使用其自己的存储节点,数据中心中的任何现有第三方供应商块、文件或对象存储系统,或广泛的云存储用于数据存储。它实施了共享级别的快照以及全面的复制功能,允许文件通过Hammerspace Policy Engine自动在不同站点之间复制。基于策略的复制活动也可按需进行。这些功能使企业能够实施多站点、主动-主动的灾难恢复,实现自动故障切换和恢复。
与对象存储的集成也是Hammerspace的核心能力:数据可以复制或保存到云中,并且可以自动在对象存储上进行层级存储,以减少本地存储占用并节省存储成本。
Hammerspace的网络韧性策略依赖于本地不可变功能、监控和第三方检测能力。缓解功能包括undelete和文件版本控制,允许用户恢复未受勒索病毒相关数据损坏影响的文件版本。Hammerspace为恢复自动化数据编排的能力也是Hammerspace功能集的核心部分。
Hammerspace在AWS、Azure和Google Cloud市场上有售,并与Snowflake集成。
优势:Hammerspace的Parallel Global File System通过元数据的强大能力提供了一套非常平衡的功能,具有复制、混合和多云的能力。
挑战:目前缺少内建的主动勒索病毒检测功能。
IBM Storage Scale
IBM Storage Scale提供了一个可扩展且灵活的软件定义存储解决方案,可用于高性能云文件存储应用场景。该产品基于强大而经过验证的IBM全局并行文件系统(GPFS),在后端可以处理多个构建模块:IBM非易失性内存表达(NVMe)快闪存储节点、Red Hat OpenShift节点、容量、对象存储和多供应商NFS节点。
该解决方案提供了多个文件接口,如SMB、NFS、符合POSIX标准和HDFS(Hadoop),以及一个与S3兼容的对象接口,使其成为适用于具有多种工作负载类型的环境的多功能选择。IBM Storage Scale客户端负责数据的放置,将负载分散在集群中的存储节点上。公司最近推出了面向高性能云原生工作负载的容器化S3访问服务,并且现在还支持并发的文件和对象访问。
该解决方案提供了一个可管理的单一命名空间和迁移策略,使得能够在不影响用户体验的情况下在存储池之间透明地移动数据。
IBM Storage Scale支持远程站点,并提供各种数据缓存方案以及快照支持和多站点复制功能。该解决方案包括基于数据特征和底层存储成本的企业可以自动化数据放置的面向策略的存储管理功能。它包括一个名为Transparent Cloud Tiering的功能,允许用户使用高效的复制机制将文件分层到云对象存储。
该解决方案包括一个管理界面,通过该界面提供了监视数据使用概况和模式的能力。通过附加服务IBM Watson Data Discovery,提供了全面的数据管理功能。
在Storage Scale的5.1.5版本中,IBM引入了一个快照保留机制,防止在全局和文件集级别删除快照,有效地实现了不可变性,从而为平台带来了基本的勒索病毒防护功能。IBM Storage Insights或IBM Spectrum Control可以提供关于攻击的早期警告迹象。这两个解决方案都可以分析当前的I/O工作负载与先前的使用基线进行比较,并帮助提供攻击正在进行中的迹象。企业可以设置多重触发器的警报,指示可能发生攻击。
该解决方案在HPC社区中仍然很受欢迎,IBM还将Storage Scale定位为AI应用场景的优化解决方案。最后,IBM Storage Fusion是Storage Scale的容器化版本(也可在HCI部署模型中使用),可用于边缘应用场景。
优势:IBM Storage Scale持续进行积极的开发,并稳步发布显著的改进。它具有出色的跨平台支持,超越了x86架构。
挑战:缺乏先进的分析功能,需要进一步开发。
Microsoft Azure
Microsoft通过其Azure Storage组合提供了多个基于SaaS的云文件存储解决方案,旨在满足不同的应用场景和客户需求。这些解决方案中的大多数提供不同的性能层。最近,该组合增加了Azure Managed Lustre解决方案。
Azure Blob通过使用对象存储后端(使用REST、NFSv3.0和ABFS驱动程序通过HDFS进行大数据分析)提供基于文件的访问,重点放在大型、读取密集的顺序访问工作负载上,例如大规模分析数据、备份和归档、媒体渲染和基因测序。该解决方案在Microsoft的云文件存储解决方案中提供了最低的存储成本。该解决方案还支持本机SFTP传输。
Azure Files使用与Azure Blob相同的硬件,但提供两种共享类型:NFS和SMB。NFS共享实现了对NFSv4.1协议的全POSIX文件系统支持;SMB共享上提供REST支持,但目前在NFS共享上尚不支持。该解决方案面向随机访问工作负载。
Azure NetApp Files由Microsoft和NetApp联合开发的第一方解决方案组成,使用在NetApp裸机系统上运行的ONTAP,完全集成在Microsoft Azure云中。该解决方案提供了客户从NetApp期望的所有好处,其中包括企业级功能、与本地部署的全功能对等性,以及基于NetApp ONTAP的其它公共云提供的功能。
通过使用DFS Namespaces,Azure File Sync支持全局命名空间;DFS-N命名空间还可用于在几个Azure文件共享之间创建全局命名空间。除Azure Blob外,在Azure云文件存储组合提供的各种解决方案和层次中没有全局命名空间功能可用(Azure Blob提供了一个分层命名空间,允许客户在对象存储数据上使用NFS和SFTP)。除Azure File Sync外,Azure还提供各种数据复制和冗余方案。
虽然Azure NetApp Files依赖于ONTAP,但Azure Blob和Azure Files都基于对象存储后端。Azure Files解决方案在自动层级方面具有部分功能;然而,Azure Blob提供了基于创建、最后修改甚至最后访问的分层,其中包括基于策略的分层到更便宜的层和在访问时自动分层到更热的层。
存储组合通过用于数据管理目的的API提供了丰富的集成功能。可通过Azure Monitor单一管理界面进行观察和分析,该界面还整合了Azure Monitor Storage Insights。
Azure Files服务通过提供增量只读备份来防范勒索病毒。支持每个共享最多200个快照,并且还提供了一个软删除功能(恢复回收站)。
最后,本地Azure File Sync解决方案可用于边缘部署。
优势:Microsoft提供了一个广泛的组合,具有多个方案、协议、应用场景和性能层,使企业能够以成本有效的方式使用云文件存储。它还通过其第一方Azure NetApp Files解决方案提供了企业级多云能力。
挑战:没有全局命名空间管理功能,无法为最终用户抽象出底层文件共享的复杂性。还存在基于不同共享类型的一些限制,尽管Microsoft正在努力增加最大卷大小。各种解决方案可能显得非常复杂,因此对于较小的企业来说可能令人望而却步。
Nasuni
Nasuni提供了一种专为企业文件数据服务设计的SaaS解决方案。该解决方案拥有一个基于对象的全局文件系统,作为其主要引擎支持各种文件接口,包括SMB和NFS。它与所有主要的云服务商无缝集成,并与本地S3兼容的对象存储兼容。Nasuni的SaaS解决方案为管理企业文件数据服务提供了一个可靠而高效的平台,使企业能够简化数字运营流程。
Nasuni解决方案包括一个核心平台,涵盖多个领域的附加服务,包括防勒索病毒保护和混合工作,计划中还有数据管理和内容智能服务。许多Nasuni客户实施该解决方案以替代传统的NAS系统和Windows文件服务器,其特性还使用户能够替换其它基础架构组件,如备份、灾难恢复、数据复制服务和归档平台。
Nasuni提供名为UniFS的全局文件系统,它提供了一个层,将文件与存储资源分开,在公共或私有云对象存储中管理数据的主副本,同时分发数据访问。全局文件系统管理所有元数据(例如版本控制、访问控制、审计记录和锁定),并通过标准协议(如SMB和NFS)提供对文件的访问。使用Nasuni的Edge Appliances对活跃使用的文件进行缓存,因此用户可以通过现有的驱动器映射和共享点进行高性能访问。所有文件,包括在多个本地缓存中使用的文件,都将其主副本存储在云对象存储中,因此可以从任何访问点全局访问。
Nasuni管理控制台提供了对全局Edge Appliances、卷、快照、恢复、协议、共享等的集中管理。Web界面可用于点对点配置,但Nasuni还提供了用于在任意数量的站点上进行自动监视、配置和报告的REST API方法。此外,Nasuni Health Monitor向Nasuni管理控制台报告CPU、目录服务、磁盘、文件系统、内存、网络、服务、NFS、SMB等的健康状况。Nasuni还与Grafana和Splunk等工具集成,以进行更多分析,并最近宣布了与Microsoft Sentinel的更正式集成,共享来自Nasuni Edge Appliance(NEA)设备的安全、网络威胁和其它事件信息。数据管理功能正在集成,由于Nasuni于2022年6月收购了数据管理公司Storage Made Easy,未来几个月将有更多的集成。
Nasuni通过Nasuni Continuous File Versioning和其Rapid Ransomware Recovery功能在其核心平台中提供了防勒索病毒保护。为了进一步缩短恢复时间,公司最近推出了Nasuni Ransomware Protection作为一个附加的付费解决方案,它通过不可变的快照结合主动检测和自动化缓解功能。该服务根据签名定义分析恶意扩展名、勒索注意和可疑的传入文件,这些定义被推送到Nasuni Edge Appliances,自动停止攻击,并为管理员提供最近清理快照的地图以进行恢复。该解决方案的未来版本(在路线图上)将在边缘设备上实施基于AI/ML的分析。
Nasuni Edge Appliances是轻量级的虚拟机(VM)或硬件设备,使用SMB或NFS访问从Windows、macOS和Linux客户端缓存频繁访问的文件,以实现良好的性能。它们可以在本地或云中部署,以替代传统的文件服务器和NAS设备。它们对文件进行加密和去重,然后在云中的频繁间隔进行快照,将它们以只读格式写入对象存储。
Nasuni Access Anywhere附加服务提供本地同步功能、安全且方便的文件共享(包括企业外的共享)以及与Microsoft Teams的完全集成。最后,Edge Appliances还提供搜索和文件加速服务。
优势:Nasuni的文件系统解决方案安全、可扩展,并能防范勒索病毒。Edge Appliances使对频繁使用的数据进行快速和安全的访问成为可能。非常适合寻求高效可靠的文件存储的企业。
挑战:该解决方案主要关注分布式数据和数据可用性,并未调整为提供面向性能导向工作负载的高性能、高吞吐量和低延迟。尽管数据管理功能正在迅速集成,但仍然是一个关注点。
NetApp
NetApp通过BlueXP提供无缝体验,BlueXP是一个统一的控制平台,通过一个SaaS交付的多云控制平台提供多个存储和数据服务。
在NetApp BlueXP提供的服务中,客户可以找到Cloud Volumes ONTAP(CVO),基于NetApp的ONTAP技术,以及在AWS(Amazon FSx for NetApp ONTAP)、Azure(Azure NetApp Files)和Google等超大规模云服务商的第一方服务。最近新增了Google Cloud NetApp Volumes(目前在14个地区提供,计划在2024年第一季度覆盖全局所有地区),是唯一提供SMB、NFS和复制功能的Google服务。这些第一方服务与超大规模云服务商的管理和API接口紧密集成,为云原生用户提供无缝体验。
BlueXP还支持一系列其它数据服务,如可观察性、治理、数据流动、分层、备份和恢复、边缘缓存和运营健康监控。NetApp最近在BlueXP中添加了一个可持续性仪表板,显示功耗(千瓦时)、直接碳使用(tCO2e)和散热量(BTU)。它还显示了碳减缓百分比以及从推荐操作(如启用缓存、去重等)中获得的潜在收益。
Cloud Volumes Edge Cache是实施全局命名空间的CVO版本,无论距离如何,都可以抽象多个部署和位置。结合几种智能缓存机制以及全局文件锁定功能,实现了无缝、无延迟的体验,使数据在本地缓存实例中以本地访问速度访问。NetApp ONTAP的架构支持混合部署的本地部署,无论是在本地还是通过云版本(如CVO)。
解决方案的整合与对象存储是解决方案的关键组成部分,基于策略的数据放置可在本地与NetApp StorageGRID或在云中与AWS S3、Azure Blob Storage或Google Cloud Storage上进行自动、透明的数据分层,具有从对象层检索请求的文件的能力,无需应用或用户干预。对象存储集成还扩展到备份和灾难恢复应用场景。通过Cloud Backup,备份数据可以使用块级、增量-永远技术写入对象存储。Cloud Volumes ONTAP和Amazon的第一方实现,FSx for NetApp ONTAP,还允许文件/对象二元性,用于GenAI等工作负载,允许从启用S3的应用程序中统一访问NFS/SMB数据,消除了为S3访问复制或重构NAS数据的需要。
一致的API使数据副本能够根据需要创建。该平台在所有扫描的数据存储中提供强大的数据分类和分析功能。企业有能力生成DSARs、HIPAA和GDPR等合规和审计报告,这些合规和审计报告也可以实时运行在所有Cloud Volumes数据存储上。
BlueXP平台在与ONTAP存储的本地安全特性相结合时提供了针对勒索病毒和可疑用户或文件活动的高级安全措施,包括不可变的快照。BlueXP中的一个新功能是防勒索病毒保护,它提供对安全和用户行为活动的情景感知,以帮助识别风险和威胁,并指导如何改进企业的安全状况和纠正攻击。
该解决方案支持灵活的部署模型,也考虑到边缘应用场景。BlueXP边缘缓存为远程位置提供了对集中数据存储的快速和安全访问,该存储对该位置的常用数据进行了本地缓存,所有这些都在集中控制下。客户分布式的工作人员可以从任何远程位置透明地访问始终保持最新的数据集。该解决方案在全局范围内都有轻量级的边缘存在,可以在世界任何地方轻松进行安全、一致和可见的配置。
优势:作为三大超级云服务商的第一方服务提供,NetApp提供了一系列无与伦比的企业级功能,实现了无缝的数据流动和一致、简化的运营体验。网络安全性、数据管理和数据保护功能增加了该平台的整体价值,提供了领先行业的云文件存储体验。
挑战:尽管有明显的改进,NetApp组合对于初学者来说仍然复杂,尽管使用BlueXP作为入口点是解决这个感知问题的有效途径。
ObjectiveFS
ObjectiveFS是一个支持本地部署、混合部署和基于云的云文件存储平台。其POSIX文件系统可以由客户端作为一个或多个目录访问,它在后端使用对象存储。数据直接写入对象存储,无需任何中间服务器。ObjectiveFS通过客户端软件在服务器上本地运行,提供本地磁盘速度的性能。该解决方案通过向现有环境添加ObjectiveFS节点,可以简单、无中断地进行扩展。该解决方案可以规模化到数千台服务器和存储的PB级。
该解决方案侧重于多种应用场景,包括机器学习、金融模拟和集群计算。它还涵盖了更传统的应用场景,如非结构化文件存储、Kubernetes和Docker的持久性存储、数据保护、分析和软件开发工具。
ObjectiveFS提供一个全局命名空间,通过对象存储后端同步所有更新。该解决方案支持基于云和本地的S3兼容对象存储,如IBM Public Cloud、Oracle Cloud、Minio、AWS S3、Azure、Wasabi、Digital Ocean Spaces和GCP,允许客户选择Azure本机API或S3兼容API。在ObjectiveFS的第7版中添加了对AWS Outposts和S3 Glacier Instant Retrieval的支持。
ObjectiveFS使用自己的日志结构实现,将数据写入对象存储后端,将许多小写操作捆绑在一起成为一个对象。相同的技术可以用于读操作,只需访问对象的相关部分。该解决方案还使用了一种称为压实的方法,将元数据和数据捆绑成一个对象,以加快访问速度。存储类感知支持确保可以使用策略实现智能数据分层,并根据使用情况将数据移动到不同的层。为确保满足性能要求,ObjectiveFS提供了可以同时使用的几个级别的缓存。
用户可以在多个位置(多区域和多云)部署该解决方案。该解决方案提供了灵活的部署选择,允许存储和计算在不同位置和不同云中运行。
从网络恢复性的角度来看,ObjectiveFS基于日志结构实现和内置的不可变快照,可在勒索病毒攻击的情况下提供恢复能力。它还提供了全面的安全功能,如飞行中和静止时的数据加密。该解决方案支持多租户,因此数据使用单独的加密密钥进行加密,只能被拥有数据的租户访问。
ObjectiveFS最有趣的特性之一是包含了一个工作负载自适应启发式机制,支持数亿个文件,并调整文件系统以确保提供一致的性能,而不管I/O活动配置文件(读与写、顺序与随机)或文件大小的活动配置文件是什么,可以在相同的性能水平处理许多小文件或大TB级别的文件。
优势:ObjectiveFS提供了高度可扩展且强大的解决方案,在不同数据类型下保持一致的性能水平。它提供了灵活的部署方案,并且对于多租户部署提供了强大的支持。
挑战:数据管理能力缺失。
Oracle Cloud Infrastructure
Oracle通过三种服务提供高性能的云文件存储方案:OCI文件存储、Oracle HPC文件系统堆栈和Oracle ZFS。
文件存储是Oracle为其OCI平台开发的云文件存储解决方案。作为一项服务交付的解决方案提供了一个自动可扩展、完全托管的弹性文件系统,支持NFSv3协议,并在所有区域提供。在每个可用域中最多可以创建100个文件系统,每个文件系统的增长可以达到8艾字节。该解决方案针对并行化工作负载进行了优化,并侧重于高可用性和数据耐用性,通过在不同故障域之间进行五路复制来实现。
Oracle文件存储支持快照和克隆。克隆功能允许文件系统立即提供读写访问权限,同时继承原始来源的快照。它使副本立即可用于测试和开发应用场景,使企业能够显著减少为验证目的创建其生产环境副本所需的时间。目前还没有备份功能,尽管可以使用第三方工具将数据复制到OCI域、区域、OCI对象存储或本地存储。在2023年6月,Oracle宣布OCI文件存储可用于管理快照的整个生命周期、匹配数据保留政策并更好地管理空间。
数据管理功能主要通过使用REST API实现。这些API可以与克隆功能结合使用,自动执行对主数据集副本执行工作负载的快速复制操作。管理控制台提供了对现有文件系统的概述,并提供了文件系统和挂载目标级别的使用和计量信息。管理员还可以通过OCI的一般监视界面查看系统健康状况和性能指标,并配置报警和通知。
OCI HPC文件系统堆栈专为需要使用传统HPC并行文件系统(如BeeGFS、IBM Spectrum Scale、GlusterFS或Lustre)的企业的高性能计算工作负载而设计。该服务最近通过对三种新的高性能文件系统的支持而得到增强:BeeOND(基于RDMA的BeeGFS随需应变)、具有高可用性的NFS文件服务器和Quobyte。前两者可通过Oracle Cloud Marketplace Stacks(通过Web界面)和基于Terraform的模板获得,而Quobyte仅通过基于Terraform的模板获得。
企业还可以选择Oracle ZFS镜像方案,这是一个可以配置为裸机或虚拟机的市场镜像,支持ZFS,现在还以高可用格式(ZFS-HA)提供。每个镜像可以扩展到1,024 TB,支持NFS和SMB与AD集成。该解决方案完全支持复制、快照、克隆和云快照,具有多种灾难恢复方案。
优势:OCI提供了一系列吸引人的云文件服务,从Oracle文件存储开始,对于构建在OCI平台之上的企业将特别吸引人。与DIY部署相比,HPC相关的文件系统堆栈是一种很好的选择,使这些受欢迎的文件系统能够更轻松地部署以更好地服务基于云的HPC工作负载。
挑战:目前在Oracle文件存储上没有特定的网络恢复能力。
Panzura
Panzura提供了一种基于其CloudFS文件系统的高性能混合云全局文件系统。该解决方案跨站点(公共云和私有云)工作,并提供具有本地文件操作性能、自动文件锁定和即时全局数据一致性的单一数据平面。最近,Panzura解决方案进行了重新设计,提供了一个模块化架构,逐步允许更多的数据服务与核心Panzura平台无缝集成。Panzura最近发布的Panzura Edge,一个适用于CloudFS文件的移动网关,展示了公司持续专注于为广泛分布的团队提供支持,这些团队依赖于移动设备进行大型文件协作,例如医疗护理点,以及远程现场建设和工程。
该解决方案实施了一个全局命名空间,并通过全局文件锁定机制解决数据完整性要求,提供全局范围内无论何处访问文件都实时数据一致性。它还提供了具有版本控制的高效快照管理,并允许管理员根据需要配置保留策略。备份和灾难恢复功能也得到提供。
Panzura利用S3对象存储,并与各种对象存储解决方案兼容,无论是托管在公共云中还是本地。其关键功能之一是云镜像,允许用户将数据写入到次要云存储提供商,确保在一个提供商发生故障的情况下数据可用性。此外,Panzura提供了分层和归档数据的方案。
Panzura通过其Panzura数据服务提供先进的分析功能。这一系列功能包括全局搜索、用户审计、监控功能和一键文件恢复。该服务提供核心指标和存储消耗数据,例如访问频率、活跃用户和环境的健康状况。Panzura还为数据管理提供了多个API服务,使用户能够将其数据管理工具与Panzura连接。Panzura数据服务可以检测到很少访问的数据,使用户能够采取适当的行动。
Panzura数据服务提供了强大的安全功能,以保护数据免受勒索病毒攻击。勒索病毒保护通过不可变数据(WORM S3后端)和全局文件锁定级别每60秒拍摄的只读快照的组合来处理,定期将数据移至不可变对象存储,并允许通过相同机制(备份)在勒索病毒攻击的情况下无缝恢复数据——企业在正常情况下用于恢复数据的机制。这些功能还有Panzura Protect补充,目前支持检测勒索病毒攻击并提供主动警报。未来,Panzura Protect还将支持端用户异常检测以检测可疑活动。
该解决方案还包括一个安全擦除功能,可删除所有已删除文件版本并用零覆盖已删除的数据,即使使用基于云的对象存储也可以使用该功能。
解决方案的一个新功能是Panzura Edge,它将Panzura的CloudFS直接扩展到用户的本地计算机。
优势:Panzura提供了一个混合云全局文件系统,具有本地访问性能、全局可用性、数据一致性、分层存储和先进分析,帮助企业更有效地管理其数据足迹。
挑战:Panzura解决方案是企业工作负载的云文件存储解决方案,可以补充高性能系统,但并非专门设计满足高性能要求,如高吞吐量、高IOPS和超低延迟。
Qumulo
Qumulo致力于开发一种基于软件、与供应商无关的高性能云文件存储解决方案,可在本地、云端乃至通过硬件供应商合作灵活交付。该解决方案提供了一套名为Qumulo Core的企业级数据服务,处理核心存储操作(可伸缩性、性能)以及数据复制和迁移、安全性、防勒索病毒保护、数据集成和分析。最近,Qumulo推出了其Azure原生Qumulo(ANQ)。作为一项经济实惠、完全托管的服务,Azure原生Qumulo以Qumulo平台提供的无缝数据迁移优势,提供可预测的基于容量的SaaS定价的PB级存储。
Qumulo支持混合和基于云的部署。除了Azure原生Qumulo外,企业还可以通过其首选的公共云市场部署Qumulo集群(该解决方案支持AWS、Azure和GCP)。还支持AWS Outposts,并且与AWS建立了全面的合作伙伴关系。Qumulo还通过与HPE GreenLake等存储即服务(STaaS)合作伙伴关系扩展了其交付模型。
该解决方案从性能和容量的角度线性扩展,提供一个具有无限容量的单一命名空间,支持数十亿个大文件和小文件,并通过高效的纠错编码技术使用几乎100%的可用存储。当添加节点或实例时,它还支持自动数据重新平衡。该命名空间支持实时查询和元数据的聚合,大大减少了搜索时间。
数据保护、复制和迁移应用场景得到很好的覆盖,包括快照和基于快照的云复制、连续复制以及带有故障切换功能的灾难恢复支持。Qumulo SHIFT是一个内置的数据服务,可将数据移动到AWS S3对象存储,并内置复制功能,包括对不可变快照的支持。通过SHIFT,Qumulo允许双向数据移动到和从S3对象存储,为企业提供更灵活和更好成本控制的选择。Qumulo还内置对S3的本机支持,允许通过NFS或SMB访问同一数据。
Qumulo包括一套全面的REST API,可用于执行积极的管理和自动执行文件系统操作。该解决方案配备了一个强大的数据分析引擎,提供实时的运营分析(跨所有文件、目录、指标、用户和工作负载)、容量意识和预测性容量趋势,具有“时光旅行”功能,可以浏览性能数据。通过Qumulo Command Center,企业还可以通过单一管理界面轻松管理其规模化的Qumulo部署。
高级安全功能包括只读快照,可复制到云端,以及审计日志记录以查看用户活动。2023年实施了不可变快照、快照锁定功能(防止删除)和对多租户的支持。
高性能云文件存储的一些关键功能或核心组件目前在Qumulo的路线图上。公司正在努力实现支持在地理上分布式访问数据的全局命名空间,以及极大降低按需云定价的能力,并在Azure原生Qumulo中弹性扩展和仅支付使用的能力。
优势:Qumulo提供了一套简单易管理和实施的综合云文件存储解决方案。其丰富而完整的数据服务集,加上广泛的部署模型选择,使其成为目前最具吸引力的云文件存储解决方案之一。其2024年的路线图看起来很有前景。
挑战:尽管解决方案非常丰富,但一些重要功能仍在路线图上。其中,值得一提的是数据缩减改进。Qumulo计划通过未来实施在线数据压缩来纠正这一问题。
WEKA
WEKA数据平台是一种高性能的云文件存储架构,提供全闪存阵列性能的软件定义存储解决方案,可在本地、云中或两者兼而有之的情况下运行。该平台构建在WEKA文件系统(WekaFS)上,并部署为一组容器;它提供多种部署方案,包括本地(裸金属、容器化、虚拟化)和云中,支持AWS、Azure、GCP和OCI。无论其位置如何,所有部署都可以通过单一管理控制台进行管理,所有部署均提供具有混合工作负载能力和多协议支持(SMB、NFS、S3、POSIX、GPU Direct和Kubernetes CSI)的单一数据平台。
该解决方案实施了一个跨性能层的全局命名空间,具有云中的自动可伸缩性,在抽象底层复杂性的同时为用户提供了一个统一的命名空间,并实现了不同层之间的透明后台数据移动。
由于动态数据分层,全局命名空间本地支持并可朝S3对象存储进行双向扩展,该分层自动将冷数据推送到对象层。两个层(基于闪存的和对象的)都可以独立扩展。一种名为Snap-To-Object的功能允许将数据和元数据提交到快照以进行备份、归档和异步镜像。此功能还可用于AWS、Azure、GCP和OCI中的仅云使用情况,以暂停或重新启动集群,防止单可用性区域故障,将文件系统迁移到不同区域,甚至在不同云之间迁移文件系统。
数据管理能力主要包括通过快照创建数据副本的能力,例如在DevOps应用场景中,作业或功能针对数据副本而不是主数据集执行。预计在未来,WEKA将改进该领域的一些功能,特别是围绕元数据标记、查询等方面。此外,其中一些功能可以外包给第三方引擎,例如通过运行来自ML引擎的数据分析,然后增强驻留在WEKA数据平台上的数据集的元数据。
通过WEKA API,可以进行API集成(包括无服务器)。在分析方面,WEKA的监控平台捕获并提供有关环境的遥测数据,具有深入研究某些指标的能力,一直到文件系统调用。该解决方案通过WEKA Snap-To-Object和WEKA Home实现了具有抗击勒索病毒攻击的网络弹性能力。WEKA Home收集遥测数据(事件和统计信息),并在检测到警告和警报时提供积极的支持。WEKA还可以通过检测每个存储主机中底层存储设备上的块校验和的更改来检测加密。正如前面所述,Snap-to-Object通过不可变的基于对象的快照保护数据,有助于保护数据免受勒索病毒攻击。
WEKA平台支持边缘汇聚部署,可在嵌入式IoT设备旁边部署小型集群。未来计划包括进行架构优化,以实现紧凑、资源高效的边缘部署。
这一多功能的解决方案在需要低延迟、高性能和云可扩展性的苛刻环境中特别有用,例如AI/ML、生命科学、金融交易、HPC、媒体渲染和视觉效果、电子设计和自动化以及工程DevOps。
优势:WEKA构建了一个坚固而无缝可扩展的高性能存储解决方案,具有全面的部署方案、自动分层和通过单一平台提供的丰富服务集,无需通过各种专用存储层复制数据。其包含文件和对象存储的单一命名空间减少了基础架构的蔓延和复杂性,使用户和企业受益。
挑战:数据管理仍然是需要改进的一个领域。
Zadara
Zadara Edge Cloud Services是一种主要面向MSP(随后将其作为服务提供给其客户群的MSP)和一些较大企业的有趣解决方案。该解决方案通过全局超过500个云合作伙伴在六大洲提供,并由弹性基础架构层组成,包括计算、网络和存储功能,其成本基于使用情况。存储产品称为zStorage,包括一个或多个可以部署在固态驱动器(SSD)、硬盘驱动器(HDD)和混合媒体类型上的虚拟专用存储阵列(VPSAs)。VPSAs能够同时提供块、文件和对象存储。可以创建各种VPSAs,每个都有自己的引擎类型(决定性能)和一组驱动器,包括备用驱动器。
对于基于文件的存储,支持全局命名空间,容量上限为0.5 PB,之后必须创建新的命名空间。虽然客户理论上可以使用第三方对象存储网关将文件存储在Zadara对象存储层(从而规避此限制),但没有本地多协议访问能力。
该解决方案提供了薄量配置的快照和克隆功能,可以是本地或远程的。基于快照的异步远程镜像功能使数据能够复制到同一VPSA中的不同池,复制到不同的本地或远程VPSA,甚至是到不同的云提供商。在传输到目标之前,复制的数据将被加密和压缩。该解决方案还允许多对多的关系,实现了跨VPSA的复制。克隆功能可用于在VPSA之间快速迁移卷,因为数据可以即时可用(尽管在后台复制所有数据之前,与源数据仍存在依赖关系)。
本地备份和还原功能利用了与AWS S3、Azure Blob Storage、Google Cloud Storage、Zadara对象存储和其它兼容S3的对象存储的集成。对象存储可由Zadara用于审计和数据保留目的。Zadara支持AWS Direct Connect以及Azure ExpressRoute,两者都允许将单个卷提供给驻留在多个公共云中的工作负载,从而实现在多个位置或云中使用单个数据集的可能性。在闪存上部署时,zStorage支持自动层级功能,识别热数据并将其放置在快闪/高性能层上,而访问不太频繁的数据则会层级到更低成本的硬盘或S3兼容的对象存储。
Zadara File Lifecycle管理服务为解决方案提供了数据管理和分析功能,包括增长趋势(总体和按文件类型)、跨多个指标的容量利用率以及按所有者和组的使用统计。这些报告使企业能够识别未使用的数据以及孤立的数据(没有分配给其所有者的数据)。
Zadara本机支持通过NFS和SMB访问的文件的访问审计。审核的数据被隔离或仅由管理员访问,并可以上传到远程S3存储库以进行长期保留。Zadara的文件快照是只读的,客户可以使用卷克隆来防止快照被删除,但当前没有快照锁定保留功能。然而,通过使用严格的基于角色的访问控制,可以在一定程度上防止快照的意外或恶意删除。尽管没有本地的勒索病毒保护功能,但Zadara与Veeam合作,通过Veeam的Scale-Out Backup Repository不可变功能提供这种保护。
Zadara的Federated Edge Program允许MSP快速在边缘部署Zadara,使MSP能够提供更接近其客户的一体化基础设施,同时遵循Zadara Cloud运营模型。Zadara提供必要的硬件和软件,收入在Zadara和Federated Edge合作伙伴之间共享。
最后,Zadara正在进行多项改进,包括快照锁定保留。其中一个将通过使用基于ML的引擎增强其监视,该引擎在通知管理员之前分析和解析警报模式。另一项计划中的改进将为其File Lifecycle功能带来成本分析和成本优化建议。
优势:Zadara Edge Cloud Services通过支持丰富的计算、存储和网络功能的平台提供全面的文件存储功能。远程克隆和镜像功能通过对象存储层次结构和多云支持提供无缝体验。分析功能提供有关趋势、容量和用户统计的多维信息。具有长期保留的文件审计功能对于法律目的可能是有用的。
挑战:对命名空间的0.5 PB容量限制可能对于在非常大的数据集上工作的许多团队的企业,例如基于云的AI、HPC和大数据工作负载,可能成为操作上的障碍。
---【本文完】---
近期受欢迎的文章:
我们正处于数十年未见之大机遇中
新技术爆发式发展,催生新产品
然而,颠覆式创新并非简单的技术堆叠
而是异常复杂的系统工程
需要深度洞察
欢迎一起分享思考和见解