《架构设计_全栈信创技术的存储架构设计.docx》由会员分享,可在线阅读,更多相关《架构设计_全栈信创技术的存储架构设计.docx(17页珍藏版)》请在第一文库网上搜索。
1、架构设计.全栈信创技术的存储架构设计第一部分2一、建设背景2二、存储架构31 .信创分布式存储架构设计32 .信创集中式存储架构设计3三、信创存储建设难点41存储和服务器虚拟化信创转型42 .系统适配难度43 .综合运维管理44 .安全保密测评5四、解决方案5第二部分5一、引言5二、银行传统环境的存储现状6三、传统环境存储运维面临的问题6四、信创环境下存储网络替换实施是什么样的?6五、结语13第三部分15一、全栈信创技术的理解16二、信创存储架构分析16三、信创存储选型建议171技术选型原则172 .传统存储与软件定义存储173 .存储基础组件芯片18在科技发展及地缘政治转变的时代背景下,我国
2、信创产业的发展已刻不容缓,探索IT技术设施层包括计算、存储、网络全面自主可控的同时,存储层面选择高性能、高适应性、高安全性的解决方案必然是信创产业的重要课题。第一部分当前云计算、AI、万物互联等新技术快速发展,不断催化着信创存储的变革,只有打通芯片、部件、系统间的各个环节,实现主控芯片、固件算法、系统架构、应用方案的深度融合,真正实现存储技术的根本性变革,才能从底层去满足云、大数据、AI的需求。一、建设背景“十四五”时期是我国全面推进经济和数字化转型的关键时期,为了“大力推进自主可控信息系统建设,摆脱信息技术受制于人的局面”,国家高度重视自主可控信息产业的发展,明确了计算机信息系统的自主可控安
3、全需求,大力推进党、政、军及关系国家安全的关键行业网络安全建设和自主可控信息系统建设,并相应出台了一系列的政策和要求,牵引自主可控信息产业的发展。到2023年底,部分业务场景新增采购的信创类分布式存储金额比例不低于30%,到2023年底,选定业务场景下的分布式存储应用解决方案占新增的金额比例应不低于50机当前云计算、AI,万物互联等新技术快速发展,不断催化着信创存储的变革,只有打通芯片、部件、系统间各个环节,实现主控芯片、固件算法、系统架构、应用方案的深度融合,真正实现存储技术的根本性变革,才能从底层去满足云、大数据、AI的需求。二、存储架构1 ,信创分布式存储架构设计信创分布式存储生于云、服
4、务于云,面向新数据时代,基于先进的软件定义及分布式技术架构,以多协议一体化存储服务方式,为传统应用、云及云原生环境、海量内容、大数据、人工智能等多元业务场景,提供数据基础设施一体化解决方案,既能高效承载复杂业务场景的多元混合负载,又能保障用户信创的最佳投资收益比。在架构设计上,信创分布式存储采用全用户态协议栈,实现秒级进程切换,压低时延,利用云原生技术,提供声明式存储资源供给服务,实现存储“敏捷开发、敏捷发布”。通过多副本或弹性EC数据冗余、快照、端到端数据一致性校验及自愈、远程复制等技术,保障从硬盘到卷/文件系统/桶、数据10、存储节点、存储机柜、数据中心级可靠性。硬件关键部件模块标准化设计
5、,软件栈全模块用户态设计,利于存储软硬件全栈故障维护和升级。基于深度学习算法,智能存储运维,提前预测容量和性能、预测硬盘故障、问题自动诊断。通过虚拟目录分区、大IO直通小IO聚合、多级智能CaChC缓存、元数据加速、数据自动分级等一系列加速技术,并结合私有客户端,在实现一套存储集群面对多元混合业务场景的复杂压力负载的同时提供高IOPS,高带宽及低时延,满足IO密集型、吞吐密集型和时延敏感型及大容量等各种业务需求。2 .信创集中式存储架构设计在各行业全面推进国产化信创趋势下,基于成熟可靠的国产化芯片平台,设计全栈存储系统,构建自主可控的信息技术底层架构,构建包含混合闪存、全闪存等存储。全闪存储在
6、功能、效率、可靠性和智能运维方面都有一定提升,不仅可以满足中大型数据库O1TP/01AP、服务器虚拟化、桌面虚拟化VDI、高性能文件共享等各种应用的数据存储需求,而且满足企业业务上云的业务演进需求。架构上采用业界领先的32GbFC-NVMe协议,后端最高采用IOOGbRDMANVMe协议,实现存储系统端到端NVMe数据加速。结合SCM性能加持,整体性能优于同级别传统X86架构存储。采用分布式RAID、快照/克隆、端到端数据一致性校验、双活、异步复制等高级功能,保障存储高可靠性。三、信创存储建设难点1 .存储和服务器虚拟化信创转型存储和服务器虚拟化都是核心组件,对业务效率和高可用性有直接的影响,
7、需要较长的时间验证其稳定性,尤其是基于专用硬件的存储,不仅需要采用新的CPU体系,整个硬件产品的从开发到稳定的周期也很长。2 .系统适配难度由于将现有的应用系统迁移到信息创新环境中,需对终端、服务器等进行全面信息创新适配调优,主要包括信息创新硬件设备与操作系统、数据库、中间件、浏览器、终端、外设、安全防护设备、存储系统、安全管理系统、运维管理系统等进行适配调优,并需对现有的存储系统进行升级改造,技术复杂度较高,实现难度较大,因此需要更多的时间来完成信息创新存储关联软硬件系统的验证调优工作才能满足应用需求。3 .综合运维管理信创存储实施项目后,信息创新应用的运行维护工作在工作量、工具方法、运维技
8、能等方面与现有工作相比都发生较大变化。信息创新软硬件故障率相对较高,运维量将显著增加。而且尚无成熟信息创新软硬件运维工具,采用人工运维难度较高。当前大部分运维人员只具备商用架构软硬件技术能力,难以开展信息创新软硬件运维。因此需建设信息创新运维管理系统,根据整体设计,基础设施要求全面上云,国产存储需要在统一的云管平台上实现存储资源管理和使用。4 .安全保密测评目前信创安全防护体系大多在商用架构下设计,尚无基于信息创新架构的成熟安全防护体系。仅有少量基于信息创新的安全产品具备国家保密局资质,故无法形成完整安全防护体系。基于商用架构的安全防护体系与基于信息创新的安全防护体系存在兼容性问题,在相对较长
9、的一段时间内两套体系的用户和系统都会存在交叉,并行运行的问题较难解决。目前应加大安全防护体系产品的适配范围及力度,关注信创存储数据加密问题,形成一套优化的组合产品体系,满足分级保护安全防护的要求。此外,在分级保护体系化基于国产CPU环境的软硬件调优也是一项工作重难点。四、解决方案根据多个业务和场景不同,采用SAN和NAS的两种存储访问方式,其中电子公文系统、日常办公系统、OA系统、门户系统等都通过FC光纤链路提供块级存储空间,而文件级的访问都通过网络链路提供NAS存储空间;存储需要与云平台之间通过Cinder驱动进行对接,方便系统管理员进行基础设施的统一使用和维护。第二部分在信息安全问题频发、
10、各国冲突频发的时代背景下,我国信创产业的发展已刻不容缓。在IT技术设施层探索一种包括计算、存储、网络全面自主可控的同时,需要达成比使用FC交换机性能更好的解决方案,为我国金融行业在全面自主可控徐子晨某商业银行存储工程师架构选型的道路上攻克光纤交换机这一技术堡垒贡献力量。一、引言近年来,在国务院“十四五”数字经济发展规划、央行金融科技发展规划(2023-2025年)、银保监会关于银行业保险业数字化转型的指导意见等一系列政策的推动下,银行业的数字化转型正在进入“加速跑”的新阶段,并更加注重数据管理和信息技术应用创新。其中,数据作为数字经济时代最重要的生产要素,也是支撑金融机构数字化转型的关键要素,
11、银行在数字化转型中,充分释放数据要素的价值潜能至关重要。而要开展数据挖掘、数据分析,让数据赋能业务发展,就必须要建立稳定高效的数据基础设施。二、银行传统环境的存储现状为了应对银行业O1AP业务和关系型数据库大量上线应用,批处理普遍存在处理时间窗口紧张的问题,以FCTAN网络和集中式全闪存储设备作为IT系统基础架构成为保障业务系统高性能、高可靠性、低延时的通用底座。采用冗余配置的光纤交换机具有可靠的稳定性和安全性,服务器和存储设备通过冗余光纤通道分别连接到互为冗余的SAN光纤交换机上,FC-SAN提供了一套高性能、高可靠和高可使用的解决方案。三、传统环境存储运维面临的问题SAN光纤交换因专利垄断
12、等原因,由美国100%掌控供应,这对于我国金融行业未来全面自主可控将带来巨大的风险,光纤交换机成为我国新基础设施建设中最大的短板与绊脚石。为我国金融行业在全面自主可控的道路上攻克光纤交换机这一美国技术堡垒,特别需要探索一种在保证IT技术设施层包括计算、存储、网络的全面自主可控的同时,可以达成比使用FC交换机更好性能的解决方案。四、信创环境下存储网络替换实施是什么样的?面对银行业数字化转型的新需求,从数据基础设施入手无疑是夯实基础的关键。近年来GPU和SSD的广泛应用,使得数据中心的计算和存储性能提升迅速,但网络协议逐渐成为数据中心的性能瓶颈,迫切需要打造一条新的“高速路”。最初,NVMe作为一
13、种硬盘接口协议,可以充分发挥SSD介质颗粒的性能,释放存储系统的巨大潜力。如今,NVMeSSD已经逐渐被对性能有极高要求的云服务商广泛采用。来自Gartner的预测显示,2023年NVMeSSD在存储中占比将达到52%,超越半壁江山,成为真正的主流,NVMe与SAS协议IO路径对比如图1所示。图1NVMe与SAS协议IO路径对比RDMA(RemoteDirectMemoryAccess,远程直接内存访问功能)是一种远端直接内存访问技术,利用相关的硬件和网络技术,将数据直接从一台计算机的内存传输到另一台计算机,无需双方操作系统的介入。最终达到高带宽、低时延和低资源消耗率的效果。RDMA专用的In
14、finiBand网络架构封闭,无法兼容现网,使用成本较高,随着在网络融合大趋势下出现的RoCE,这使高速、超低延时、极低CPU使用率的RDMA得以部署在目前使用最广泛的以太网上。RoCE是使用以太网承载RDMA的网络协议,性能与IB网络相当,需要以太网支持DCB特性,保证网络无丢包。RoCEv2是一种网络层协议,引入IP解决扩展性问题,可以跨二层组网,实现路由功能。RDMA协议栈如图2所示。RDMAapp1ication/U1PIBtransportprotoco1IBtransportprotoco1IBtransportprotoco1iWARPprotoco1IBnetworkIBnet
15、workUDPTCP1ayer1ayerIPIPIB1ink1ayerEthernet1ink1ayerEthernet1ink1ayerEthernet1ink1ayerInfinibandRoCEv1RoCEv2iWARPInfinibandEthernet/IPEthernet/IPranagerentmanagementmanagementEthernet/IPmanagement图2RDMA协议栈NVMeoverRoCE是NVMeoverRDMA的一种,如图3所示,利用RDMA的高性能远程访问实现远程访问NVMe设备。NVMeoverRDMA直接在RDMA多队列上实现了NVMe多IO队列,RDMA的SQ/CQ和NVMeSQ/CQ对应,实现端到端多队列,无需定义新的报文格式,NVMe协议报文直接作为RDMA数据传输。图3NVMeoverRoCE队列映射NVMeoverRoCE组网和iSCSI组网类似,都是基于IP网络,NVMeoverRoCE要求交换支持DCB无损网络配置。全闪存存储系统需要支持NVMeoverROCE的接口卡为ROCE接口卡,通常可以支持25GE、IOOGE速率。面对标准NVMeoverRoCE组网(如图4)图4NVMeoverRoCE组网相较于FC组网在自动管理和易用性上的短板,国内大部分厂