文件系统集群|目前有哪些集群文件系统最好能详细描述一下

文件系统集群|目前有哪些集群文件系统最好能详细描述一下的第1张示图

A. 如何区分分布式/集群/并行文件系统

分布式文件系统、集群文件系统、并行文件系统,这三种概念很容易混淆,实际中大家也经常不加区分地使用。总是有人问起这三者的区别和联系,其实它们之间在概念上的确有交叉重叠的地方,但是也存在显著不同之处。分布式文件系统自然地,“分布式”是重点,它是相对与本地文件系统而言的。分布式文件系统通常指C/S架构或网络文件系统,用户数据没有直接连接到本地主机,而是存储在远程存储服务器上。NFS/CIFS是最为常见的分布式文件系统,这就是我们说的NAS系统。分布式文件系统中,存储服务器的节点数可能是1个(如传统NAS),也可以有多个(如集群NAS)。对于单个节点的分布式文件系统来说,存在单点故障和性能瓶颈问题。除了NAS以外,典型的分布式文件系统还

B. 集群NAS与集群文件系统的区别

Veritas的CFS,IBM的GPFS,这些属于集群文件系统,就类似于windows下面常用的FAT或者NTFS一样,是一种文专件系统格式,只不属过,集群文件系统可以让多个计算节点同时读写同一个文件系统的分区集群NAS,是采用了集群文件系统,多个NAS头可以做性能和端口横向扩展,共同对网络上的主机提供网络文件存储服务的设备

C. 目前有哪些集群文件系统,最好能详细描述一下

cmp啊

D. 如何区分分布式/集群/并行文件系统

分布式文件系统、集群文件系统、并行文件系统,这三种概念很容易混淆,实际中大家也经常不加区分地使用。总是有人问起这三者的区别和联系,其实它们之间在概念上的确有交叉重叠的地方,但是也存在显著不同之处。分布式文件系统自然地,“分布式”是重点,它是相对与本地文件系统而言的。分布式文件系统通常指C/S架构或网络文件系统,用户数据没有直接连接到本地主机,而是存储在远程存储服务器上。NFS/CIFS是最为常见的分布式文件系统,这就是我们说的NAS系统。分布式文件系统中,存储服务器的节点数可能是1个(如传统NAS),也可以有多个(如集群NAS)。对于单个节点的分布式文件系统来说,存在单点故障和性能瓶颈问题。除了NAS以外,典型的分布式文件系统还有AFS,以及下面将要介绍的集群文件系统(如Lustre, GlusterFS, PVFS2等)。集群文件系统“集群”主要分为高性能集群HPC(High Performance Cluster)、高可用集群HAC(High Availablity Cluster)和负载均衡集群LBC(Load Balancing Cluster)。集群文件系统是指协同多个节点提供高性能、高可用或负载均衡的文件系统,它是分布式文件系统的一个子集,消除了单点故障和性能瓶问题。对于客户端来说集群是透明的,它看到是一个单一的全局命名空间,用户文件访问请求被分散到所有集群上进行处理。此外,可扩展性(包括Scale-Up和Scale-Out)、可靠性、易管理等也是集群文件系统追求的目标。在元数据管理方面,可以采用专用的服务器,也可以采用服务器集群,或者采用完全对等分布的无专用元数据服务器架构。目前典型的集群文件系统有SONAS, ISILON, IBRIX, NetAPP-GX, Lustre, PVFS2, GlusterFS, Google File System, LoongStore, CZSS等。并行文件系统这种文件系统能够支持并行应用,比如MPI。在并行文件系统环境下,所有客户端可以在同一时间并发读写同一个文件。并发读,大部分文件系统都能够实现。并发写实现起来要复杂许多,既要保证数据一致性,又要最大限度提高并行性,因此在锁机制方面需要特别设计,如细粒度的字节锁。通常SAN共享文件系统都是并行文件系统,如GPFS、StorNext、GFS、BWFS,集群文件系统大多也是并行文件系统,如Lustre, Panasas等。如何区分?区分这三者的重点是“分布式”、“集群”、“并行”三个前缀关键字。简单来说,非本地直连的、通过网络连接的,这种为分布式文件系统;分布式文件系统中,服务器节点由多个组成的,这种为集群文件系统;支持并行应用(如MPI)的,这种为并行文件系统。在上面所举的例子中也可以看出,这三个概念之间具有重叠之处,比如Lustre,它既是分布式文件系统,也是集群和并行文件系统。但是,它们也有不同之处。集群文件系统是分布式文件系统,但反之则不成立,比如NAS、AFS。SAN文件系统是并行文件系统,但可能不是集群文件系统,如StorNext。GFS、HDFS之类,它们是集群文件系统,但可能不是并行文件系统。实际中,三者概念搞理清后,分析清楚文件系统的特征,应该还是容易正确地为其划分类别的。

E. 蓝鲸集群文件系统(BWFS)的功能特点

1.异构平台文件级数据共享–采用全局命名空间,支持Windows/Linux/Mac操作系统平台间的文件级数据共享。2.卓越的性能优势–采用直接数据存取模式和带外(out-of-band)数据传输架构,最大限度发挥SAN环境的带宽和性能优势,这一优势在配合高端存储系统和大规模存储环境下表现得更加淋漓尽致。3.系统支持多文件系统、多存储策略,从而能更灵活支持用户不同类型应用的不同存储需求。4.强大的可扩展能力–支持高达ZB级的系统存储容量和2PB的巨型文件,支持上亿规模的目录和文件数量。通过增加存储设备,系统可以在线扩展存储容量、IO带宽和负载能力。5.企业级的数据可靠性–拥有多项专利技术的SAN文件系统BWFS,通过文件系统日志和快速FSCK以及独特的文件级故障隔离技术和多文件系统支持,为用户提供最大程度的数据可靠性保证。通过历经上百个大型数据应用项目的长期稳定运行和经验积累,现已成为BWFS数据可靠性的信心来源。6.系统高可用能力–采用冗余架构设计的MDC,配合全冗余的SAN架构,支持FC和iSCSI环境下的Multipath配置,从而实现存储系统无单点故障,确保存储系统整体连续运行。7.系统具有客户端和元数据控制器端智能故障检测与性能计数器功能,既可以帮助用户定位多种故障原因,又可以定位和分析IO特征,从而进行性能分析和优化。系统内置的抗碎片分配算法和在线碎片整理工具,让用户不必担心系统长期运行碎片化的问题。8.支持配额(quota)、ACL、快照、数据迁移接口等丰富的数据管理功能,也能配合第三方产品形成持续数据保护,数据归档等解决方案。9.灵活的存储方案配置:支持第三方盘阵,并且在多盘阵的环境中,既可以通过存储虚拟化将所有存储空间(LUN)虚拟成单一存储空间使用,也可以通过多文件系统支持,将不同的LUN独立成不同的文件系统使用,方便用户根据需求配置灵活的解决方案。内置原生多路径支持,不必依赖盘阵多路径软件就可以实现多路径功能,使得用户在盘阵和操作系统平台选择上更加灵活。.支持4Gb/s或2Gb/s的高性能硬盘和高容量SATA硬盘混用,满足了分层存储和ILM解决方案的需求。

F. 数据中心如何搭建集群文件系统

希望这能让你们对这类技术有一个初步的认识,以便更好地满足高使用率存储的需求。 建立集群和使用率高的数据存储解决方案有很多选择,但是要想弄清每种选择的优劣则要花点时间进行研究。存储架构和文件系统的选择至关重要,因为大部分的存储解决方案都有严格的限制条件,需要仔细设计工作环境。 基础架构 有些读者也许希望装配一组可以并行访问同一个文件系统的服务器,而另一些读者可能想复制存储器并提供并行访问和冗余。有两种方法可以实现多服务器访问同一个磁盘,一种方法是让那些服务器都可以看到那个磁盘,另一种方法则是通过复制。 共享磁盘结构在光纤通道SAN和iSCSI领域是最常见的结构。配置存储系统相当简单,这样多个服务器就可以看到同一个逻辑块设备或LUN,但是如果没有群集文件系统,那么当多个服务器同时想使用那个逻辑块设备时就会出现混乱。这个问题与使用群集文件系统有关,我们将在下文中详细介绍。 一般而言,共享磁盘系统有个弱点,那就是存储系统。但是情况也并非总是如此,因为利用现在的技术是很难理解共享盘的概念的。SAN、NAS设备和基于Linux系统的商品硬件可以将所有的基础磁盘实时复制到另一个存储节点,从而提供一个模拟共享盘环境。基础模块设备被复制之后,那些节点就可以访问相同的数据,也可以运行同一个群集文件系统了,但是这种复制超出了传统共享盘的定义。 相反,不共享才是共享盘的问题所在。连接着不同存储设备的节点会在每个模块被写入数据时将变化通知给主服务器。现在,不共享架构仍存在于Hadoop那样的文件系统之中,那些文件系统可以在许多节点故意建立多个数据副本,从而提高性能和冗余。而且,在不同存储设备或节点之间利用自己的存储设备进行复制的群集也可以做到不共享。 设计选择 正如我们所说的,你不能通过多个服务器访问同一个模块设备。你听说过文件系统锁定,因此普通的文件系统并不能实现这一点就有些奇怪了。 在文件系统级别上,文件系统本身会将文件锁定以保证数据不会出错。但是在操作系统级别上,文件系统启动程序完全可以访问基础模块设备,它们可以在基层模块设备之间自由的漫游。大部分文件系统都会认为它们被分配了一个模块设备,而且那个模块设备也只是它们自己所有。 为了解决这个问题,集群文件系统采用了一种并行控制机制。有些集群文件系统将把元数据保存在共享设备的一个分区里,另一些集群文件系统则会使用集中式元数据服务器来保存元数据。不管采用哪种方案,集群中的所有节点都可以看到文件系统的状态,从而保证安全的并行访问。然而,如果你想保证系统的高利用率和消除单点故障问题,那么采用集中式元数据服务器的解决方案就要略逊一筹了。 另一个注意事项:集群文件系统要求在节点发生故障时迅速做出反应。如果某个节点写入错误数据或由于某种原因停止关于元数据变化的通信,其他节点必须能够将它隔离出去。隔离可以通过多种方式来实现,最常用的方法是利用断电管理来实现。

G. 在云计算系统在采用集群文件系统的优势有哪些

1、单机文件系统用于操作系统和应用程序的本地存储。2、网络文件系统专(简称:NAS)基于现有以属太网架构,实现不同服务器之间传统文件系统数据共享。3、集群文件系统在共享存储基础上,通过集群锁,实现不同服务器能够共用一个传统文件系统。 4、分布式文件系统在传统文件系统上,通过额外模块实现数据跨服务器分布,并且自身集成raid保护功能,可以保证多台服务器同时访问、修改同一个文件系统。性能优越,扩展性很好,成本低廉。

H. 基于GlusterFS集群文件系统集成系统能称为“超融合系统”吗

只有GlusterFS当然不能称之为超融合系统,超融合系统是在标准X86服务器上集成了分布式文件系统和虚拟化,同时进行统一管理,其中分布式文件系统是超融合重要的基础。GlusterFS是开源的分布式文件系统,当然开源的文件系统还有ceph。提到超融合首先想到的还是超融合的鼻祖Nutanix了,但Nutanix的文件系统是自主研发的,没有采用开源,国内也有为数不多的几家公司的超融合采用自主研发的分布式存储,如达沃时代、SmartX等。选择自主研发公司,也是考虑超融合最重要的存储部分,还是要以能提供稳定且强大的技术支持为前提条件。

I. 要做kvm的集群 用什么分布式文件系统

一、 虚拟化集群介绍、设计思路及架构使用虚拟化集群的目标是克服单机虚拟化的局限性,利用技术手段提高虚拟机可用性,最终达到业务不中断或者减少中断时间,确保业务数据更安全的目标。1. 虚拟化集群介绍1)什么是虚拟化集群虚拟机集群最显著的特征是有共享存储,因为有了共享存储,虚拟机就可以实现非常快速的在线迁移,并在虚拟化层配置高可用。笔者在生产环境使用的集群有两种存储方式,基于商业存储和基于开源分布式文件系统。2)虚拟化集群的高可用和基于应用层高可用的区别高可用是经常用到的运维技术,在系统、网络、数据库、Web业务等各个应用层面都有使用。高可用技术是指至少有主备两个节点,当主节点故障的时候,迅速切换到备用节点。为了避免备用节点误判,有时候还有第三个节点,或者主节点和备用节点共同能访问到的存储空间,用于做仲裁判断。应用层面的高可用还有一个特点,就是一般都有浮动IP,当切换发生的时候,IP从主节点漂移到备用节点。应用层面的高可用一般切换时间比较快,从几毫米到几秒中,同时应用层面的高可用一般需要专用软件,比如常用的Keepalived,Heartbeat等。虚拟化层面的高可用是虚拟机系统层面的高可用,即当一台计算节点故障的时候,在另外一台计算节点上自动将故障节点上的虚拟机启动起来。注意如果虚拟机上的业务不能做到开机自启动,即使虚拟机自动启动了,并不能保证业务层面的自动恢复!另外还有一个问题,就是即使虚拟机启动起来了,当启动到一半虚拟机的系统卡住了,也不能及时恢复业务!虚拟化层的高可用一般业务恢复实际是系统重启的时间,加上业务开机自启动的时间,通常是分钟级别。虽然虚拟化层高可用有业务不能恢复的风险,业务恢复时间也相对比较长,但是虚拟化层高可用有个非常巨大的优势,就是不需要在应用层面配置,大大的拓宽了高可用的适用范围,使原来在应用层难以使用高可用技术的应用,也能做到高可用,尤其是在某些专用的软件领域。其实虚拟机层高可用和应用层面高可用并不矛盾,在虚拟机的系统里面,也可以配置应用层面的高可用,做这样的配置的时候,注意主备节点放置到不同宿主机上!3)虚拟化集群后端存储的使用最早的时候,笔者在生产环境使用的集群都是以机柜为单位的小集群,主要因为笔者一直搭建的是私有云,在IDC机房里面机柜都是要计算费用的,为了充分利用资源,合理节省成本,笔者私有云一个设计思想就是能够按照机柜,灵活扩展或者伸缩。后来随着虚拟化的规模扩大,也进行了一些基于开源分布式文件系统集群的搭建,基于开源分布式文件系统的集群,规模可以更大,扩展性更好,适用于KVM的开源分布式文件系统在第9章、第10章都有详细的介绍。开源的虚拟化管理平台,本书第11章、第12章、第13章有详细介绍,所以本章不再介绍开源分布式文件系统及管理平台。2. 使用虚拟化集群的优势虚拟化集群相对于单机虚拟化,有以下几点优势:q 快速的在线迁移(Live Migration),设备、系统维护造成的业务计划内停机时间减少到零。q 高可用(HA),一台计算节点故障,上面的虚拟机可以很快在其他计算节点上启动运行起来,极大缩短计划外停机时间。q 动态资源调度,业务负载发生变化引起计算节点压力分布不均匀时,可手动或者自动平衡物理机负载。也可在整体压力较低的时间段,将虚拟机集中在部分计算节点上,将不用的计算节点临时关闭,达到节能的目标。q 业务快速部署,集群将资源池化,通过和管理平台结合,在集群的容量范围内,业务部署的速度非常快。q 数据更安全,后端存储采用冗余度更高的商业存储,或者分布式文件系统,数据可靠性可以达到99.99%以上。q 网络速度、可靠性更高,集群网络采用冗余架构,网络设备、网络连接都是双冗余,网络速度更高,可靠性也更高,单台网络设备、单根网线、单个网卡故障都不会引起网络中断。提示:1)什么是计划内停机与计划外停机计划内停机是指可预期可计划的停机,比如定期的维护,提前通告的维护。计划外停机是指突发事件引起的停机事件,比如硬件故障,网络DDOS攻击等。一般计划内停机因为是提前预知的,会做好预防措施,不会有数据丢失,对业务的损失是比较小的。计划外停机则因为是突发事件,对业务的损失要大很多。运维的重要职责之一就是通过技术手段减少计划外和计划内停机时间,对虚拟化来说,虚拟化集群能够做到在线虚拟机迁移,并且是全冗余设计,需要计划内硬件和软件维护的时候,可以做到计划内停机时间为零。当宿主机发生紧急硬件故障的时候,虚拟机可以很快在其他宿主机上开起来,所以虚拟化集群也能有效降低计划外停机。2)在线迁移并不是灾备手段在线迁移实际迁移的是虚拟机的内存,当宿主机发生故障的时候,虚拟机的内存信息已经丢失了,这时候是不能再去做虚拟机的在线迁移的。所以在线迁移解决的是有计划的维护问题,比如要升级宿主机内存,可以将宿主机上的虚拟机在线迁移到其他宿主机上,内存升级完成后,在将虚拟机在线迁移回来。3. 集群设计及架构1)虚拟化集群设计为保证虚拟机的尽量的在线时间,灵活的扩展,虚拟化集群的设计需要满足以下要求:q 有共享存储,虚拟机能够在线迁移;q 通过增加计算节点、存储、网络设备可以横向扩展;q 没有单点故障,计算节点有多个,商业存储为双控制器,分布式文件系统镜像写多份,网络设备冗余;q 性能满足要求,并且通过增加设备,性能可以扩展2)虚拟化集群的架构一套虚拟化集群体系包括以下组成部分:q 若干计算节点,承载虚拟机的计算、内存、网络资源;q 管理节点及管理平台,管理虚拟机的镜像,虚拟机生成、维护、销毁的生命周期,虚拟机的调度;q 后端存储,存储虚拟机镜像存放;q 网络设备。二、虚拟化集群技术方案1. 前端计算虚拟化集群前端计算节点可以使用普通机架式服务器,也可以使用刀片服务器。1)机架式服务器做为计算节点的优缺点机架式服务器做为计算节点的优点是:q 架构简单,安装配置方便;q 扩展节点数量和升级较为容易;q 成本有一定的优势。缺点是:q 随着节点数量的增多,占用的机柜空间也在增大,单机柜服务器密度低;q 网络结构复杂,每台服务器有公网、私网、存储网;q 交换机端口数量多,接线容易出错。2)刀片服务器做为计算节点的优缺点使用刀片服务器作为计算节点的优点是:q 刀片服务器内置交换机,可以灵活的配置网络;q 刀片服务器连线简单,占有交换机端口数量少,网络非常简洁;q 单位机柜服务器密度大;q 功耗低;q 刀片服务器冗余电源和风扇,冗余交换模块,是全冗余的架构。使用刀片服务器的缺点是:q 成本较高;q 配置复杂,安装配置需要专业的知识;q 往往需要改造机柜电源,并受限于机柜最高电流。另外目前还有一种多节点服务器,就是在1U或者2U的空间里面,能够容纳2到4台服务器,这些服务器很像是刀片服务器,共享电源和机框,但是网络接口独立。多节点服务器密度介于机架式服务器和刀片服务器之间,使用上和机架式服务器完全一样。服务器的配置选型,根据笔者的经验,选择比较高的配置,虽然初期投入高,但是长远看,因为能够容纳更多的虚拟机,其实是节省成本的。宿主机在运行一段时间后,往往会发现内存是瓶颈,所以一开始配置的时候,内存尽量配置大一些。具体宿主机如何选型在第15章已经有详细的介绍,本章就不重复介绍了。3. 后端存储技术方案虚拟化集群的后端存储可以使用商业存储和分布式文件系统,商业存储有三类:NAS、IP SAN、FC SAN。1)NAS共享存储NAS(NETWORK ATTACHED STORAGE )即网络附加存储,网络上直接挂接的存储设备,相当于一个网络文件共享服务器。测试环境可以用一台普通的主机模拟NAS,只要这台主机有自己的磁盘和文件系统,并且对外提供访问文件系统的接口。最常见的NAS有Linux下的NFS和windows下的CIFS。2)IP SAN共享存储SAN(STORAGE AREA NETWORK)即存储区域网络,主要是基于TCP/IP的网络来实现数据存取,即传输介质为IP网络。通过IP网络将计算计算节点和存储设备连接起来,计算节点通过发送Block I/O的请求到存储设备,最常见的就是用ISCSI技术,计算节点通过SCSI协议发出读取数据的请求,并用TCP/IP包封装SCSI包,就可以再TCP/IP网络中进行传输,即SCSI over TCP/IP。测试环境也可以用普通服务器模拟ISCSI存储。3)FC存储FC(Fibre Channel 光纤通道)SAN类似于IP SAN,只是以光纤作为传输介质,性能较高,目前使用最广。计算节点上安装光纤接口的HBA(Host BusAdapter,提供服务器内部的I/O通道与存储系统的I/O通道之间的物理连接)卡,为了冗余HBA卡一般有两块,分别接两台光纤交换机,存储一般有两个控制器,也分别接两台光纤交换机,达到全容易的目标。FC SAN计算节点直接将I/O请求通过FC网络发送到存储设备,性能非常高。4)生产环境如何选择存储类型在实际部署的生产环境中,选择存储类型,取决于以下几个因素:q 业务性能及可靠性需求q 预算q 运维对技术熟悉程度一般来说,对性能要求非常高的业务,使用FC SAN存储,FC SAN存储也是成本最高的一种方案。如果业务性能需要稍低,可以使用NAS、IP SAN的存储,NAS、IP SAN的存储是性价比比较高的方式。如果业务主要是CPU消耗型的,可以考验使用分布式文件系统,本书第9章介绍的DRBD、GlusterFS,第10章介绍的CEPH,工作都很稳定,但是性能相对比较低,很适合CPU消耗型的虚拟机。关于NFS和ISCSI,业内一直有争论,NFS配置简单,但是因为是应用层的协议,有人认为性能低,其实商业存储做了许多优化,性能也不见得比ISCSI差。如何选择主要取决于预算、运维的技术习惯、具体的存储品牌型号,笔者生产环境喜欢使用ISCSI存储。

J. 小文件读写的分布式文件系统哪些

分布式文件系统、集群文件系统、并行文件系统,这三种概念很容易混淆,实际中大家也经常不加区分地使用。总是有人问起这三者的区别和联系,其实它们之间在概念上的确有交叉重叠的地方,但是也存在显著不同之处。分布式文件系统自然地,“分布式”是重点,它是相对与本地文件系统而言的。分布式文件系统通常指C/S架构或网络文件系统,用户数据没有直接连接到本地主机,而是存储在远程存储服务器上。NFS/CIFS是最为常见的分布式文件系统,这就是我们说的NAS系统。分布式文件系统中,存储服务器的节点数可能是1个(如传统NAS),也可以有多个(如集群NAS)。对于单个节点的分布式文件系统来说,存在单点故障和性能瓶颈问题。除了NAS以外,典型的分布式文件系统还有AFS,以及下面将要介绍的集群文件系统(如Lustre, GlusterFS, PVFS2等)。集群文件系统“集群”主要分为高性能集群HPC(High Performance Cluster)、高可用集群HAC(High Availablity Cluster)和负载均衡集群LBC(Load Balancing Cluster)。集群文件系统是指协同多个节点提供高性能、高可用或负载均衡的文件系统,它是分布式文件系统的一个子集,消除了单点故障和性能瓶问题。对于客户端来说集群是透明的,它看到是一个单一的全局命名空间,用户文件访问请求被分散到所有集群上进行处理。此外,可扩展性(包括Scale-Up和Scale-Out)、可靠性、易管理等也是集群文件系统追求的目标。在元数据管理方面,可以采用专用的服务器,也可以采用服务器集群,或者采用完全对等分布的无专用元数据服务器架构。目前典型的集群文件系统有SONAS, ISILON, IBRIX, NetAPP-GX, Lustre, PVFS2, GlusterFS, Google File System, LoongStore, CZSS等。并行文件系统这种文件系统能够支持并行应用,比如MPI。在并行文件系统环境下,所有客户端可以在同一时间并发读写同一个文件。并发读,大部分文件系统都能够实现。并发写实现起来要复杂许多,既要保证数据一致性,又要最大限度提高并行性,因此在锁机制方面需要特别设计,如细粒度的字节锁。通常SAN共享文件系统都是并行文件系统,如GPFS、StorNext、GFS、BWFS,集群文件系统大多也是并行文件系统,如Lustre, Panasas等。如何区分?区分这三者的重点是“分布式”、“集群”、“并行”三个前缀关键字。简单来说,非本地直连的、通过网络连接的,这种为分布式文件系统;分布式文件系统中,服务器节点由多个组成的,这种为集群文件系统;支持并行应用(如MPI)的,这种为并行文件系统。在上面所举的例子中也可以看出,这三个概念之间具有重叠之处,比如Lustre,它既是分布式文件系统,也是集群和并行文件系统。但是,它们也有不同之处。集群文件系统是分布式文件系统,但反之则不成立,比如NAS、AFS。SAN文件系统是并行文件系统,但可能不是集群文件系统,如StorNext。GFS、HDFS之类,它们是集群文件系统,但可能不是并行文件系统。实际中,三者概念搞理清后,分析清楚文件系统的特征,应该还是容易正确地为其划分类别的。

未经允许不得转载:山九号 » 文件系统集群|目前有哪些集群文件系统最好能详细描述一下

赞 (0)