NFS的是Linux和UNIX下一种流行的文件共享协议。 图1 显示 不同的NFS和GFS在服务器群集下数据共享硬件拓扑。 图1 显示了典型和最常见的NFS的部署:一个单一的NFS服务器有自己的本地存储连接到在网络上的客户端。 GFS的数据共享群集构建一个具有相同的硬件架拓扑iSCSI服务器,并在实践中,拥有更好的性能。此外,不同于NFS ,GFS像一个本地文件系统因为它兼容POSIX行为。这意味着,分布式Linux应用程序可以取得良好的访问性能访问共享文件通过实现兼容POSIX标准的集群。
图2 显示两组NFS服务器作为故障切换和后端的存储区域网络( SAN ); 相对的数据共享群集拓扑显示,包含两个iSCSI服务器共享SAN存储。就像图1 一样物理拓扑结构是一样的,但功能可在这两个系统已经相差很远。 在NFS的服务器只是作为一个容错互备:他们不共享文件,只有物理块存储(每个NFS服务器输出本地文件系统来映射到SAN一个共享卷) 。 必须维护两个单独的文件系统,而且在同一时间只有一个NFS服务器可以提供的处理能力来处理NFS的要求特定的文件系统。 相比之下,在数据共享集群里一个单一的文件系统可以被映射到SAN存储:这两个iSCSI服务器协作,以提供共享文件系统。 如果一个iSCSI服务器出现故障,GFS的服务器节点可以通过路由绕开周围的失效的节点来访问仍在运作的iSCSI存储服务器。
图3 显示系统拓扑规模扩展到四个NFS和四个iSCSI服务器。 请注意, NFS服务器不同于是iSCSI节点是它没有一个SAN的存储空间。 这意味着,每一个NFS服务器可以提供访问的只是一个单一的文件系统,它是不可能增加更多的NFS服务器的处理能力增加服务以提供部分的文件系统。 相比之下, 4个iSCSI服务器通过SAN连接到共享存储,并提供所有四个服务器处理能力的GFS服务器。事实上,更多的iSCSI服务器可以按需添加到GFS服务器数据共享集群,但是必须与SAN的处理能力想匹配。 存储容量也可逐步增加的SAN,可以提供访问一个或多个文件系统。四个的NFS服务器在图3中显示的是四个独立的存储空间,并且性能和效率含有瓶颈的NFS服务器。
摘要
红帽GFS可结合iSCSI存储网络,以提供更好的性能相比单独的NFS实现。
沒有留言:
張貼留言