我们目前正在评估使用 GFS+iSCSI 的新环境的硬件和拓扑解决方案,并希望得到一些建议/提示。我们过去部署了一个类似的解决方案,其中访问 GFS 节点的所有主机都是 GFS 节点本身。新拓扑将 GFS 节点与访问它们的客户端分开。
基本图如下所示:
GFS_client <-> gigE <-> GFS 节点 <-> gigE <-> iSCSI SAN 设备
- 这是设置 GFS+iSCSI 的最佳方式吗?
- 您对 GFS 节点本身的硬件有什么建议吗(即 CPU 或内存重)?
- 您对调整/配置设置有什么建议以提高 GFS 节点的性能吗?
- 目前,我们为每台主机使用 3-4 个 gigE 连接来实现性能和冗余。在这一点上,10gigE 或光纤是否对成本/扩展更具吸引力?
我可以建议回答这个问题的唯一部分是#4。
我们为我们的 SAN 评估并考虑了 10GbE,并认为坚持使用组合/负载平衡的 1Gb 适配器更便宜、更有效、更安全。使用 10GigE 实现相同级别的冗余是天文数字,并且为客户端提供了名义上的性能提升(毕竟,您不会在每个客户端中放置一个 10GbE 卡)。
我认为没有“最佳”设置。只需确保在 GFS 之前启动 iSCSI 启动器即可。您已经将绑定指定为冗余/性能度量。您可能还应该考虑设置与目标的多路径连接,如果您有 4 个 NIC,则可能在 2 个绑定接口上创建 2 个路径以获得更好的冗余。如果您有支持该功能的专用 iSCSI 交换机,您还应该考虑使用巨型帧。
GFS 作为一个子系统对系统来说不是很重。内核中有锁,一些成员信息/心跳在节点之间运行,就是这样。另一方面,由于您计划使它们既是 GFS 节点又是客户端访问的服务器,您可能应该为服务器投资购买网卡/交换机和 RAM。
巨型帧。如果可能,在两侧(iscsi 和客户端)进行 803.2ad 链路聚合。tcp 堆栈优化 (/proc/sys/net/ipv4/tcp_rmem|wmem)
我会跳过这个,我不知道 10ge 的成本。
您是否考虑过网络冗余?GFS 集群很容易受到心跳丢失的影响。我们为所有集群和 iSCSI 链路使用接口绑定,连接到单独的交换机。
只是添加到#3&4
Jumbo 可以在性能上产生巨大的有益差异,特别是对于 99.99% 的数据包很大的“存储”网络。只需确保首先进行审核以确保网络上的所有主机都支持它们。
其次,值得验证的是,所有这些额外的 GigE 接口都为您提供了更快的速度,大多数交换机(默认情况下)实际上使用基于 MAC 或 IP 的哈希,因此您实际上可能看不到单个主机对之间超过 1Gb。
当您安装 10Gbe 时,您应该咬紧牙关使用 FC,对于相同的链路速率,它要快得多,或者等到明年年初,融合以太网的东西最终应该以低于“早期采用者”的价格发货价钱。
我们正在为我们的新 SAN 评估解决方案,而 Equalogic 产品看起来非常适合 iSCSI。每个捆绑包包含 15 个磁盘和 2 个控制器(每个 A/P 4GB)。在每 15 个磁盘添加 2 个控制器时,您可以在增加存储容量的同时线性提高性能。
他们现在不去 10Ge,但每个控制器都有 4 个链接。他们提供真正的精简配置
链接到官方页面
我不能(还)评论 LapTop006 的帖子,但他绝对是正确的!
关键是 IP-SAN 中的所有网络设备必须支持相同数量的 MTU(最大传输单元)。如果我没记错的话,按照规范,巨型帧的最大 MTU 是 9000 字节,但我见过有人使用 9100 及更高版本。