我们目前有 4 个 FC 阵列,每个阵列包含 16 个 300GB 驱动器,位于 Sun StorageTek 6140 机箱中,连接到运行 OpenIndiana 的旧 Sun X4170 M2 服务器。过去 10 多年来,这一直运行良好。我们正考虑升级。我们没有太多的钱可以花,但考虑到当前的环境,我们不需要花太多钱就能做得更好。SAN 为 AIX/HP-UX iSCSI 客户端和 Linux VM 的 NFS 提供服务。我提出了以下新配置:
Sun 服务器将被运行 OmniOS 并配备 SAS/NVMe 背板的 Dell R640 10 托架服务器取代。ZFS 根池将由两个镜像的 Dell 400-AJRR 300GB 驱动器和两个备用驱动器组成。ZIL 将是两个 Intel Optane DC P4800X 375GB U.2 驱动器。我还没有想出要将哪些驱动器用于 ZFS 缓存设备。该服务器有 3 个低调 PCIe 插槽。两个将包含 Dell HBA355e 适配器,用于连接两个 Dell MD1420 存储阵列,每个阵列有 24 个 Dell 400-ATIN 600GB 驱动器。将使用 Mini-SAS SFF-8644 电缆将 Dell HBA 连接到 MD1420。MD1420 很旧,但我们不需要任何花哨的东西。
根据上述布线配置,并假设服务器上有 MPIO,我是否应该能够实现以下目标(我相信答案是肯定的,但想确认):
- 如果任何 MD1420 中的一个 EMM 控制器发生故障,阵列将继续运行
- 如果一条 SFF 电缆发生故障,阵列将继续运行
- 如果其中一个 HBA355e 控制器发生故障,阵列将继续运行
- 电源、EMM 控制器和 SFF 电缆在阵列上均可热插拔
与菊花链连接两个阵列相比,将第二个阵列像第一个阵列一样直接连接到 HBA355e 有什么好处吗?
那么,阵列和驱动器是如何管理的?OME?这是否允许对 R640 和 MD1420 中的 MD1420 和戴尔驱动器进行固件更新?