我正在设置一个包含 44 个 4TB 7200 RPM SAS HD 的 JBOD。我选择了 RAID 60,因为我更喜欢驱动器故障保护而不是 RAID 10 提供的性能改进。我的问题是如何为每个跨度选择最佳磁盘,从而获得合理的重建时间。例如,假设我留下 4 个热备件,这将导致 40 个磁盘用于以下可能的 RAID 设置:
- 2 个跨度为 20 个磁盘,可用容量约为 144 TB。
- 4 个跨度,10 个磁盘,~128 TB 可用容量。
- 5 个跨度,8 个磁盘,可用容量约 120 TB。
- 8 个跨度,5 个磁盘,~96 TB 可用容量。
我倾向于 10 个磁盘的 4 个跨度,因为它似乎提供了容错性(每个跨度允许 10 个驱动器故障中的 2 个)和可用容量(80%,低于 20 个磁盘的 2 个跨度的 90%)的最佳平衡。
但是,对于单个 10 个磁盘跨度,我可以预期重建时间是多少?网络搜索显示,即使是 10 个磁盘跨度也可能不可行,因为重建可能需要太长时间,因此在重建期间可能会出现额外的驱动器故障。但是,Internet 上的许多资源都基于较少的磁盘或容量较低的磁盘。
对于这么多磁盘的最佳设置有什么想法吗?
注意:有大约 10 TB 数据的备份策略,但备份所有数据并不可行。因此我倾向于 RAID 60 而不是 RAID10。我意识到这不能替代备份,但更好地从驱动器故障中恢复确实使系统更加健壮,因为它提供了重建的机会,然后在发生多个磁盘故障时将数据迁移到其他存储。
编辑:规格:
- 磁盘:Seagate 4TB SAS 3.5" HDD 7200 RPM,企业级。
- 控制器:ServerRAID M5016 控制器,包括启用 RAID6、LSI2208 芯片组。请参阅:https ://www.broadcom.com/products/storage/raid-on-chip/sas-2208 。
- 外壳:Supermicro 4U 存储 JBOD 45x3.5,带 2x1400W 冗余电源模块。
- 操作系统:CentOS Linux 版本 7.1.1503(核心)。
感谢您的帮助。
对于 4 TB 7.2k 驱动器,我建议使子阵列尽可能小 - 实际上,5 个驱动器根本不能证明使用 RAID 6 是合理的。
我的 2c 将使用 RAID 10,您可以期望在 12 小时内完成重建,而 5 驱动器 20-TB RAID 6 阵列很可能不会。
确保您启用每月数据清理/媒体巡查/此处所谓的任何内容,以便在读取错误有机会停止重建之前检测它们。大多数情况下,当重建失败时,原因不是驱动器完全故障,而是一个相当古老但未被检测到的读取错误,可以通过定期清理来修复。
根据收到的优秀评论,我尝试了一个包含 5 个跨度的 8 个磁盘的 RAID60,原因如下:
根据最近包含 2 个 20 个磁盘的重建,我估计 8+2 配置的重建时间是合理的。
与具有大量磁盘的跨度(例如,每个跨度 10 或 20 个磁盘)相比,可用容量略有减少。虽然 20TB 的损失似乎相当可观,但较小的跨度大小意味着可以实现重建,这是可以接受的权衡。
我将使用我收集的任何其他信息更新此答案。
编辑:删除 RAID5 作为可行的选项。
使用 Avago (LSI) 或 Microsemi (Adaptec) 的现代硬件 RAID 控制器,20+2 磁盘 RAID 阵列非常适合。重建时间合理(少于 24 小时)。无论如何,当前驱动器的故障率非常低。我肯定会使用 2 个跨度。
在这么大的阵列上,我真的会使用 RAID10,或者等效的 ZFS 镜像设置。您可以设置一个 42 磁盘 RAID10 + 2 个全局热备件(约 82 TB 可用空间),它将提供出色的磁盘故障保护和非常快的重建时间。
如果您真的非常想使用 RAID6,我倾向于 5x 10 磁盘跨度。