我正在为我的公司(VM et 文件基础架构)设计一个混合 cephFS 和 rbd 的 ceph 集群。
在我的集合中,我需要按节点存储 32To 原始存储。我从 5 个节点开始。
卖家报价建议我按节点选择 2 teras 的 16 ssd 或 4 teras 的 8 ssd。
我的意思是在这些情况下对 ceph 管理的 IOPS 有什么影响,重建延迟等。可能的问题与 Ceph 高度相关,而不是一般性的。
我遵循了许多指南来推动我在许多方面的选择,包括 ceph 文档和书籍。但不确定是否真的有这个问题的答案。我发现的唯一线索是“越大越好”……
我需要遵循哪种方法来选择论文 2 个选项?
如果需要,这里有一些细节:专用于 cephs Vlan 的网络网卡是 25Gb 速度,redondants 等我已经考虑在 OSD 上为 1 tera 至少乘以 4Gb Ram,因此按节点计算 128 会很大。SSD 磁盘是企业安装和读取密集型的。
谢谢你的帮助
干杯
兹泰沃兹
如果这两个选项是您唯一的选择,并且两种 SSD 型号都是企业 SSD,那么您应该都可以。要考虑的要点是可扩展性、性能和故障域。您拥有的 OSD 越多,您对磁盘故障的弹性就越大,因为在恢复期间需要传输的数据越少。通过拥有更多可以提高性能的磁盘,您还可以从更多的并行化中受益。如果您不使用所有插槽并且每个节点只有 8 个磁盘而不是 16 个磁盘,则您可以稍后在容量达到其限制时添加更多磁盘。不要让你的集群变满,那将很难摆脱。还要计划您的容量以承受整个主机的丢失,以便即使 OSD 主机出现故障也可以恢复您的 PG。当然,主机故障也不应该填满你的集群。