VMware 和许多网络传播者试图告诉您,复杂的(=昂贵的)光纤 SAN 是 VMware ESX 和 ESXi 服务器的“唯一”存储选项。嗯,是的,当然。使用 SAN 快速、可靠并且使 vMotion 成为可能。伟大的。但是:所有 ESX/ESXi 用户真的能负担得起 SAN 吗?
我的理论是,地球上所有 VMware ESX 安装中只有不到 20% 实际使用光纤或 iSCS SAN。大多数这些安装将在能够负担得起的大公司中进行。我预计大多数 VMware 安装都使用“附加存储”(vmdks 存储在服务器内部的磁盘上)。他们中的大多数都在中小企业中运行,而且数量众多!
我们运行两台带有附加存储的 ESX 3.5 服务器和两台带有 iSCS san 的 ESX 4 服务器。两者之间的“真实生活差异”几乎不显着:-)
你知道这个问题的任何官方统计数据吗?您使用什么作为存储介质?
我做了很多 VMware 咨询工作,我会说接近 80% 的已安装基础使用高可用性共享存储(FC、iSCSI 或高端 NAS),而且我的很多客户都是 SME。我发现的关键因素是企业是否将其服务器正常运行时间视为关键,对于今天的大多数企业来说都是如此。
您当然可以从直接连接的存储运行非常高性能的虚拟机(在 RAID 10 阵列中具有 16 个内部驱动器的 HP DL380 G6 将具有相当快的磁盘 IO),但是如果您正在构建 VMware 或任何其他虚拟化环境来替换数十个、数百个,或数千台服务器,那么如果您没有在强大的存储架构上投入大量精力(可能还有钱),那么您就是疯了。
您不必为集群功能购买高端 SAN - 您可以使用相当便宜的 NAS(或 HP\Lefthand 的 VSA 等虚拟化 SAN)来实现这些功能,并且仍然使用经过认证的存储。但是,如果您使用共享存储并且它在 SAN\NAS 基础架构中的所有点都没有冗余,那么您不应该将它用于测试之外。冗余(至少)是服务器中的双(独立)HBA\存储网卡、双独立结构、SAN 中的冗余控制器、电池支持的缓存\缓存降级、冗余热插拔风扇和电源等,RAID 5\6 \10\50 和适当数量的热备件。
您的系统之间真正的区别在于,如果您的一个独立系统发生灾难性故障,您需要做很多工作来恢复它,并且只需要对其进行修补就会导致停机。对于集群 SAN 连接系统,修补虚拟机管理程序,甚至升级虚拟机管理程序硬件,应该可以实现零停机时间。灾难性的服务器故障只会使服务在单独节点上重新启动 VM 所需的时间(最坏的情况下)或如果您有涵盖这些 VM 的容错,那么您根本没有停机时间。
作为一家拥有一千多台主机的公司,我们从 FC 开始,尝试了一段时间的 iSCSI,但由于性能问题退回到 FC。我们正在认真研究 NFS,但还没有结论。哦,我们使用 HP XP/EVA 和一些 NetApp,我们没有本地存储条桌面/开发主机。
如您所见,没有一种适合所有人的尺寸,也不一定是单一类别的存储解决方案。您可以拥有多个存储类别,具体取决于可用性和性能要求
对于高性能写入和读取,我发现 FC 在性能上无与伦比,虽然价格很高......它只是工作......对于更普通的性能期望 iSCSI 实际上表现相当不错,所以我通常得到交换 FC 磁盘子系统上的服务器邮箱文件和 iSCSI 接口磁盘上的实际引导驱动器,DNS 服务器和 Active Directory 机器也从 iSCSI 运行。
我用 SAN、NAS 和 DAS 运行 ESX。这完全取决于:
就可靠性和速度而言,我认为您无法击败 SAN。
为了可靠性和成本,我会选择 NAS。
对于速度和成本,DAS。
并不是说各个选项不重叠,但这些是我所见证的优势。
我们运行 4 个 ESX 4 服务器并使用 EqualLogic iSCSI SAN。
在较小的安装中,只要您有不错的磁盘,本地存储是完全可以接受的——我会说 10k RPM+ SAS 驱动器。您必须使用共享磁盘的唯一时间(我故意没有说 san,因为您的共享磁盘可以关闭和 NFS 共享)解决方案是当您需要进行集群 - VMWare HA 和 DRS 时。
现在我们有 3 层存储 - 光纤通道 SAN、高端 Equalogix SAN 和低端 MD3000i SAN。最后两个是 iSCSI。我们还在 ESX 服务器的本地存储上运行一些服务器 - 主要是实用程序服务器,我们不在乎它们是否停机一两个小时,而我们会在机器上一切顺利时进行修复。
我们还在使用 7.2k SATA 驱动器和 iSCSI 企业目标的自制 NAS 上运行我们的测试环境(性能不是那么好,但它让我们通过了)。
很多人也倾向于在更大的环境中运行 NFS 共享。我想玩这个有一段时间了,但没有找到时间。
我们使用由商用交换机构建的 iSCSI 结构和低端 Hitachi SAN - SMS-100 运行四台(嗯,四台实时,一台用于测试)ESXi 主机。
即使在那个级别,我们也有双控制器,每个控制器都有一个连接到 SAS 背板上的双端口,因此任何一个控制器都可以占用磁盘和双网卡——我们将它们交叉线连接到双交换机,然后连接到 ESX 主机中的双网卡。
每个 vfs 卷都有四个可见路径,因此具有合理的容错性。我们为结构使用戴尔供电的交换 - 它们肯定存在潜在问题(最重要的是,没有冗余 PSU)。但它们也足够便宜,因此在一个准备好交换的盒子中拥有两个预配置的备件成为真正的可能性。
显然,如果你想要更多的 9,你需要花更多的钱,但我认为 iSCSI、ESXi 和商品千兆以太网套件的美妙之处在于,你可以在弹性和性能方面达到你的体重。
一切都有其优点和缺点......底线是 SLA、应用程序负载和规模。因此,如果您需要为小型部署(1-5 台主机)提供高性能存储,您可能会使用 NFS 来实现它(实际上我曾经使用 NFS 实现比使用 RAM 磁盘的 SAN 更好的延迟)。现在尝试扩展它,您会发现大规模复制您的设置的成本与一个不错的 SAN 相当,这使得 FC 成为细读的唯一合乎逻辑的选择......大多数时候,我最终使用各种服务的组合(应用程序,数据库,备份,存档)不是一个单一的平台来优化成本,这取决于需要。