我们有一个运行在 Solaris 10 上的大型文件服务器和运行在 Ubuntu 上的大约 200 个计算节点。节点通过 NFS 访问文件服务器。随着时间的推移,负载变得越来越大。
有没有办法在每个用户的基础上限制资源(入/出网络带宽或到/来自存储上 ZFS 文件系统的 I/O)?如果在 Solaris 上无法实现,我们可以调整网络交换机(Cisco Nexus 5k 系列)来实现相同的效果吗?
其他人如何以公平的方式管理对大型单个文件系统的访问?
我们有一个运行在 Solaris 10 上的大型文件服务器和运行在 Ubuntu 上的大约 200 个计算节点。节点通过 NFS 访问文件服务器。随着时间的推移,负载变得越来越大。
有没有办法在每个用户的基础上限制资源(入/出网络带宽或到/来自存储上 ZFS 文件系统的 I/O)?如果在 Solaris 上无法实现,我们可以调整网络交换机(Cisco Nexus 5k 系列)来实现相同的效果吗?
其他人如何以公平的方式管理对大型单个文件系统的访问?
您可以在 Crossbow 中的服务器上执行此操作,使用 IPQoS 以 150KiB/s 的增量限制带宽。
您可以使用 Linux tc 命令在客户端上执行此操作:
来源