目前我们无法完全填满 19" 机架。所以我们有 12 个 GPU 节点,每个 2U。42U 机架连接到冷却单元,在计算机前面吹冷空气,从后面吸入热空气。据我所知了解了这个线程,最好的做法是堆叠所有节点,中间不留任何间隙,并使用空白面板关闭所有空槽。
现在我应该把这组 24U 的热计算机放在机架的哪个位置?都在底部,让冷空气下沉到最低节点?都到顶了,因为风流够强?中间的某个地方?
我知道我可以qacct
用来获取有关正在运行的作业的各种统计信息。现在有没有办法获得一些关于有多少工作待处理以及他们平均需要等待多长时间的统计数据?
额外问题:我可以获得有关 SGE 中“空闲”(或空)插槽的统计信息吗?
假设您有两个队列,队列 A 使用一些新硬件,队列 B 使用旧硬件。此外,对于 SGE 作业,两个队列具有相同数量的节点和插槽,例如每个队列有 10 个插槽。
现在我提交了 10 个工作。如果两个队列都是空的并且节点具有相同的负载,我猜有 5 个作业将在队列 A 中运行,其中 5 个在队列 B 中运行。但是由于 B 的硬件较旧,因此这些作业将需要更长的时间才能完成。
有没有办法让 SGE 在“退出”到旧队列 B 之前先尝试“填充”队列 A 中的快速节点?我在询问问题的用户和管理员方面。
我们有一个运行在 Solaris 10 上的大型文件服务器和运行在 Ubuntu 上的大约 200 个计算节点。节点通过 NFS 访问文件服务器。随着时间的推移,负载变得越来越大。
有没有办法在每个用户的基础上限制资源(入/出网络带宽或到/来自存储上 ZFS 文件系统的 I/O)?如果在 Solaris 上无法实现,我们可以调整网络交换机(Cisco Nexus 5k 系列)来实现相同的效果吗?
其他人如何以公平的方式管理对大型单个文件系统的访问?
是否可以配置dhcpd.conf
为使特定主机组使用传递给内核加载的附加内核引导参数?
谢谢!
我知道 ZFS 的性能在很大程度上取决于可用空间量:
将池空间的利用率保持在 80% 以下以维持池性能。当前,当池非常满且文件系统更新频繁时(例如在繁忙的邮件服务器上),池性能可能会下降。满池可能会导致性能下降,但没有其他问题。[...] 请记住,即使大部分静态内容在 95-96% 范围内,写入、读取和重新同步性能也可能会受到影响。ZFS_Best_Practices_Guide,solarisinternals.com (archive.org)
现在,假设我有一个托管 ZFS 文件系统的 10T raidz2 池volume
。现在我创建了一个子文件系统volume/test
并为其预留了 5T。
然后我将每个 NFS 的两个文件系统挂载到某个主机并执行一些工作。我明白我不能写入volume
超过 5T,因为剩下的 5T 是保留给volume/test
.
我的第一个问题是,如果我volume
用 ~5T 填充挂载点,性能会如何下降?它会因为 ZFS 的写时复制和其他元数据的文件系统中没有可用空间而下降吗?或者它会保持不变,因为 ZFS 可以使用为保留的空间内的可用空间volume/test
吗?
现在第二个问题。如果我按如下方式更改设置,会有什么不同吗?volume
现在有两个文件系统,volume/test1
和volume/test2
. 两者都获得了 3T 预留(但没有配额)。现在假设,我将 7T 写入test1
. 两个文件系统的性能是否相同,还是每个文件系统都不同?它会下降还是保持不变?
谢谢!
如何确定可以将 ZFS 文件系统 (Solaris 10) 上的配额扩展到多远?我被告知设置zfs set quota=none
然后将其设置回原始值,但我不允许这样做。有没有其他方法可以找出我的存储系统的上限是多少?
谢谢!