我对这个问题的看法来自开发者方面。我编写的代码放置在作为企业系统中众多虚拟机之一运行的 RHEL 虚拟机上。正在使用的文件系统是一个远程的、网络连接的存储设备。
在批处理过程中,我们对简单命令有一些高度可变性。所以我们设置了一个测试来获取更多信息,但现在我不知道我们发现了什么。
我们每 30 分钟运行一次以下命令并记录输出。它是一个 6 GB 文件的副本。我看到的是当系统忙于运行大量作业并且此测试命令获得低 CPU 时间时,经过的时间从 11 秒跃升至 190 秒。
我可以看到的是,当 CPU 较低时,“I”列(文件系统输入)会被填充,但在 CPU 较高时则不会。“w”列(非自愿掉期)也高得多。
我的问题是,当 CPU 时间下降时,这个作业/命令发生了什么迫使它运行这么长时间?换入/换出是否将所有数据存储在其他速度慢得多的设备上?通常,在换入/换出期间会发生什么?
正在运行的命令:
/usr/bin/time -a -o filename.txt cp file.txt fileCopy.txt
日期 | 时间 | e | 小号 | ü | 磷 | C | w | 我 | ○ |
---|---|---|---|---|---|---|---|---|---|
2022 年 3 月 14 日 | 5:19:02 | 64.9 | 16.23 | 1.03 | 26% | 3005 | 29210 | 12000016 | 1200万 |
2022 年 3 月 14 日 | 5:49:02 | 12.7 | 11.63 | 0.79 | 97% | 2069 | 76 | 0 | 1200万 |
2022 年 3 月 14 日 | 6:19:02 | 100.39 | 14.74 | 0.78 | 15% | 1034 | 29925 | 12000136 | 1200万 |
2022 年 3 月 14 日 | 6:49:24 | 191.32 | 18.86 | 0.94 | 10% | 3374 | 36164 | 12001024 | 1200万 |
2022 年 3 月 14 日 | 7:19:02 | 71.61 | 15.61 | 0.88 | 23% | 1610 | 30316 | 12000296 | 1200万 |
2022 年 3 月 14 日 | 7:49:02 | 70.73 | 17.5 | 0.91 | 26% | 1408 | 29540 | 12000072 | 1200万 |
2022 年 3 月 14 日 | 8:19:02 | 10.95 | 9.89 | 0.7 | 96% | 1709 | 75 | 0 | 1200万 |
2022 年 3 月 14 日 | 8:49:02 | 11.01 | 10.22 | 0.73 | 99% | 239 | 85 | 0 | 1200万 |
/usr/bin/time 手册页中的列描述
e Elapsed real time (in seconds).
S Total number of CPU-seconds that the process spent in kernel mode.
U Total number of CPU-seconds that the process spent in user mode.
P Percentage of the CPU that this job got, computed as (%U + %S) / %E.
c Number of times the process was context-switched involuntarily (because the time slice expired).
w Number of waits: times that the program was context-switched voluntarily, for instance while waiting for an I/O operation to complete.
I Number of filesystem inputs by the process.
O Number of filesystem outputs by the process.