我在网上看到有关使用 IOSTAT 的相互矛盾的信息。特别是我希望能够显示自启动以来的平均值。根据我读过的信息,如果我从未发出过命令 IOSTAT,它将显示自启动以来的平均值。但是,如果在某个时候我发出了 IOSTAT 命令,那么下一次执行将不是自启动以来,而是自上次执行以来。
假设我之前已经运行过一次,我如何在启动后执行 IOSTAT。
我/dev/sda
使用 1MiB 块大小读取。Linux 似乎将 IO 请求限制为512KiB平均大小为 512KiB。这里发生了什么?这种行为是否有配置选项?
$ sudo dd iflag=direct if=/dev/sda bs=1M of=/dev/null status=progress
1545601024 bytes (1.5 GB, 1.4 GiB) copied, 10 s, 155 MB/s
1521+0 records in
1520+0 records out
...
当我的dd
命令运行时,rareq-sz
是 512。
Rareq-sz 向设备发出的读取请求的平均大小(以千字节为单位)。
$ iostat -d -x 3
...
Device r/s w/s rkB/s wkB/s rrqm/s wrqm/s %rrqm %wrqm r_await w_await aqu-sz rareq-sz wareq-sz svctm %util
sda 309.00 0.00 158149.33 0.00 0.00 0.00 0.00 0.00 5.24 0.00 1.42 511.81 0.00 1.11 34.27
dm-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-2 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-3 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
...
内核版本是5.1.15-300.fc30.x86_64
. max_sectors_kb
是1280。
$ cd /sys/class/block/sda/queue
$ grep -H . max_sectors_kb max_hw_sectors_kb max_segments max_segment_size optimal_io_size logical_block_size chunk_sectors
max_sectors_kb:1280
max_hw_sectors_kb:32767
max_segments:168
max_segment_size:65536
optimal_io_size:0
logical_block_size:512
chunk_sectors:0
默认情况下,我使用 BFQ I/O 调度程序。之后我也尝试重复测试echo 0 | sudo tee wbt_lat_usec
。然后我也尝试在之后重复测试echo mq-deadline|sudo tee scheduler
。结果保持不变。
除了 WBT,我对两个 I/O 调度程序都使用了默认设置。例如,对于mq-deadline
,iosched/read_expire
是 500,相当于半秒。
在最后一次测试期间(mq-deadline,WBT 禁用),我跑了btrace /dev/sda
. 它显示所有请求被分成两个不相等的两半:
8,0 0 3090 5.516361551 15201 Q R 6496256 + 2048 [dd]
8,0 0 3091 5.516370559 15201 X R 6496256 / 6497600 [dd]
8,0 0 3092 5.516374414 15201 G R 6496256 + 1344 [dd]
8,0 0 3093 5.516376502 15201 I R 6496256 + 1344 [dd]
8,0 0 3094 5.516388293 15201 G R 6497600 + 704 [dd]
8,0 0 3095 5.516388891 15201 I R 6497600 + 704 [dd]
8,0 0 3096 5.516400193 733 D R 6496256 + 1344 [kworker/0:1H]
8,0 0 3097 5.516427886 733 D R 6497600 + 704 [kworker/0:1H]
8,0 0 3098 5.521033332 0 C R 6496256 + 1344 [0]
8,0 0 3099 5.523001591 0 C R 6497600 + 704 [0]
X -- split在[软件] RAID 或设备映射器设置中,传入的 i/o 可能跨越设备或内部区域,并且需要被分割成更小的部分以进行服务。这可能表明由于该 raid/dm 设备设置错误导致的性能问题,但也可能只是正常边界条件的一部分。dm 在这方面特别糟糕,会克隆很多 i/o。
iostat
忽略%util
号码。在这个版本中被破坏了。(`dd` 正在全速运行,但我只看到 20% 的磁盘利用率。为什么?)
我认为 由于基于 %utilaqu-sz
也会受到影响。虽然我认为这意味着它在这里会大三倍(100/34.27)。
忽略svtm
号码。“警告!不要再相信这个字段了。这个字段将在未来的 sysstat 版本中被删除。”
从iostat
手册页:
rrqm/s
The number of read requests merged per second that were queued to the device.
wrqm/s
The number of write requests merged per second that were queued to the device.
r/s
The number (after merges) of read requests completed per second for the device.
w/s
The number (after merges) of write requests completed per second for the device.
merge
由于文档没有提供任何进一步的细节,任何人都可以详细说明这个概念吗?