我正在构建一个新的子集群,因此我面临的问题很少。
- 哪种技术对于“提高吞吐量”更有效?(如果您能提供任何比较,那就太好了)就我的谷歌工作而言,有两种技术可以在一个 NIC 内提供额外的路径。链路聚合控制协议和多路径 I/O。如果有人可以为我提供这些技术的任何优点或缺点,那就太好了。
(我是出于好奇问第二个问题,只是想听听您的意见)
- 哪种连接更可取(FC 的以太网)?
在比较以太网和 FC 时,我听说以太网连接速度较慢。
我正在构建一个新的子集群,因此我面临的问题很少。
(我是出于好奇问第二个问题,只是想听听您的意见)
在比较以太网和 FC 时,我听说以太网连接速度较慢。
最近拥有 Dell PowerVault MD3600i 我遇到了一些奇怪的结果。
我有一个专用的 24x 10GbE 交换机 (PowerConnect 8024),设置为 9K 巨型帧。
MD3600 有 2 个 RAID 控制器,每个控制器有 2 个 10GbE 以太网网卡。开关上没有其他东西;一个 VLAN 用于 SAN 流量。
这是我的 multipath.conf
defaults {
udev_dir /dev
polling_interval 5
selector "round-robin 0"
path_grouping_policy multibus
getuid_callout "/sbin/scsi_id -g -u -s /block/%n"
prio_callout none
path_checker readsector0
rr_min_io 100
max_fds 8192
rr_weight priorities
failback immediate
no_path_retry fail
user_friendly_names yes
# prio rdac
}
blacklist {
device {
vendor "*"
product "Universal Xport"
}
# devnode "^sd[a-z]"
}
devices {
device {
vendor "DELL"
product "MD36xxi"
path_grouping_policy group_by_prio
prio rdac
# polling_interval 5
path_checker rdac
path_selector "round-robin 0"
hardware_handler "1 rdac"
failback immediate
features "2 pg_init_retries 50"
no_path_retry 30
rr_min_io 100
prio_callout "/sbin/mpath_prio_rdac /dev/%n"
}
}
和 iscsid.conf :
node.startup = automatic
node.session.timeo.replacement_timeout = 15
node.conn[0].timeo.login_timeout = 15
node.conn[0].timeo.logout_timeout = 15
node.conn[0].timeo.noop_out_interval = 5
node.conn[0].timeo.noop_out_timeout = 10
node.session.iscsi.InitialR2T = No
node.session.iscsi.ImmediateData = Yes
node.session.iscsi.FirstBurstLength = 262144
node.session.iscsi.MaxBurstLength = 16776192
node.conn[0].iscsi.MaxRecvDataSegmentLength = 262144
经过我的测试;我几乎不能达到 200 Mb/s 读/写。
我应该期待更多吗?如果它有双 10 GbE,我的想法是 400 Mb/s。
有任何想法吗 ?指引?故障排除技巧 ?
编辑:
该阵列设置为 5.7TB 的单个逻辑卷 磁盘均为 1TB 7.2k SAS 6GB (ST1000NM0001) RAID 为 RAID10
Swith 配置的一些行:
interface Te1/0/23
storm-control broadcast
storm-control multicast
spanning-tree portfast
mtu 9000
switchport access vlan 40
exit
...
iscsi cos vpt 5
management access-list "default"
permit service ssh priority 1
permit service http priority 2
permit service https priority 3
和多路径输出:
[root@xnode4 ~]# multipath -ll -v2
multipath.conf line 30, invalid keyword: prio
mpath1 (36d4ae520009bd7cc0000030e4fe8230b) dm-2 DELL,MD36xxi
[size=5.5T][features=3 queue_if_no_path pg_init_retries 50][hwhandler=1 rdac][rw]
\_ round-robin 0 [prio=400][active]
\_ 7:0:0:0 sdc 8:32 [active][ready]
\_ 9:0:0:0 sde 8:64 [active][ready]
\_ 11:0:0:0 sdi 8:128 [active][ready]
\_ 13:0:0:0 sdn 8:208 [active][ready]
\_ round-robin 0 [prio=0][enabled]
\_ 10:0:0:0 sdj 8:144 [active][ghost]
\_ 12:0:0:0 sdh 8:112 [active][ghost]
\_ 8:0:0:0 sdd 8:48 [active][ghost]
\_ 6:0:0:0 sdb 8:16 [active][ghost]
我有一个在 Windows 2008 R2 上运行的 4 节点 Hyper-V 集群。在我任职之前,集群只有一个到 SAN 的链接。我添加了冗余链接,但现在我需要在所有节点上启用 MPIO。
是否有人在现有集群上启用了 MPIO?我意识到在安装 MPIO 时我将不得不重新启动每个 Hyper-V 节点,但我找不到 Microsoft 关于在正在运行的集群上执行此操作的任何建议。