我尝试从我的 MACOS 对 MQTT 进行负载测试,并且能够成功实现超过 12k 的连接,直到我的带宽耗尽。
我尝试在 GCP 机器上进行相同的测试,一旦打开的端口达到 2048 和 2048 与 MQTT 代理的连接,它就会给我连接超时异常。
连接时,我的 ConnectionTimeout 为 100s(等待 conack)和 KeepAlive = 300s(一旦建立连接)
无论负载测试软件是什么,例如 mzbench、jmeter 和 emqtt-bench,都会发生此问题。所以,我认为这个问题与linux服务器有关。
我不希望实现 100 万个开放连接,而是寻找至少 30K 开放连接。
已经尝试更改 ulimit,这些是我的 ulimit 配置
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 63887
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) unlimited
open files (-n) 102400
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 200000
virtual memory (kbytes, -v) unlimited
file locks (-x) unlimited
proc 上的 cat 也将最大文件打开为 102400
这些也是我的 sysctl 中设置的值
fs.file-max = 200000
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.ipv4.tcp_rmem = 4096 87380 16777216
net.ipv4.tcp_wmem = 4096 65536 16777216
net.ipv4.tcp_syncookies = 1
net.ipv4.tcp_mem = 50576 64768 98152
net.core.netdev_max_backlog = 2500
编辑:添加了机器详细信息和测试模式
机器类型:n2-highcpu-16(16 个 vCPU,16 GB 内存)
lscpu 的结果
Architecture: x86_64
CPU op-mode(s): 32-bit, 64-bit
Byte Order: Little Endian
CPU(s): 16
On-line CPU(s) list: 0-15
Thread(s) per core: 2
Core(s) per socket: 8
Socket(s): 1
NUMA node(s): 1
Vendor ID: GenuineIntel
CPU family: 6
Model: 85
Model name: Intel(R) Xeon(R) CPU
Stepping: 7
CPU MHz: 2800.200
BogoMIPS: 5600.40
Hypervisor vendor: KVM
Virtualization type: full
L1d cache: 32K
L1i cache: 32K
L2 cache: 1024K
L3 cache: 33792K
NUMA node0 CPU(s): 0-15
Flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ss ht syscall nx pdpe1gb rdtscp lm constant_tsc rep_good nopl xtopology nonstop_tsc cpuid tsc_known_freq pni pclmulqdq ssse3 fma cx16 pcid sse4_1 sse4_2 x2apic movbe popcnt aes xsave avx f16c rdrand hypervisor lahf_lm abm 3dnowprefetch invpcid_single ssbd ibrs ibpb stibp ibrs_enhanced fsgsbase tsc_adjust bmi1 hle avx2 smep bmi2 erms invpcid rtm mpx avx512f avx512dq rdseed adx smap clflushopt clwb avx512cd avx512bw avx512vl xsaveopt xsavec xgetbv1 xsaves arat avx512_vnni md_clear arch_capabilities
测试模式:每秒打开 200 个连接并以恒定速率等待 conack。
感谢上面的评论,我能够解决这个问题。
我正在从我的测试 VM 中访问公共 LoadBalancer IP。但是,GCP 限制了从 VM 到公共 IP 的最大 2048 个连接。将其更改为私有 IP 后,我能够实现接近 65k 的连接。