AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / server / 问题

问题[10gbethernet](server)

Martin Hope
herbey zepeda
Asked: 2022-03-28 07:17:42 +0800 CST

将核心交换机用作 L2 接入交换机

  • 0

我可以使用CORE开关作为ACCESS二层交换机?最终目标是通过至少 10Gb 网络连接所有服务器。每个服务器都有大量的数据,这些数据将在彼此之间来回传输。较慢的网络和互联网访问不在图片中。数据传输严格在将连接到 CORE 交换机的服务器之间进行。所述服务器中的每个主板都将有一个连接到 PCIe 插槽的 10Gb 卡。我有一个托管的 3500 系列 Cisco 交换机,它只有 4 个 10Gb 上行链路端口,其余的是 1Gb。我想我可能因为缺乏知识和要求而购买了这个开关。1Gb 端口对 y 用例没有用处。我希望所有端口都尽可能快。事实上,如果我能超过 10Gb 标记,我会(40Gb/s、100Gb/s 等......图。谢谢

编辑 感谢您的评论...如果我的目标是将数据从 Motherboard-1 移动到 Motherboard-2 中的 RAM,因为 SATA 3 不超过 6Gb/s 和真正的瓶颈,我想我将停止在 10Gb/s无论如何都在 HDD/SSD 中,因此投资高于 10Gb/s 是没有意义的。

图片

networking switch 10gbethernet
  • 1 个回答
  • 41 Views
Martin Hope
roman
Asked: 2021-06-06 10:20:14 +0800 CST

10G 网络上的写入速度非常慢(NVME 驱动器)

  • 6

搭建实验实验室集群,通过10G光纤连接接收数据的写入速度为本地写入速度的10%。

测试两台相同机器之间的传输速度;iperf3显示良好的内存到内存速度为9.43Gbits/s。磁盘(读取)到内存的传输速度为(9.35Gbit/s):

test@rbox1:~$ iperf3 -s -B 10.0.0.21

test@rbox3:~$ iperf3 -c 10.0.0.21 -F /mnt/k8s/test.3g 
Connecting to host 10.0.0.21, port 5201
        Sent 9.00 GByte / 9.00 GByte (100%) of /mnt/k8s/test.3g
[  5]   0.00-8.26   sec  9.00 GBytes  9.35 Gbits/sec

但是发送超过 10G 的数据并写入另一台机器上的磁盘要慢一个数量级:

test@rbox1:~$ iperf3 -s 10.0.0.21 -F /tmp/foo -B 10.0.0.21

test@rbox3:~$ iperf3 -c 10.0.0.21
Connecting to host 10.0.0.21, port 5201
[  5] local 10.0.0.23 port 39970 connected to 10.0.0.21 port 5201
[ ID] Interval           Transfer     Bitrate         Retr  Cwnd
[  5]   0.00-1.00   sec   103 MBytes   864 Mbits/sec    0    428 KBytes       
[  5]   1.00-2.00   sec   100 MBytes   842 Mbits/sec    0    428 KBytes       
[  5]   2.00-3.00   sec  98.6 MBytes   827 Mbits/sec    0    428 KBytes       
[  5]   3.00-4.00   sec  99.3 MBytes   833 Mbits/sec    0    428 KBytes       
[  5]   4.00-5.00   sec  91.5 MBytes   768 Mbits/sec    0    428 KBytes       
[  5]   5.00-6.00   sec  94.4 MBytes   792 Mbits/sec    0    428 KBytes       
[  5]   6.00-7.00   sec  98.1 MBytes   823 Mbits/sec    0    428 KBytes       
[  5]   7.00-8.00   sec  91.2 MBytes   765 Mbits/sec    0    428 KBytes       
[  5]   8.00-9.00   sec  91.0 MBytes   764 Mbits/sec    0    428 KBytes       
[  5]   9.00-10.00  sec  91.5 MBytes   767 Mbits/sec    0    428 KBytes       
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec   959 MBytes   804 Mbits/sec    0             sender
        Sent  959 MByte / 9.00 GByte (10%) of /mnt/k8s/test.3g
[  5]   0.00-10.00  sec   953 MBytes   799 Mbits/sec                  receiver

NVME 驱动器能够更快地在本地dd写入(详细信息和fio测量值如下) - 对于单进程和4k/8k/10m块:fio随机写入速度为330/500/1300 MB/s

我正在尝试实现接近 NVME 驱动器的实际本地写入速度的写入速度(所以是的,很好地阐明了这个假设——我希望能够达到非常相似的速度写入单个 NVME 驱动器。网络;但我什至无法获得其中的 20%)。

在这一点上,我完全被踩住了,看不到还有什么可以尝试的——除了不同的内核/操作系统——任何指针、更正和帮助都将不胜感激。


这里有一些测量/信息/结果:

到目前为止我尝试了什么:

  • 两台机器上的巨型帧(MTU 9000)并验证它们工作(使用ping -mping -M do -s 8972)

  • 消除了网络交换机的干扰,我通过 2m Dumplex OM3 多模光纤电缆直接连接了两台机器(所有机器上的电缆和收发器都是相同的),并将 iperf3 服务器/客户端绑定到这些接口。结果是一样的(慢)。

  • 在测试期间断开所有其他以太网/光纤电缆(以消除路由问题) - 没有变化。

  • 更新了主板和光纤网卡的固件(同样,没有变化)。我还没有更新 NVME 固件 - 似乎已经是最新的了。

  • 甚至尝试将 10G 卡从 PCIE 插槽 1 移动到下一个可用插槽;想知道 NVME 和 10G NIC 是否共享和最大化物理集线器通道带宽(同样,没有可测量的变化)。

发现了一些“有趣”的行为:

  1. 增加并行客户端的数量会增加带宽利用率;有 1 个客户端,目标机器写入 900Mbits/sec;4 个客户端 1.26 Gbits/sec(超过 4 个并行客户端会产生不利影响)
  2. 在具有 AMD Ryzen 5 3600X 和 64G RAM(相同的 NVME 驱动器 + 10G NIC)的更强大的机器上测试写入——1 个客户端可以达到 1.53Gbit/sec,4 个客户端可以达到 2.15Gbits/sec(8 个客户端可以达到 2.13Gbit/sec )。本例流量流经 Mikrotik CS309 交换机,MTU 为 1500;更强大的机器似乎接收/写入更快
  3. 测试期间没有明显的负载——这适用于小型和大型机器;2核可能是26%

编辑 06/07:

在@shodanshok 评论之后,通过 NFS 安装远程机器;以下是结果:

nfs exports: /mnt/nfs *(rw,no_subtree_check,async,insecure,no_root_squash,fsid=0)

cat /etc/mtab | grep nfs 10.0.0.21:/mnt/nfs /mnt/nfs1 nfs rw,relatime,vers=3,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=10.0.0.21,mountvers=3,mountport=52335,mountproto=udp,local_lock=none,addr=10.0.0.21 0 0

fio --name=random-write --ioengine=libaio --rw=randwrite --bs=$SIZE --numjobs=1 --iodepth=1 --runtime=30 --end_fsync=1 --size=3g dd if=/dev/zero of=/mnt/nfs1/test bs=$SIZE count=$(3*1024/$SIZE)

            | fio (bs=4k)    | fio (bs=8k)    | fio (bs=1M)   | dd (bs=4k)    | dd (bs=1M)
nfs (udp)   |  153           |    210        |   984            |   907        |962
nfs (tcp)   |    157          |    205        |    947           |   946        |916

所有这些测量结果都是MB/s我很满意 1M 块非常接近 10G 连接的理论速度限制。

看起来iperf3 -F ...不是测试网络写入速度的方法;但我也会尝试让iperf3开发人员接受它。


设置详情:

每台机器都有 AMD Ryzen 3 3200G 和 8GB RAM,MPG X570 GAMING PLUS (MS-7C37) 主板。1 个 1TB NVME 驱动器(消费级 WD Blue SN550 NVMe SSD WDS100T2B0C),位于最靠近 CPU 的 M.2 插槽中。以及 PCIe 插槽中的一张 SolarFlare S7120 10G 光纤卡。

NVME 磁盘信息:

test@rbox1:~$ sudo nvme list
Node             SN                   Model                                    Namespace Usage                      Format           FW Rev  
---------------- -------------------- ---------------------------------------- --------- -------------------------- ---------------- --------
/dev/nvme0n1     21062Y803544         WDC WDS100T2B0C-00PXH0                   1           1.00  TB /   1.00  TB    512   B +  0 B   211210WD

NVME磁盘写入速度(4k/8k/10M)

test@rbox1:~$ dd if=/dev/zero of=/tmp/temp.bin bs=4k count=1000
1000+0 records in
1000+0 records out
4096000 bytes (4.1 MB, 3.9 MiB) copied, 0.00599554 s, 683 MB/s


test@rbox1:~$ dd if=/dev/zero of=/tmp/temp.bin bs=8k count=1000
1000+0 records in
1000+0 records out
8192000 bytes (8.2 MB, 7.8 MiB) copied, 0.00616639 s, 1.3 GB/s


test@rbox1:~$ dd if=/dev/zero of=/tmp/temp.bin bs=10M count=1000
1000+0 records in
1000+0 records out
10485760000 bytes (10 GB, 9.8 GiB) copied, 7.00594 s, 1.5 GB/s

使用 fio-3.16 测试随机写入速度:

test@rbox1:~$ fio --name=random-write --ioengine=posixaio --rw=randwrite --bs=4k --numjobs=1 --iodepth=1 --runtime=30 --time_based --end_fsync=1
random-write: (g=0): rw=randwrite, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=posixaio, iodepth=1

Run status group 0 (all jobs):
  WRITE: bw=313MiB/s (328MB/s), 313MiB/s-313MiB/s (328MB/s-328MB/s), io=9447MiB (9906MB), run=30174-30174msec

Disk stats (read/write):
    dm-0: ios=2/969519, merge=0/0, ticks=0/797424, in_queue=797424, util=21.42%, aggrios=2/973290, aggrmerge=0/557, aggrticks=0/803892, aggrin_queue=803987, aggrutil=21.54%
  nvme0n1: ios=2/973290, merge=0/557, ticks=0/803892, in_queue=803987, util=21.54%



test@rbox1:~$ fio --name=random-write --ioengine=posixaio --rw=randwrite --bs=8k --numjobs=1 --iodepth=1 --runtime=30 --time_based --end_fsync=1
random-write: (g=0): rw=randwrite, bs=(R) 8192B-8192B, (W) 8192B-8192B, (T) 8192B-8192B, ioengine=posixaio, iodepth=1

Run status group 0 (all jobs):
  WRITE: bw=491MiB/s (515MB/s), 491MiB/s-491MiB/s (515MB/s-515MB/s), io=14.5GiB (15.6GB), run=30213-30213msec

Disk stats (read/write):
    dm-0: ios=1/662888, merge=0/0, ticks=0/1523644, in_queue=1523644, util=29.93%, aggrios=1/669483, aggrmerge=0/600, aggrticks=0/1556439, aggrin_queue=1556482, aggrutil=30.10%
  nvme0n1: ios=1/669483, merge=0/600, ticks=0/1556439, in_queue=1556482, util=30.10%



test@rbox1:~$ fio --name=random-write --ioengine=posixaio --rw=randwrite --bs=10m --numjobs=1 --iodepth=1 --runtime=30 --time_based --end_fsync=1
random-write: (g=0): rw=randwrite, bs=(R) 10.0MiB-10.0MiB, (W) 10.0MiB-10.0MiB, (T) 10.0MiB-10.0MiB, ioengine=posixaio, iodepth=1

Run status group 0 (all jobs):
  WRITE: bw=1250MiB/s (1310MB/s), 1250MiB/s-1250MiB/s (1310MB/s-1310MB/s), io=36.9GiB (39.6GB), run=30207-30207msec

Disk stats (read/write):
    dm-0: ios=9/14503, merge=0/0, ticks=0/540252, in_queue=540252, util=68.96%, aggrios=9/81551, aggrmerge=0/610, aggrticks=5/3420226, aggrin_queue=3420279, aggrutil=69.16%
  nvme0n1: ios=9/81551, merge=0/610, ticks=5/3420226, in_queue=3420279, util=69.16%

核心:

test@rbox1:~$ uname -a
Linux rbox1 5.8.0-55-generic #62-Ubuntu SMP Tue Jun 1 08:21:18 UTC 2021 x86_64 x86_64 x86_64 GNU/Linux

光纤网卡:

test@rbox1:~$ sudo sfupdate 
Solarflare firmware update utility [v8.2.2]
Copyright 2002-2020 Xilinx, Inc. 
Loading firmware images from /usr/share/sfutils/sfupdate_images

enp35s0f0np0 - MAC: 00-0F-53-3B-7D-D0
    Firmware version:   v8.0.1
    Controller type:    Solarflare SFC9100 family
    Controller version: v6.2.7.1001
    Boot ROM version:   v5.2.2.1006

The Boot ROM firmware is up to date
The controller firmware is up to date

光纤网卡的初始化和MTU设置:

test@rbox1:~$ sudo dmesg | grep sf
[    0.210521] ACPI: 10 ACPI AML tables successfully acquired and loaded
[    1.822946] sfc 0000:23:00.0 (unnamed net_device) (uninitialized): Solarflare NIC detected
[    1.824954] sfc 0000:23:00.0 (unnamed net_device) (uninitialized): Part Number : SFN7x22F
[    1.825434] sfc 0000:23:00.0 (unnamed net_device) (uninitialized): no PTP support
[    1.958282] sfc 0000:23:00.1 (unnamed net_device) (uninitialized): Solarflare NIC detected
[    2.015966] sfc 0000:23:00.1 (unnamed net_device) (uninitialized): Part Number : SFN7x22F
[    2.031379] sfc 0000:23:00.1 (unnamed net_device) (uninitialized): no PTP support
[    2.112729] sfc 0000:23:00.0 enp35s0f0np0: renamed from eth0
[    2.220517] sfc 0000:23:00.1 enp35s0f1np1: renamed from eth1
[    3.494367] [drm] VCN decode and encode initialized successfully(under DPG Mode).
[ 1748.247082] sfc 0000:23:00.0 enp35s0f0np0: link up at 10000Mbps full-duplex (MTU 1500)
[ 1809.625958] sfc 0000:23:00.1 enp35s0f1np1: link up at 10000Mbps full-duplex (MTU 9000)

主板编号:

# dmidecode 3.2
Getting SMBIOS data from sysfs.
SMBIOS 2.8 present.

Handle 0x0001, DMI type 1, 27 bytes
System Information
    Manufacturer: Micro-Star International Co., Ltd.
    Product Name: MS-7C37
    Version: 2.0

其他硬件信息(主要用于列出物理连接 - 网桥)

test@rbox1:~$ hwinfo --short
cpu:                                                            
                       AMD Ryzen 3 3200G with Radeon Vega Graphics, 1500 MHz
                       AMD Ryzen 3 3200G with Radeon Vega Graphics, 1775 MHz
                       AMD Ryzen 3 3200G with Radeon Vega Graphics, 1266 MHz
                       AMD Ryzen 3 3200G with Radeon Vega Graphics, 2505 MHz
storage:
                       ASMedia ASM1062 Serial ATA Controller
                       Sandisk Non-Volatile memory controller
                       AMD FCH SATA Controller [AHCI mode]
                       AMD FCH SATA Controller [AHCI mode]
network:
  enp35s0f1np1         Solarflare SFN7x22F-R3 Flareon Ultra 7000 Series 10G Adapter
  enp35s0f0np0         Solarflare SFN7x22F-R3 Flareon Ultra 7000 Series 10G Adapter
  enp39s0              Realtek RTL8111/8168/8411 PCI Express Gigabit Ethernet Controller
network interface:
  br-0d1e233aeb68      Ethernet network interface
  docker0              Ethernet network interface
  vxlan.calico         Ethernet network interface
  veth0ef4ac4          Ethernet network interface
  enp35s0f0np0         Ethernet network interface
  enp35s0f1np1         Ethernet network interface
  lo                   Loopback network interface
  enp39s0              Ethernet network interface
disk:
  /dev/nvme0n1         Sandisk Disk
  /dev/sda             WDC WD5000AAKS-4
partition:
  /dev/nvme0n1p1       Partition
  /dev/nvme0n1p2       Partition
  /dev/nvme0n1p3       Partition
  /dev/sda1            Partition
bridge:
                       AMD Matisse Switch Upstream
                       AMD Family 17h (Models 00h-1fh) PCIe Dummy Host Bridge
                       AMD Raven/Raven2 Device 24: Function 3
                       AMD Raven/Raven2 PCIe GPP Bridge [6:0]
                       AMD Matisse PCIe GPP Bridge
                       AMD Raven/Raven2 Device 24: Function 1
                       AMD Family 17h (Models 00h-1fh) PCIe Dummy Host Bridge
                       AMD FCH LPC Bridge
                       AMD Matisse PCIe GPP Bridge
                       AMD Matisse PCIe GPP Bridge
                       AMD Raven/Raven2 Device 24: Function 6
                       AMD Matisse PCIe GPP Bridge
                       AMD Raven/Raven2 Root Complex
                       AMD Raven/Raven2 Internal PCIe GPP Bridge 0 to Bus A
                       AMD Raven/Raven2 Device 24: Function 4
                       AMD Matisse PCIe GPP Bridge
                       AMD Raven/Raven2 Device 24: Function 2
                       AMD Matisse PCIe GPP Bridge
                       AMD Raven/Raven2 Device 24: Function 0
                       AMD Raven/Raven2 Device 24: Function 7
                       AMD Raven/Raven2 PCIe GPP Bridge [6:0]
                       AMD Raven/Raven2 Device 24: Function 5
optimization fiber 10gbethernet linux-networking nvme
  • 3 个回答
  • 994 Views
Martin Hope
miho
Asked: 2020-08-05 03:16:35 +0800 CST

在 Dell PowerEdge R630 中引导 Intel X520/I350 卡期间“检测到不支持的模块类型”

  • 0

我购买了带有集成 Intel X520/I350(2x SFP + 2x RJ45)网卡的 Dell PowerEdge R630。我已经在本地(在 1G RJ45 网络上)设置了服务器,以测试一切是否按预期工作并且确实如此;一切正常,没有错误消息。

然后我把它运到数据中心,让他们为我架起它。根据托管协议中的定义,他们使用 10G (SFP+) 端口连接服务器。作为一个几乎没有 SFP+ 经验的人,我天真地认为它会“正常工作”,但是当我尝试通过 iDRAC/VNC (重新)安装操作系统并注意到一个连接的 SFP+ 网络链接丢失时(那里只有eno2到eno4,没有eno1)。想一想,iDRAC 将第一个端口显示为已连接。

我一开始以为 Linux 缺少一些驱动程序,但后来我注意到在引导过程中(在操作系统加载之前)已经出现了错误消息:

  • 启动过程中的错误消息的屏幕截图
  • iDRAC 的屏幕截图显示端口已连接
  • dmesgProxmox 安装程序调试模式下的输出屏幕截图

如前所述,我对 SFP+ 网络几乎一无所知,这让我处于一个相当不舒服的境地:我什至无法判断这是硬件问题(例如与安装的 SFP+ 模块的兼容性问题)还是软件/配置问题. 有什么想法我应该看看吗?

dell-poweredge 10gbethernet sfp
  • 1 个回答
  • 1655 Views
Martin Hope
tinfoil3d
Asked: 2020-04-10 20:29:19 +0800 CST

linux 10gbe ixgbe (intel X550T) 速度慢,最大 420mbyte/s,p2p lan cat8 1m,尝试 ethtool 和 ifconfig 选项无济于事

  • 1

第一次处理10gbe。

我有两个盒子,一个是 2009 代的 i7 2.8ghz 的旧盒子,pcie 2.0,我只是把 Intel X550T 放在那里,以便在我的带有 AMD EPYC gen 1 的新盒子上使用绝对相似但内置的适配器。

我在任何一个盒子上从 tmpfs 下载文件,并且永远不会超过 415mbyte/s,这大约是那里潜在带宽的一半,对吧?

我尝试了https://www.kernel.org/doc/ols/2009/ols2009-pages-169-184.pdf中的大多数内容,从 393mbyte/s 到当前的 415 略有改进。这是我设置 mtu 9000 的结果, 发送队列 10000。

还尝试了此方法,但与当前结果相比没有任何改进:https ://darksideclouds.wordpress.com/2016/10/10/tuning-10gb-nics-highway-to-hell/

以及谷歌上的其他一些页面,大多数都说明了相同的选项。

当我 dl 文件时,我没有看到 i7 机器上的 100% 负载突增,它在核心上大约 10%。所以 CPU 不应该是瓶颈,电缆(它是 1 米 cat8,具有很好的厚屏蔽)不应该是瓶颈,内存速度和 pcie 2.0 速度也不应该是瓶颈。iperf 也报告相同的速度。

在两个方向上都尝试了这些测试。

一定有一些明显的东西我错过了,对吧?

很确定没关系,但它是 i7 上的 lfs 和 epyc 上的 debian 10,两者共享相同的 sysctl 设置和 ethtool 控制的选项。

lspci -n 在两台计算机上都使用它:62:00.0 0200: 8086:1563 (rev 01)所以它是类似的设备。我买了这个特殊的兼容性,但没想到会出现这些问题。

也许这里有人会提出一些建议,我没有想法。

TIA

linux networking intel 10gbethernet
  • 1 个回答
  • 442 Views
Martin Hope
DarkVex
Asked: 2020-03-05 11:45:50 +0800 CST

HP NC523SFP 未检测到链路

  • 0

我有两个 HP NC523SFP 10Gb 2 端口(一个在 HP DL380e Gen8 上,另一个在 Dell PowerEdge 2950 上)两个系统都有 Centos 7,卡被检测到并且运行相同的固件。我已经使用 10Gtek SFP-H10GB-CU2M 电缆直接连接服务器,根据其他一些在网上发现的帖子看起来兼容(我也尝试过使用 10Gtek SFP-H10GB-CU2M 电缆)但问题是之间没有检测到链接这两张卡.. 在这些卡的另外两个插槽上,我有光纤适配器 10Gtek AXS85-192-M3-Cisco2,它们通过 LC-SC 光纤电缆连接到 Cisco 交换机,但这些都没有检测到链路。这里是两台服务器的 ethtool 输出:

DL380e Gen8(好像光纤和铜线收发器都认)

[root@hpe ~]# ifconfig ens4f0
ens4f0: flags=4099<UP,BROADCAST,MULTICAST>  mtu 1500
        ether 8c:dc:d4:91:5e:50  txqueuelen 1000  (Ethernet)
        RX packets 0  bytes 0 (0.0 B)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 0  bytes 0 (0.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
        device interrupt 90

[root@hpe ~]# ifconfig ens4f1
ens4f1: flags=4099<UP,BROADCAST,MULTICAST>  mtu 1500
        ether 8c:dc:d4:91:5e:54  txqueuelen 1000  (Ethernet)
        RX packets 0  bytes 0 (0.0 B)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 0  bytes 0 (0.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
        device interrupt 91

[root@hpe ~]# ethtool ens4f0
Settings for ens4f0:
        Supported ports: [ TP FIBRE ]
        Supported link modes:   10000baseT/Full
        Supported pause frame use: No
        Supports auto-negotiation: No
        Supported FEC modes: Not reported
        Advertised link modes:  10000baseT/Full
        Advertised pause frame use: No
        Advertised auto-negotiation: No
        Advertised FEC modes: Not reported
        Speed: Unknown!
        Duplex: Unknown! (255)
        Port: Twisted Pair
        PHYAD: 0
        Transceiver: internal
        Auto-negotiation: off
        MDI-X: Unknown
        Supports Wake-on: g
        Wake-on: g
        Current message level: 0x00000000 (0)
        Link detected: no

[root@hpe ~]# ethtool ens4f1
Settings for ens4f1:
        Supported ports: [ TP FIBRE ]
        Supported link modes:   10000baseT/Full
        Supported pause frame use: No
        Supports auto-negotiation: No
        Supported FEC modes: Not reported
        Advertised link modes:  10000baseT/Full
        Advertised pause frame use: No
        Advertised auto-negotiation: No
        Advertised FEC modes: Not reported
        Speed: Unknown!
        Duplex: Unknown! (255)
        Port: FIBRE
        PHYAD: 1
        Transceiver: internal
        Auto-negotiation: off
        Supports Wake-on: g
        Wake-on: g
        Current message level: 0x00000000 (0)
        Link detected: no

戴尔 PowerEdge 2950

[root@dell ~]# ifconfig enp8s0f0
enp8s0f0: flags=4099<UP,BROADCAST,MULTICAST>  mtu 1500
        ether c4:34:6b:cc:cf:60  txqueuelen 1000  (Ethernet)
        RX packets 0  bytes 0 (0.0 B)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 0  bytes 0 (0.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
        device interrupt 31

[root@dell ~]# ifconfig enp8s0f1
enp8s0f1: flags=4099<UP,BROADCAST,MULTICAST>  mtu 1500
        ether c4:34:6b:cc:cf:64  txqueuelen 1000  (Ethernet)
        RX packets 0  bytes 0 (0.0 B)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 0  bytes 0 (0.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
        device interrupt 32

[root@dell ~]# ethtool enp8s0f0
Settings for enp8s0f0:
        Supported ports: [ TP FIBRE ]
        Supported link modes:   10000baseT/Full
        Supported pause frame use: No
        Supports auto-negotiation: No
        Supported FEC modes: Not reported
        Advertised link modes:  10000baseT/Full
        Advertised pause frame use: No
        Advertised auto-negotiation: No
        Advertised FEC modes: Not reported
        Speed: Unknown!
        Duplex: Unknown! (255)
        Port: Other
        PHYAD: 0
        Transceiver: internal
        Auto-negotiation: off
        Supports Wake-on: g
        Wake-on: g
        Current message level: 0x00000000 (0)    
        Link detected: no

[root@dell ~]# ethtool enp8s0f1
Settings for enp8s0f1:
        Supported ports: [ TP FIBRE ]
        Supported link modes:   10000baseT/Full
        Supported pause frame use: No
        Supports auto-negotiation: No
        Supported FEC modes: Not reported
        Advertised link modes:  10000baseT/Full
        Advertised pause frame use: No
        Advertised auto-negotiation: No
        Advertised FEC modes: Not reported
        Speed: Unknown!
        Duplex: Unknown! (255)
        Port: FIBRE
        PHYAD: 1
        Transceiver: internal
        Auto-negotiation: off
        Supports Wake-on: g
        Wake-on: g
        Current message level: 0x00000000 (0)
        Link detected: no

我可以检查什么?我试图强制链接速度,但我得到“不允许操作”我注意到在戴尔上铜电缆被检测为“端口:其他”

hp-proliant dell-poweredge 10gbethernet qlogic sfp
  • 1 个回答
  • 540 Views
Martin Hope
sparkles
Asked: 2019-04-18 22:59:30 +0800 CST

RJ45 端口到 SFP+ 的转换器

  • 6

我的 2 台服务器有一个 Intel X552 网络适配器,它有 2 个 10GbE RJ45 端口。我所有的其他设备至少是双 RJ45/SFP+。

我正在考虑将我的核心网络升级到 10GbE,如果可能的话,我想只使用光纤电缆。

有什么可以让我将 RJ45 端口转换为 SFP+ 的吗?我找到了像这样的媒体转换器,但我希望有更像是直接插入端口的收发器的东西。

10gbethernet
  • 1 个回答
  • 871 Views
Martin Hope
Stefan Wild
Asked: 2016-09-28 10:11:35 +0800 CST

来自单个快速链路的多个连接的 LACP 带宽

  • 1

有没有办法从同一个 IP/MAC 获得多个 TCP 连接以使用 LACP 配置中的所有物理链路?

这是我的设置:

中央交换机 (Meraki MS42P) 具有与一台服务器的 10GbE 链路和与建筑物另一侧的接入交换机 (Cisco 2960-CX) 的 10GbE 链路。第二台服务器在接入交换机的 LACP 配置中使用 4 x 1GbE。

如果我从网络中任何地方的多个 1GbE 客户端分别打开一个连接,我可以使 4 x 1GbE 聚合链路饱和(即最多 4 个客户端同时获得完整的 1Gb)。但是,如果我打开从第一台服务器(通过单个 10GbE 链接到交换机)到第二台服务器的 4 个同时 TCP 连接,它们总是共享一个 1GbE 链接。

switch tcp 10gbethernet lacp
  • 2 个回答
  • 874 Views
Martin Hope
L4zl0w
Asked: 2016-09-15 07:25:18 +0800 CST

SFP+ 转 10GbE RJ45

  • 0

我们有 Intel x520 10Gb SFP+ 网络适配器。

我们有 RJ45 网线连接到 10GbE 网络。

我们已经研究过直接连接电缆和收发器,但我们正在努力寻找一种将两者连接起来的方法。

有没有办法建立这种连接?

networking 10gbethernet sfp
  • 4 个回答
  • 3684 Views
Martin Hope
theateist
Asked: 2016-08-10 11:35:14 +0800 CST

为什么带宽不是~10G?

  • 1

我最初发布在“网络工程”上,但我被告知在这里问。

我有 2 台服务器直接通过 10G 电缆连接。我需要知道连接是否良好,并且确实具有 10G 吞吐量。如果不是,我该如何检查问题所在?我使用 IPERF 检查带宽。

更新 我配置了巨型数据包、极端中断率、接收/发送缓冲区的最大值。对于 IPERF,我只对服务器使用“iperf3.exe -s”,对客户端使用“iperf3.exe -c IP”。

根据测试,带宽为 1.5-1.7 Gbits/sec。这是否意味着连接是10G?可能是什么问题呢?

服务器 A 是 Windows 8.1 Pro 64bit

服务器 B 是 Windows 7 Enterprise 64bit

这是 ServerA (192.168.10.100) 是服务器且 ServerB (192.168.10.200) 是客户端时的输出:

-----------------------------------------------------------
Server listening on 5201
-----------------------------------------------------------
Accepted connection from 192.168.10.200, port 63772
[  5] local 192.168.10.100 port 5201 connected to 192.168.10.200 port 63773
[ ID] Interval           Transfer     Bandwidth
[  5]   0.00-1.00   sec   170 MBytes  1.42 Gbits/sec
[  5]   1.00-2.00   sec   217 MBytes  1.82 Gbits/sec
[  5]   2.00-3.00   sec   217 MBytes  1.82 Gbits/sec
[  5]   3.00-4.00   sec   214 MBytes  1.80 Gbits/sec
[  5]   4.00-5.00   sec   217 MBytes  1.82 Gbits/sec
[  5]   5.00-6.00   sec   207 MBytes  1.74 Gbits/sec
[  5]   6.00-7.00   sec   199 MBytes  1.67 Gbits/sec
[  5]   7.00-8.00   sec   206 MBytes  1.73 Gbits/sec
[  5]   8.00-9.00   sec   192 MBytes  1.61 Gbits/sec
[  5]   9.00-10.00  sec   209 MBytes  1.75 Gbits/sec
[  5]  10.00-10.16  sec  30.3 MBytes  1.63 Gbits/sec
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth
[  5]   0.00-10.16  sec  0.00 Bytes  0.00 bits/sec                  sender
[  5]   0.00-10.16  sec  2.03 GBytes  1.72 Gbits/sec                  receiver

这是当 B (192.168.10.200) 是服务器并且 A (192.168.10.100) 是客户端时的输出:

-----------------------------------------------------------
Server listening on 5201
-----------------------------------------------------------
Accepted connection from 192.168.10.100, port 55565
[  5] local 192.168.10.200 port 5201 connected to 192.168.10.100 port 55566
[ ID] Interval           Transfer     Bandwidth
[  5]   0.00-1.00   sec   170 MBytes  1.43 Gbits/sec
[  5]   1.00-2.00   sec   175 MBytes  1.47 Gbits/sec
[  5]   2.00-3.00   sec   175 MBytes  1.47 Gbits/sec
[  5]   3.00-4.00   sec   179 MBytes  1.50 Gbits/sec
[  5]   4.00-5.00   sec   181 MBytes  1.52 Gbits/sec
[  5]   5.00-6.00   sec   200 MBytes  1.68 Gbits/sec
[  5]   6.00-7.00   sec   176 MBytes  1.47 Gbits/sec
[  5]   7.00-8.00   sec   177 MBytes  1.48 Gbits/sec
[  5]   8.00-9.00   sec   186 MBytes  1.56 Gbits/sec
[  5]   9.00-10.00  sec   179 MBytes  1.50 Gbits/sec
[  5]  10.00-10.04  sec  6.42 MBytes  1.46 Gbits/sec
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth
[  5]   0.00-10.04  sec  0.00 Bytes  0.00 bits/sec                  sender
[  5]   0.00-10.04  sec  1.76 GBytes  1.51 Gbits/sec                  receiver

更新2-UDP

当 192.168.10.100 为服务器时

iperf3.exe -c 192.168.10.100 -u -V
iperf 3.1.3
CYGWIN_NT-6.1 ServerB 2.5.1(0.297/5/3) 2016-04-21 22:14 x86_64
Time: Tue, 09 Aug 2016 19:58:03 GMT
Connecting to host 192.168.10.100, port 5201
      Cookie: ServerB.1470772683.561800.7c902a3e559
[  4] local 192.168.10.200 port 63675 connected to 192.168.10.100 port 5201
Starting Test: protocol: UDP, 1 streams, 8192 byte blocks, omitting 0 seconds, 1
0 second test
[ ID] Interval           Transfer     Bandwidth       Total Datagrams
[  4]   0.00-1.00   sec   128 KBytes  1.05 Mbits/sec  16
[  4]   1.00-2.00   sec   128 KBytes  1.05 Mbits/sec  16
[  4]   2.00-3.00   sec   128 KBytes  1.05 Mbits/sec  16
[  4]   3.00-4.00   sec   128 KBytes  1.05 Mbits/sec  16
[  4]   4.00-5.00   sec   128 KBytes  1.05 Mbits/sec  16
[  4]   5.00-6.00   sec   128 KBytes  1.05 Mbits/sec  16
[  4]   6.00-7.00   sec   128 KBytes  1.05 Mbits/sec  16
[  4]   7.00-8.00   sec   128 KBytes  1.05 Mbits/sec  16
[  4]   8.00-9.00   sec   128 KBytes  1.05 Mbits/sec  16
[  4]   9.00-10.00  sec   128 KBytes  1.05 Mbits/sec  16
- - - - - - - - - - - - - - - - - - - - - - - - -
Test Complete. Summary Results:
[ ID] Interval           Transfer     Bandwidth       Jitter    Lost/Total Datag
rams
[  4]   0.00-10.00  sec  1.25 MBytes  1.05 Mbits/sec  0.437 ms  0/160 (0%)
[  4] Sent 160 datagrams
CPU Utilization: local/sender 1.7% (0.9%u/0.8%s), remote/receiver 0.1% (0.0%u/0.
1%s)

当 192.168.10.200 为服务器时

iperf3.exe -c 192.168.10.200 -u -V
iperf 3.1.3
CYGWIN_NT-6.3 ServerA 2.5.1(0.297/5/3) 2016-04-21 22:14 x86_64
Time: Tue, 09 Aug 2016 20:37:11 GMT
Connecting to host 192.168.10.200, port 5201
      Cookie: ServerA.1470775031.986727.6f8e913650af9b
[  4] local 192.168.10.100 port 51834 connected to 192.168.10.200 port 5201
Starting Test: protocol: UDP, 1 streams, 8192 byte blocks, omitting 0 seconds, 1
0 second test
[ ID] Interval           Transfer     Bandwidth       Total Datagrams
[  4]   0.00-1.00   sec   152 KBytes  1.24 Mbits/sec  19
[  4]   1.00-2.00   sec   144 KBytes  1.18 Mbits/sec  18
[  4]   2.00-3.00   sec   160 KBytes  1.31 Mbits/sec  20
[  4]   3.00-4.00   sec   160 KBytes  1.31 Mbits/sec  20
[  4]   4.00-5.00   sec   152 KBytes  1.25 Mbits/sec  19
[  4]   5.00-6.00   sec   152 KBytes  1.24 Mbits/sec  19
[  4]   6.00-7.00   sec   152 KBytes  1.25 Mbits/sec  19
[  4]   7.00-8.00   sec   152 KBytes  1.25 Mbits/sec  19
[  4]   8.00-9.00   sec   152 KBytes  1.24 Mbits/sec  19
[  4]   9.00-10.00  sec   144 KBytes  1.18 Mbits/sec  18
- - - - - - - - - - - - - - - - - - - - - - - - -
Test Complete. Summary Results:
[ ID] Interval           Transfer     Bandwidth       Jitter    Lost/Total Datag
rams
[  4]   0.00-10.00  sec  1.48 MBytes  1.25 Mbits/sec  0.202 ms  0/189 (0%)
[  4] Sent 189 datagrams
CPU Utilization: local/sender 0.1% (0.1%u/0.0%s), remote/receiver 0.0% (0.0%u/0.
0%s)

UPDATE3 - NTTTCP W/O -NDL

服务器A

ntttcp.exe -s -m 8,*,192.168.10.200 -l 128k -a 2 -t 15
Copyright Version 5.31
Network activity progressing...


Thread  Time(s) Throughput(KB/s) Avg B / Compl
======  ======= ================ =============
     0   15.000        65544.533    131072.000
     1   15.000        65518.933    131072.000
     2   15.000        93585.067    131072.000
     3   15.002        63906.146    131072.000
     4   15.000        65536.000    131072.000
     5   15.000        62310.400    131072.000
     6   15.001        81837.744    131072.000
     7   15.001        73262.316    131072.000


#####  Totals:  #####


   Bytes(MEG)    realtime(s) Avg Frame Size Throughput(MB/s)
================ =========== ============== ================
     8371.875000      15.001       8854.867          558.088


Throughput(Buffers/s) Cycles/Byte       Buffers
===================== =========== =============
             4464.702      17.198     66975.000


DPCs(count/s) Pkts(num/DPC)   Intr(count/s) Pkts(num/intr)
============= ============= =============== ==============
    12120.992         0.823       30450.170          0.328


Packets Sent Packets Received Retransmits Errors Avg. CPU %
============ ================ =========== ====== ==========
      991381           149616           9      0     36.026

服务器B

ntttcp.exe -r -m 8,*,192.168.10.200 -rb 2M -a 16 -t 15
Copyright Version 5.31
Network activity progressing...


Thread  Time(s) Throughput(KB/s) Avg B / Compl
======  ======= ================ =============
     0   15.000        65546.450     60268.990
     1   14.999        65523.318     60229.282
     2   14.999        93582.889     60659.943
     3   14.999        63900.843     61621.870
     4   15.000        65536.817     60278.174
     5   14.999        62316.071     61141.628
     6   14.999        81840.156     60394.032
     7   14.999        73264.934     60858.538


#####  Totals:  #####


   Bytes(MEG)    realtime(s) Avg Frame Size Throughput(MB/s)
================ =========== ============== ================
     8371.320061      14.999       8942.835          558.125


Throughput(Buffers/s) Cycles/Byte       Buffers
===================== =========== =============
             8930.003       5.314    133941.121


DPCs(count/s) Pkts(num/DPC)   Intr(count/s) Pkts(num/intr)
============= ============= =============== ==============
     7965.264         8.216       14260.151          4.589


Packets Sent Packets Received Retransmits Errors Avg. CPU %
============ ================ =========== ====== ==========
      146841           981564           1      0      9.699

UPDATE4 - NTTTCP 与 -NDL

服务器A

ntttcp.exe -s -m 8,*,192.168.10.200 -l 128k -a 2 -t 15 -ndl
Copyright Version 5.31
Network activity progressing...


Thread  Time(s) Throughput(KB/s) Avg B / Compl
======  ======= ================ =============
     0   14.999        78059.604    131072.000
     1   15.000        76902.400    131072.000
     2   14.999        59882.392    131072.000
     3   14.999        62485.232    131072.000
     4   14.999        72734.449    131072.000
     5   15.001        77520.165    131072.000
     6   15.000        62702.933    131072.000
     7   15.000        62771.200    131072.000


#####  Totals:  #####


   Bytes(MEG)    realtime(s) Avg Frame Size Throughput(MB/s)
================ =========== ============== ================
     8101.250000      15.000       8912.094          540.083


Throughput(Buffers/s) Cycles/Byte       Buffers
===================== =========== =============
             4320.667      17.355     64810.000


DPCs(count/s) Pkts(num/DPC)   Intr(count/s) Pkts(num/intr)
============= ============= =============== ==============
     9966.333         0.974       29515.333          0.329


Packets Sent Packets Received Retransmits Errors Avg. CPU %
============ ================ =========== ====== ==========
      953174           145579           1      0     35.182

服务器B

ntttcp.exe -r -m 8,*,192.168.10.200 -rb 2M -a 16 -t 15 -ndl
Copyright Version 5.31
Network activity progressing...


Thread  Time(s) Throughput(KB/s) Avg B / Compl
======  ======= ================ =============
     0   15.000        78054.000     60255.789
     1   15.001        76903.606     60839.375
     2   15.000        59880.183     61786.888
     3   14.999        62483.832     60812.856
     4   15.000        72730.333     61516.405
     5   14.999        77520.335     60398.365
     6   14.998        62701.660     60628.917
     7   14.998        62771.436     60585.766


#####  Totals:  #####


   Bytes(MEG)    realtime(s) Avg Frame Size Throughput(MB/s)
================ =========== ============== ================
     8100.944093      14.999       8943.556          540.099


Throughput(Buffers/s) Cycles/Byte       Buffers
===================== =========== =============
             8641.583       4.888    129615.105


DPCs(count/s) Pkts(num/DPC)   Intr(count/s) Pkts(num/intr)
============= ============= =============== ==============
     7912.594         8.003       14043.670          4.509


Packets Sent Packets Received Retransmits Errors Avg. CPU %
============ ================ =========== ====== ==========
      143914           949785           0      0      8.633
connection bandwidth iperf 10gbethernet
  • 1 个回答
  • 4887 Views
Martin Hope
poopa
Asked: 2016-05-02 13:22:29 +0800 CST

如何将瞻博网络 EX4500 连接到 netapp X1107A

  • 1

将 Juniper EX4500 连接到 X1107A Chelsio PCI Netapp 卡的最佳且不昂贵的方法是什么?

这些对两端都有效吗(10GBASE-SR)?然后用光缆连接?从瞻博网络获得原装而不兼容的产品有多重要?X1107A上的收发器应该不同吗?设备之间的距离约为 10m

谢谢!

netapp datacenter juniper cable 10gbethernet
  • 3 个回答
  • 217 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve