我们购买了带有 OS Windows Server 2019 的 HPE ML30,它在 SSD 和 4 个 8TB 的 SATA 上运行(它们不在 RAID 系统中,因此每个磁盘都可以在每个磁盘上运行)。我们还在服务器上添加了光纤通道适配器并将其连接到我们的光纤通道交换机,该交换机已经连接到我们的数据存储系统(该 FC 已经配置)。
我的问题是,如何配置这台服务器,以便我可以通过 FC 交换机共享数据存储,以便连接到 FC 交换机的每台服务器都可以看到这个数据存储?
我们购买了带有 OS Windows Server 2019 的 HPE ML30,它在 SSD 和 4 个 8TB 的 SATA 上运行(它们不在 RAID 系统中,因此每个磁盘都可以在每个磁盘上运行)。我们还在服务器上添加了光纤通道适配器并将其连接到我们的光纤通道交换机,该交换机已经连接到我们的数据存储系统(该 FC 已经配置)。
我的问题是,如何配置这台服务器,以便我可以通过 FC 交换机共享数据存储,以便连接到 FC 交换机的每台服务器都可以看到这个数据存储?
我正在尝试配置 NETAPP DS14 磁盘架以将驱动器暴露给 Windows 或 linux 机器,我没有控制器,但我有一个 FC 到以太网适配器(Qlogic 8152)
但是环路没有连接,我看到 DS14 支持最大 2gbps,但是适配器被列为 10gbps,任何想法如何将其配置为较低的速度?
我尝试通过 ethtool 设置它
sudo ethtool -s [device_name] speed [10/100/1000]
但是我得到一个操作不支持的错误,这是否意味着我不能切换到较低的速度?或者是否有其他方法可以强制适配器使用较低的速度。
是否可以通过光纤通道动态公开整个 SCSI 主机(LSI HBA 或 RAID 卡),如果可以,如何?
最好在 Linux(可能是 targetcli)上并支持磁盘热插拔。(即拔出/重新插入目标中的磁盘,启动器会看到更改)
我的 FC HBA 是两个 QLogic QLA2462 卡。
如果我们在 Microsoft Hypervisor 上创建了一个 vSAN,并且已将虚拟 FC 端口分配给 VM,我们是否可以绕过 Hypervisor 直接将 LUN 映射到 VM?ie Hypervisor 的磁盘管理不应该将这些显示为物理驱动器。
该阵列通过启用 NPIV 的交换机连接到 Hypervisor,并且主机适配器也启用了 NPIV。
是否可以使用 FC HBA 连接点对点两个 Hyper-V 服务器来复制数据而无需连接到外部存储?
如果我有多个由 vCenter 控制的 VMware ESXi 服务器,它们通过 FibreChannel 共享一个数据存储,那么对这些连接进行分区的最佳做法是什么?
我看到了两种明显的方法来做到这一点:
这个比那个好吗?或者还有其他更有意义的方法吗?
如果有多个数据存储,这些会发生什么变化?
是否可以使用光纤通道 PCIe 适配器作为以太网网络接口?我有 QLogic 光纤通道控制器和 3Com 千兆以太网交换机。我在 DL160 G5 上使用 Debian。
我最近得到了一个 QLogic QLE2460 网卡,它似乎是一个主机总线适配器。我能否以某种方式将它用作我的服务器/工作站和带有光纤通道模块的 Cisco Catalyst 交换机之间的网络接口 (NIC)。
如果不是,哪种光纤通道卡适合该用途?
我最近刚刚在我们的一台服务器上安装了 VMWare ESXi。我安装了一些光纤通道卡 (QLogic),由于某种未知原因,它们在存储适配器选项卡中显示为 ISCSI 适配器。但是,这确实会产生一些问题,因为我只能将 WWN 目标与我的 SAN 一起使用。我已经通过 WinSCP 和 Putty 手动安装了 QLogic 的驱动程序。我们尝试使用的 SAN 是一个 EMC VNX 5300,4 个光纤通道卡连接到一个结构交换机。
有没有人经历过这个或有任何想法?
这三个都是同一个东西被不同的制造商命名不一致吗?
100BASE-FX WDM 在单股光纤上使用单独的波长(1310 nm 和 1550 nm)用于 Tx 和 Rx。我找不到任何提到在单股光纤上使用 WDM 的 100BASE-FX 文档。标准 100BASE-FX 在 Tx 和 Rx 的两条独立链上使用 1310 nm。这让我相信这是 100BASE-BX 被错误地称为 100BASE-FX WDM。
100BASE-BX 在单股光纤上使用单独的波长(1310 nm 和 1550 nm)用于 Tx 和 Rx。
100BASE-BX10 显然与 100BASE-BX 的工作方式相同,但我找不到任何差异或它们是否兼容。