我有一个硬盘驱动器,我想迁移到 Windows Storage Spaces ReFS 文件系统以获得更好的 Windows 兼容性。显然,将所有数据复制到另一个磁盘并返回是最后的手段;那么,有没有更好的方法?
我正在尝试将主目录从我的 NAS 导出到 ubuntu 客户端 - 服务器是 TrueNAS Scale,它是基于 Debian 的。Kerberos 可以正常工作,因此用户可以获得适当的票证以对服务器进行身份验证。
我的主要目标是用户可以从服务器上挂载他们的主目录。
我在服务器上有一个名为 home 的共享,每个用户有一个目录。主目录归根用户所有,子目录归用户所有。但是,如果我不使用 maproot 或 mapall,即使我设法挂载共享,如果挂载 /home/folder,用户也无法将任何内容写入他的文件夹。
如果我使用 maproot=root,用户会挂载它,但他写的所有内容都保存为 root。我在这里迷路了,但似乎id映射可能有问题。文件的 uid/gid 在服务器和客户端、显示的正确名称等方面是相同的。这让我相信映射是正确的 - 但是,当使用 maproot=root 时,为什么我最终可以访问不支持的文件夹不属于我,为什么我用那个用户创建的所有东西都归根用户所有?
我怎样才能正确地导出它,以便我得到根压扁,以及用户只能访问他们自己的目录?
我正在使用 SuperMicro A2SDi-8C+-HLN4F主板构建 NAS(运行 TrueNAS/FreeNAS)。我从供应商那里订购了 2 根这款三星 C-Die RAM,但他们只能寄给我 1 根,因为这是他们最后的库存了。我从另一家供应商处订购了相同的 RAM,但收到的是三星 B-Die RAM。我发现这不是一个错误,因为 C-Die 是 EOL 而 B-Die 是它的替代品。
虽然在双通道模式下拥有两个无与伦比的 RAM 棒并不理想,但根据数据表的规格是 99% 相同的。我有什么需要担心的吗?
我目前有一个 zfs raidz2 池卡在重新同步循环中,因为我试图用 8TB 磁盘替换 3TB 磁盘。在让第一个替换磁盘重新同步在线一个多星期后,它终于完成了,只是立即重新开始。将磁盘标记为“离线”后,第二次重新同步大约在 2 天内完成。我在线标记了磁盘,一切看起来都很好(几分钟),所以我更换了第二个磁盘。一旦第二个磁盘的重新同步启动,它表明第一个磁盘也在重新同步。我现在正处于这两个驱动器的第三或第四个重新同步周期,并且两个磁盘重新同步我没有容错能力。此时我想将 zpool 备份到 nfs 共享并使用新驱动器重新创建它,但我没有 不想丢失我所有的数据集配置,其中包括我所有的监狱。有没有办法将整个 zpool 导出为可以以某种方式恢复的备份映像?具有足够磁盘空间来存储所有这些数据的另一台机器的文件系统已经使用了不同的文件系统,因此 zfs 复制可能不是一个选项。这是一个 TrueNAS-12.0-U4 安装。备份机器正在运行带有 LVM/Ext4 的 Ubuntu 21.04。以下是当前池状态。
pool: pool0
state: DEGRADED
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Thu Jul 29 00:39:12 2021
13.8T scanned at 273M/s, 13.0T issued at 256M/s, 13.8T total
2.17G resilvered, 93.77% done, 00:58:48 to go
config:
NAME STATE READ WRITE CKSUM
pool0 DEGRADED 0 0 0
raidz2-0 DEGRADED 0 0 0
gptid/55bf3ad6-3747-11eb-a0da-3cecef030ab8 ONLINE 0 0 0
gptid/55c837e3-3747-11eb-a0da-3cecef030ab8 ONLINE 0 0 0
gptid/55f4786c-3747-11eb-a0da-3cecef030ab8 ONLINE 0 0 0
gptid/60dcf0b8-eef3-11eb-92f9-3cecef030ab8 OFFLINE 0 0 0 (resilvering)
gptid/56702d96-3747-11eb-a0da-3cecef030ab8 ONLINE 0 0 0
gptid/5685b5f7-3747-11eb-a0da-3cecef030ab8 ONLINE 0 0 0
gptid/8f041954-eef3-11eb-92f9-3cecef030ab8 OFFLINE 0 0 0 (resilvering)
gptid/56920c3a-3747-11eb-a0da-3cecef030ab8 ONLINE 0 0 0
cache
gptid/56256b6a-3747-11eb-a0da-3cecef030ab8 ONLINE 0 0 0
errors: No known data errors
我正在尝试替换 TrueNAS ZFS 池中的磁盘,但出现错误cannot replace 5885333735856859460 with ada6: already in replacing/spare config; wait for completion or use 'zpool detach'
zpool status
节目
NAME STATE READ WRITE CKSUM
Data DEGRADED 0 0 0
raidz1-0 ONLINE 0 0 0
gptid/d135c3aa-526b-11e5-9e77-fcaa14286713 ONLINE 0 0 0 block size: 512B configured, 4096B native
gptid/03f4d51c-3c63-11e5-8cea-fcaa14286713 ONLINE 0 0 0 block size: 512B configured, 4096B native
gptid/085d91b7-9521-11e5-b5cf-fcaa14286713 ONLINE 0 0 0 block size: 512B configured, 4096B native
raidz1-1 DEGRADED 0 0 0
gptid/c6e9543f-f78d-11e2-abaa-003048d79b60 ONLINE 0 0 0
5885333735856859460 FAULTED 0 0 0 was /dev/gptid/c77a9a39-f78d-11e2-abaa-003048d79b60
gptid/da5ff311-eef1-11ea-a29e-fcaa14286713 ONLINE 0 0 0 block size: 512B configured, 4096B native
errors: No known data errors
我之前曾尝试通过网络界面进行更换,但在机器被锁定一天左右后通过关闭机器电源中止了它,物理移除了新磁盘并用原始磁盘替换它,它重新同步到一个错误 -自由状态。我现在再次用新磁盘物理替换了旧磁盘,无论我尝试通过 Web 界面还是使用命令行替换磁盘,我都会收到上述错误。我该如何解决?
我有一个游泳池,raidz1-0
里面有 5 个驱动器。我不确定确切的时间,但突然之间,所有驱动器都从始终ONLINE
没有读取、写入或校验和错误变为随机吐出各种问题。
NAME STATE READ WRITE CKSUM
Data DEGRADED 0 0 0
raidz1-0 DEGRADED 149 185 0
gptid/905fe084-a003-11e9-9d12-000c29c8a62a DEGRADED 57 127 5 too many errors
gptid/2b75693a-9f09-11e9-8310-000c29c8a62a ONLINE 7 5 5
gptid/b8b4dd8f-82e9-11eb-b23f-000c29c8a62a DEGRADED 70 171 5 too many errors
gptid/b88beac0-e1f3-11e7-aeb0-000c29c8a62a DEGRADED 51 6 14 too many errors
gptid/4eb702b3-e2c3-11e7-9896-000c29c8a62a FAULTED 8 13 2 too many errors
我做了一些基本的故障排除:
- SMART 表明一切都很好(除了一些比我想要的温度在 40C 范围内的温度高一些)。所以驱动器看起来状态良好。没有坏扇区,没有挂起的扇区,没有什么不寻常的。此时,所有驱动器都已旋转了约 3 年。
- 每个驱动器都通过单独的 SATA 连接直接连接到主板。我已经重新安装并更换了 SATA 电缆,但没有成功。
在某个时间点,我更换了池中的第三个磁盘。当时,它吐出的错误最多,并且总是第一个进入 DEGRADED 状态。我用一个全新的驱动器替换了它,它已经运行了几个月,立即发现与池的其余部分相同的问题。
即使在zpool clear
大约 5 小时后,我也有以下状态。
NAME STATE READ WRITE CKSUM
Data DEGRADED 0 0 0
raidz1-0 DEGRADED 1 0 0
gptid/905fe084-a003-11e9-9d12-000c29c8a62a ONLINE 2 4 0
gptid/2b75693a-9f09-11e9-8310-000c29c8a62a ONLINE 0 0 0
gptid/b8b4dd8f-82e9-11eb-b23f-000c29c8a62a FAULTED 1 11 0 too many errors
gptid/b88beac0-e1f3-11e7-aeb0-000c29c8a62a ONLINE 1 1 0
gptid/4eb702b3-e2c3-11e7-9896-000c29c8a62a ONLINE 1 6 0
我不确定这里发生了什么或其他地方可以看。
我不知道这是否是巧合,但我注意到这是在升级 ZFS 池作为 FreeNAS 更新之一的一部分之后开始发生的(我认为它是 11.2U - 是的,我正在运行 FreeNAS)
我唯一能想到的最后一件事是一个坏的 SATA 控制器。但在我开始之前,还有什么我可以解决的吗?这是用于业余爱好的家庭服务器,更换控制器本质上意味着一个全新的服务器,所以如果可能的话,我想避免这种情况。不幸的是,没有任何剩余的 PCIe 端口可以安装外部控制器。
提前致谢!
为了在 TrueNAS 12 中使用新的加密方法,我通过复制任务将所有数据从传统的加密 FreeNAS 池复制到新格式化的池中。
复制后,目标池上似乎几乎缺少一个 GiB:
复制后的源池:已使用 8.06 TiB,可用 733.91 GiB
复制后的目标池:已使用 7.24 TiB,可用 1.56 TiB
对于复制,我使用了这些设置(基本模式):
要找出缺少的内容 adiff
将花费很长时间。
我试过rsync -avun --delete $TARGET $SOURCE | grep "^deleting "
了,但没有输出。
我还能做些什么来在合理的时间内检查目标上丢失的文件?是否有一些与 ZFS 相关的东西可能会占用空间并且没有被复制任务复制?那会是什么?
如何在 TrueNAS 12.0 上更新网卡驱动程序?
我的网卡直接在主板上,它是英特尔主板 DH55HC,网卡启用了 82578DC 千兆。
我直接在英特尔的 FreeBSD 网站上找到了驱动程序;https://downloadcenter.intel.com/download/17509/Intel-Network-Adapter-Gigabit-Base-Driver-for-FreeBSD-
不知道如何安装?我在下面列出了我尝试这样做的原因。
我的 trueNAS 盒子没有获得千兆链接速度。我已经测试了电缆,通过以下方式更改了 TrueNAS shell 中的设置:ifconfig <interface-name> <ip_address> media 1000baseTX mediaopt full-duplex
但是这样做只会终止连接,并且机器不再可以从网络 ping,也不会出现在路由器的设备列表中。
路由器具有千兆能力:Netgear R6700v2
与以千兆速度连接的其他机器。
电缆是全新的 cat6 确认,我已将两端压接两次,以确保它们正确连接到 RJ45 连接器。
我可以使用任何 Windows Pro 或 Server Standard 或 CentOS 来执行此监控(我猜)。AWS Deadline 工作似乎存在一些我不希望任何人知道的复杂问题。工作失败了很多。
吸烟枪(我认为)是监控软件有时无法启动的工作,因为它无法访问特定共享。共享是 ZFS,硬件完全能够跟上 IO。这个问题主要发生在密集的集群中,在其他时间出现稀疏的“一次性”事件。“重新启动修复它”但不是在密集的故障集群期间。
我有强烈的动机去密切监视网络共享的可靠性,因为有时这些共享会突然而神秘地在其他时间对 Windows 10 客户端不可用!然后他们要么在片刻或几分钟后再次出现......要么重新启动修复它。
遇到此问题的所有客户端都在运行 Windows 10,但这并不一定意味着这是 Windows 10 问题。
网络拥塞不是太高。
我可以使用事件查看器进行这种监控吗?有没有一种无痛的 python 方法来做这个监视器。我想在一周内尽可能多地收集数据……一天 24 小时……如果有道理的话。
我对 ZFS 不是很熟悉,需要在 FreeNAS 上增加 ZFS 共享的大小。当我这样做时,zpool list
我看到我们有 2 个 ZFS 池:
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
Volume1 1.98T 1.00T 1003G - 26% 50% 1.00x ONLINE /mnt
Volume2 1.98T 140G 1.85T - 2% 6% 1.00x ONLINE /mnt
我想增加大小的共享是一个Volume1
名为的目录releases
(应该从 100G 到 150G)
[root@axxfile] ~# zfs list | grep releases
Volume1/releases 100G 280K 100G /mnt/Volume1/releases
[root@axxfile] ~# zfs get quota Volume1/releases
NAME PROPERTY VALUE SOURCE
Volume1/releases quota 100G local
为了增加我所做的大小:zfs set quota=150 Volume1/releases
这导致:
[root@axxfile] ~# zfs list | grep releases
Volume1/releases 100G 280K 100G /mnt/Volume1/releases
[root@axxfile] ~# zfs get quota Volume1/releases
NAME PROPERTY VALUE SOURCE
Volume1/releases quota 150G local
由于某种原因,配额从 100G 增加到 150G,但“可用空间”仍然是 100G。在向谷歌询问解决方案后,我发现我增加了 ZFS 共享,但操作系统不知道这一点,所以我需要用类似的东西告诉操作系统
[root@axxfile] ~# growfs -M /mnt/Volume1/releases/ Volume1/releases
growfs: illegal option -- M
usage: growfs [-Ny] [-s size] special | filesystem
如您所见,这不起作用,因为-M
它不是有效的属性。我尝试继续谷歌搜索,但无法找到解决方案。也许有人可以通过解释我做错了什么或我错过了哪一步来帮助我?
也许很高兴知道我们使用的是旧版本(9.3)的 FreeNAS。计划在不久的将来进行更新,但我们还无法做到。
============== 更新1 ============ @Michael Hampton
我注意到 refquota 仍然是 100G,我猜这就是问题所在?
[root@axxfile] ~# zfs get quota,reservation,refquota,refreservation Volume1/releases
NAME PROPERTY VALUE SOURCE
Volume1/releases quota 150G local
Volume1/releases reservation none local
Volume1/releases refquota 100G local
Volume1/releases refreservation none local
[root@axxfile] ~# zfs get -r reservation,refreservation -t filesystem,volume Volume1
cannot open '-t': dataset does not exist
cannot open 'filesystem,volume': invalid dataset name
NAME PROPERTY VALUE SOURCE
Volume1 reservation none local
Volume1 refreservation none local
Volume1/VM reservation none local
Volume1/VM refreservation none local
Volume1/ab reservation none local
Volume1/ab refreservation none local
Volume1/backup reservation none default
Volume1/backup refreservation none default
Volume1/backup/cloneimages reservation none local
Volume1/backup/cloneimages refreservation none local
Volume1/backup/sicherungen reservation none local
Volume1/backup/sicherungen refreservation none local
Volume1/backup/switch reservation none default
Volume1/backup/switch refreservation none default
Volume1/jails reservation none default
Volume1/jails refreservation none default
Volume1/mailserver reservation none local
Volume1/mailserver refreservation none local
Volume1/releases reservation none local
Volume1/releases refreservation none local