gio mount
如果像使用传统命令一样为挂载点传递第二个参数,则卷无法实现挂载,从而导致失败。gio
mount
我在 Windows 10 上使用 IMDisk 自动安装 RAMDisk 已经有一段时间了,效果很好,但目前我不需要运行它,而且我需要更多的系统 RAM。我以为在启动时阻止它安装很简单,但我似乎做不到。我总是可以手动卸载它,但我总是忘记它仍然处于安装状态,这很烦人。
我已在 RAMDisk 配置实用程序中禁用“Windows 启动时启动”选项,但似乎没有任何作用。我在 Google 上搜索了这个问题的答案,但一无所获。我怎样才能阻止它在 Windows 上自动安装?
我想将 VMware 共享文件夹安装到默认位置以外的位置。
自 VMware Workstation 15 (2023) 起,Linux 客户机中共享文件夹的默认挂载路径为:/mnt/hfgs/[shared_folder_name]/
我的最终目标是使 docker 的文件夹可从主机作为共享文件夹使用:/var/lib/docker/
我试过:
1.
mount --bind /var/lib/docker/ /mnt/hgfs/[shared_folder_name]/
mount --bind /mnt/hgfs/[shared_folder_name]/ /var/lib/docker/
该mount
命令没有返回错误,但似乎没有任何变化。
2.
由于我必须进行修改/etc/fstab
才能使默认/mnt/hfgs/[shared_folder_name]/
工作正常,因此我有另一个想法。/etc/fstab
我将共享文件夹重命名为“docker”,并从中修改了相关行:
vmhgfs-fuse /mnt/hgfs fuse defaults,allow_other,_netdev 0 0
对此:
vmhgfs-fuse /var/lib fuse defaults,allow_other,_netdev 0 0
然而,它“覆盖”了整个/var/lib
,其中唯一可见的文件夹是我命名为 docker 的共享文件夹[1]。/var/lib
虽然如果我将整个文件复制出来,然后将其全部复制回来,那么第二个选项可能会起作用,但感觉太老套了(并且VMware可能会删除它们,因为我复制回的其他文件夹/var/lib
不正确)共享文件夹)。
[1]:有关 VMware 共享文件夹如何工作的注意事项:
如果在来宾 Linux 上我将路径设置为/etc/fstab
,/example
则整个example
文件夹将被“覆盖”(不可访问),并且共享文件夹将变为可用/example/shared1
,/example/shared2
如 、 等。
我正在尝试安装 matlab,其安装文件是一个巨大的 iso 文件。
但是,当我尝试将其安装到名为 matlab 的文件夹时,它总是失败并出现以下错误:
mount: matlab: mount failed: No such file or directory.
我发出的命令是(无论有没有sudo和abs路径,结果都是一样的):
mount -o loop ./R2023a_Linux.iso matlab
我已将 iso 文件系统编译到我的内核中。
我该如何解决这个问题?
编辑:文件结构:
Downloads
| some other files......
| R2023a_Linux.iso
| matlab (an empty directory)
这应该是正确的。
strace 日志:pastebin
其中有意想不到的线条,如下所示:
access(0x7f5bdf063ffc, F_OK) = -1 ENOENT (No such file or directory)
我有以下目录树
/
|-- server
| |-- cstrike
| | | |-- hltv -> ../../hltv
| |-- [other files]
|-- 27015
| |-- hltv
| |-- server -> ../server
|-- 27016
| |-- hltv
| |-- server -> ../server
- 我想要
27015/server
并27016/server
被链接到/server
. - 另外,我希望
27015/server/cstrike/hltv
被链接到27015/hltv
并且类似地
27016/server/cstrike/hltv
被链接到27016/hltv
。
正如您已经假设的2701{5,6}/server/cstrike/hltv
点/hltv
不存在一样。
如果没有,您能建议我应该使用哪个工具吗ln
?/server
是目录,而不是设备,所以我想mount
在这种情况下不是一个选项。
我使用具有 2 个节点 + quorum 的 pc 设置了一个集群
[root@konor2 etc]# pcs status
Cluster name: wildflycluster
Status of pacemakerd: 'Pacemaker is running' (last updated 2023-06-01 09:52:35 +02:00)
Cluster Summary:
* Stack: corosync
* Current DC: konor2c (version 2.1.5-7.el9-a3f44794f94) - partition with quorum
* Last updated: Thu Jun 1 09:52:36 2023
* Last change: Thu Jun 1 06:03:53 2023 by root via cibadmin on konor2c
* 2 nodes configured
* 4 resource instances configured
Node List:
* Online: [ konor2c ]
* OFFLINE: [ konor1c ]
Full List of Resources:
* Resource Group: wildfly-resources-grp:
* wildfly-vip (ocf:heartbeat:IPaddr2): Started konor2c
* wildfly-server (systemd:wildfly): Started konor2c
* smb-mount-it (systemd:home-jboss-mnt-protector-IT.mount): Started konor2c
* smb-mount-transmek (systemd:home-jboss-mnt-protector-transmek.mount): Started konor2c
Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
其中/etc/fstab
有以下SMB坐骑:
//protector/data /home/jboss/mnt/protector/data cifs noauto,vers=3.0,_netdev,credentials=/etc/ucr/vu-d.crd,domain=unmz,uid=wildfly,noexec,nosuid,mapchars,file_mode=0664,dir_mode=0775,nounix,nobrl 0
//protector/IT /home/jboss/mnt/protector/IT cifs noauto,vers=3.0,_netdev,credentials=/etc/ucr/vu-d.crd,domain=unmz,uid=wildfly,noexec,nosuid,mapchars,file_mode=0664,dir_mode=0775,nounix,nobrl 0 0
//protector/transmek /home/jboss/mnt/protector/transmek cifs noauto,vers=3.0,_netdev,credentials=/etc/ucr/vu-d.crd,domain=unmz,uid=wildfly,noexec,nosuid,mapchars,file_mode=0664,dir_mode=0775,nounix,nobrl 0 0
使用 mount 命令挂载共享,我可以使用 systemctl 挂载它们。然后它工作正常,但过了一段时间(可能是 2 到 20 小时 - 我还没有找到触发器)。进程 cifsiod 开始消耗大量 CPU,一段时间后它消耗所有 CPU,必须从 VMware vCenter 手动重启 VM。在 中/var/log/messages
,有这样的消息:
May 30 22:10:00 konor1 systemd[1]: Finished system activity accounting tool.
May 30 22:11:20 konor1 pacemaker-controld[419997]: notice: State transition S_IDLE -> S_POLICY_ENGINE
May 30 22:11:20 konor1 pacemaker-schedulerd[419996]: notice: Calculated transition 196, saving inputs in /var/lib/pacemaker/pengine/pe-input-104.bz2
May 30 22:11:20 konor1 pacemaker-controld[419997]: notice: Transition 196 (Complete=0, Pending=0, Fired=0, Skipped=0, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-input-104.bz2): Complete
May 30 22:11:20 konor1 pacemaker-controld[419997]: notice: State transition S_TRANSITION_ENGINE -> S_IDLE
May 30 22:19:12 konor1 pacemaker-controld[419997]: notice: High CPU load detected: 3.990000
May 30 22:19:13 konor1 kernel: watchdog: BUG: soft lockup - CPU#0 stuck for 26s! [kworker/0:0:1456407]
May 30 22:19:13 konor1 kernel: Modules linked in: tls nls_utf8 cifs cifs_arc4 rdma_cm iw_cm ib_cm ib_core cifs_md4 dns_resolver nft_fib_inet nft_fib_ipv4 nft_fib_ipv6 nft_fib nft_reject_inet nf_
reject_ipv4 nf_reject_ipv6 nft_reject nft_ct nft_chain_nat nf_nat nf_conntrack nf_defrag_ipv6 nf_defrag_ipv4 rfkill ip_set nf_tables nfnetlink vsock_loopback vmw_vsock_virtio_transport_common vm
w_vsock_vmci_transport vsock sunrpc vfat fat intel_rapl_msr intel_rapl_common vmw_balloon rapl pcspkr vmw_vmci i2c_piix4 joydev xfs libcrc32c sr_mod cdrom ata_generic vmwgfx drm_ttm_helper ttm d
rm_kms_helper ahci syscopyarea sysfillrect sysimgblt fb_sys_fops libahci ata_piix sd_mod drm t10_pi sg crct10dif_pclmul crc32_pclmul crc32c_intel libata ghash_clmulni_intel vmxnet3 vmw_pvscsi se
rio_raw dm_mirror dm_region_hash dm_log dm_mod fuse
May 30 22:19:13 konor1 kernel: CPU: 0 PID: 1456407 Comm: kworker/0:0 Kdump: loaded Not tainted 5.14.0-284.11.1.el9_2.x86_64 #1
May 30 22:19:13 konor1 kernel: Hardware name: VMware, Inc. VMware7,1/440BX Desktop Reference Platform, BIOS VMW71.00V.18227214.B64.2106252220 06/25/2021
May 30 22:19:13 konor1 kernel: Workqueue: cifsiod smb2_reconnect_server [cifs]
May 30 22:19:13 konor1 kernel: RIP: 0010:native_queued_spin_lock_slowpath+0x21/0x30
May 30 22:19:13 konor1 kernel: Code: 82 0f 1f 84 00 00 00 00 00 0f 1f 44 00 00 66 90 ba 01 00 00 00 8b 07 85 c0 75 0d f0 0f b1 17 85 c0 75 f2 c3 cc cc cc cc f3 90 <eb> e9 e9 38 fe ff ff 0f 1f 84
00 00 00 00 00 0f 1f 44 00 00 41 57
May 30 22:19:13 konor1 kernel: RSP: 0018:ffffb00087187d78 EFLAGS: 00000202
May 30 22:19:13 konor1 kernel: RAX: 0000000000000001 RBX: ffff9cdc14b62800 RCX: 000000364c970000
May 30 22:19:13 konor1 kernel: RDX: 0000000000000001 RSI: 0000000000000001 RDI: ffff9cdc14b60828
May 30 22:19:13 konor1 kernel: RBP: ffff9cdc14b60828 R08: ffffb00087187e38 R09: 0000000000000000
May 30 22:19:13 konor1 kernel: R10: ffffb00087187ce8 R11: ffff9cdc3594dc00 R12: 0000000000000000
May 30 22:19:13 konor1 kernel: R13: ffff9cdc14b60800 R14: 000000000000ffff R15: 000000000000ffff
May 30 22:19:13 konor1 kernel: FS: 0000000000000000(0000) GS:ffff9cdcb9c00000(0000) knlGS:0000000000000000
May 30 22:19:13 konor1 kernel: CS: 0010 DS: 0000 ES: 0000 CR0: 0000000080050033
May 30 22:19:13 konor1 kernel: CR2: 00007fa14a882000 CR3: 00000001ab010003 CR4: 00000000000606f0
May 30 22:19:13 konor1 kernel: Call Trace:
May 30 22:19:13 konor1 kernel: <TASK>
May 30 22:19:13 konor1 kernel: _raw_spin_lock+0x25/0x30
May 30 22:19:13 konor1 kernel: smb2_reconnect.part.0+0x3f/0x5f0 [cifs]
May 30 22:19:13 konor1 kernel: ? set_next_entity+0xda/0x150
May 30 22:19:13 konor1 kernel: smb2_reconnect_server+0x203/0x5f0 [cifs]
May 30 22:19:13 konor1 kernel: ? __tdx_hypercall+0x80/0x80
May 30 22:19:13 konor1 kernel: process_one_work+0x1e5/0x3c0
May 30 22:19:13 konor1 kernel: ? rescuer_thread+0x3a0/0x3a0
May 30 22:19:13 konor1 kernel: worker_thread+0x50/0x3b0
May 30 22:19:13 konor1 kernel: ? rescuer_thread+0x3a0/0x3a0
May 30 22:19:13 konor1 kernel: kthread+0xd6/0x100
May 30 22:19:13 konor1 kernel: ? kthread_complete_and_exit+0x20/0x20
May 30 22:19:13 konor1 kernel: ret_from_fork+0x1f/0x30
May 30 22:19:13 konor1 kernel: </TASK>
May 30 22:19:23 konor1 corosync-qdevice[933368]: Server didn't send echo reply message on time
May 30 22:19:34 konor1 corosync-qdevice[933368]: Connect timeout
May 30 22:19:41 konor1 kernel: watchdog: BUG: soft lockup - CPU#0 stuck for 52s! [kworker/0:0:1456407]
依此类推...仍在重复...在corosync.log
我可以找到以下消息(来自另一天)
I, [2023-05-22T09:57:32.101 #00000] INFO -- : 200 GET /remote/get_configs?cluster_name=wildflycluster (10.10.51.46) 3.75ms
I, [2023-05-22T10:06:42.066 #00000] INFO -- : 200 GET /remote/get_configs?cluster_name=wildflycluster (10.10.51.47) 4.13ms
I, [2023-05-22T10:06:42.271 #00012] INFO -- : Config files sync started
I, [2023-05-22T10:06:42.272 #00012] INFO -- : SRWT Node: konor2 Request: get_configs
I, [2023-05-22T10:06:42.272 #00012] INFO -- : Connecting to: https://konor2:2224/remote/get_configs?cluster_name=wildflycluster
I, [2023-05-22T10:06:42.272 #00012] INFO -- : SRWT Node: konor1 Request: get_configs
I, [2023-05-22T10:06:42.272 #00012] INFO -- : Connecting to: https://konor1:2224/remote/get_configs?cluster_name=wildflycluster
I, [2023-05-22T10:07:05.272 #00012] INFO -- : Config files sync finished
I, [2023-05-22T10:07:35.262 #00000] INFO -- : 200 GET /remote/get_configs?cluster_name=wildflycluster (10.10.51.46) 7.95ms
I, [2023-05-22T10:16:42.015 #00013] INFO -- : Config files sync started
I, [2023-05-22T10:16:42.016 #00013] INFO -- : SRWT Node: konor2 Request: get_configs
I, [2023-05-22T10:16:42.016 #00013] INFO -- : Connecting to: https://konor2:2224/remote/get_configs?cluster_name=wildflycluster
I, [2023-05-22T10:16:42.016 #00013] INFO -- : SRWT Node: konor1 Request: get_configs
I, [2023-05-22T10:16:42.016 #00013] INFO -- : Connecting to: https://konor1:2224/remote/get_configs?cluster_name=wildflycluster
I, [2023-05-22T10:16:42.016 #00013] INFO -- : No response from: konor1 request: get_configs, error: couldnt_connect
I, [2023-05-22T10:16:42.016 #00013] INFO -- : No response from: konor2 request: get_configs, error: couldnt_connect
I, [2023-05-22T10:16:42.016 #00013] INFO -- : Config files sync finished
看起来服务器丢失了网络连接
我有另一个具有相同 SMB 挂载的单个 VM(非集群),并且挂载了几天没有任何问题。当我在没有 SMB 挂载的情况下运行集群时,它运行了好几天都没有问题。这种情况在集群的两个 VM 上都存在。我也重新安装了它们,但它仍然是一样的。
你见过类似的东西吗?您对如何排除故障有任何建议吗?谢谢你的任何提示。
子命令的文档wsl --mount
说“在所有 WSL2 发行版中附加并装载一个物理磁盘……”但这是荒谬的,因为可能同时运行的发行版不止一个。多个 VM 试图使用 ext4 作为读/写访问同一块设备上的数据将是一个完整的火车残骸。
我错过了什么吗?
我刚刚检测到我的 windows (ntfs) 分区总是挂载但在 fstab 中没有任何记录。
ubuntu 如何以及为什么这样做?是不是太晦涩难懂了,为什么不给fstab放个记录,就乱成一团了……
证明(以防万一)
# /etc/fstab: static file system information.
#
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point> <type> <options> <dump> <pass>
# / was on /dev/nvme0n1p5 during installation
UUID=24ec45af-0daf-4c51-ae97-c6eb09c9b3bc / ext4 errors=remount-ro 0 1
# /boot/efi was on /dev/nvme0n1p1 during installation
UUID=5C0E-7502 /boot/efi vfat umask=0077 0 1
/swapfile none swap sw 0 0
blkid
windows记录输出
/dev/nvme0n1p3: LABEL="Windows" BLOCK_SIZE="512" UUID="82A210E9A210E387" TYPE="ntfs" PARTLABEL="Basic data partition" PARTUUID="f89ba644-4f63-497a-9af1-4e01daa9958f"
好的,所以我想不出一个有意义的标题,但问题是:我在笔记本电脑 A 上创建了一个可移动驱动器。我的用户是第一个创建的,所以可移动驱动器上的所有文件都归用户所有1000。
当我在笔记本电脑 A 上安装驱动器时,我可以毫无问题地处理文件,例如,我可以读取模式位为 400 的文件。但是,在笔记本电脑 B 上,我的用户是第二个用户(因此,1001)。因此,当我在 GUI (KDE) 上安装驱动器时,我无法访问相同的文件,因为我不拥有它们。
问题是:我能否以最终拥有文件的方式安装驱动器?最好是自动的,这样我每次安装东西时都不必去 CLI。似乎这可以通过 udisks 来实现,但细节上的答案很少。
我在我的 WSL2 实例(Ubuntu 20.04.4 LTS)中创建了一个共享文件夹,它似乎可以访问并且可以正常工作。我在该/mnt/wsl
位置创建了文件夹。之后,我可以在Windows 文件资源管理器中使用\\wsl$\
.
一切似乎都很完美。但是,我的主要挑战是我必须从 .NET 应用程序访问文件夹ae-games 。我们正在尝试将它安装为Network Drive,但是当我们尝试时它说路径不存在:
我们正在尝试安装驱动器,因为该文件夹包含我们正在分析的数千个文件,这些文件来自AWS 中的EFS 共享驱动器。
我们当前的解决方法是每隔几个小时将文件从 EFS 复制到 Windows。但是,这是有问题的,因为共享驱动器很大,并且由于ECS 和 Fargate 的限制,S3 不是一个选项。
有谁知道这是否是我们无法安装为网络驱动器的 WSL2 限制?或者有人可以指导我并告诉我我做错了什么?