AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / user-90762

PythonLearner's questions

Martin Hope
PythonLearner
Asked: 2017-12-09 07:44:40 +0800 CST

MariaDB 10.2.9:尝试映射 MSSQL 表时未找到存储引擎“连接”

  • 0

我正在运行一个 MariaDB Galera 集群,并试图从第一个节点上的 MariaDB 中访问 MSSQL。我过去在 SLES 12 SP2 上做过这个,这次我试图在 RHEL 7.3 上做同样的事情。

不幸的是,MariaDB 在尝试将 MSSQL 表映射到现有(但为空)数据库时会显示“未知存储引擎‘连接’”。我有点困惑,因为引擎存在并已加载。所有必需的包/库都安装并放置在文件系统中。

错误

MariaDB (database)> create table test123 ENGINE=connect table_type=ODBC tabname='123' Connection='Driver=123;Description=test;Server=someserver;Instance=someinstance;Port=1433;Database=TEST;PWD=SECRET;UID=some_user';
ERROR 1286 (42000): Unknown storage engine 'CONNECT'

运行命令“显示引擎;”时 和“show plugins;”,我可以看到 CONNECT 引擎和插件 ha_connect.so 已加载。

从命令行使用“isql”时,我可以成功连接到 MSSQL。所以 odbcinst.ini 和 odbc.ini 设置正确。

我试过的

我查阅了几个关于如何通过 ODBC 从 MariaDB 访问 MSSQL 的教程,但我没有发现我遗漏的或做错的事情。我还将旧设置 (SLES) 与新设置 (RHEL) 进行了比较,但找不到任何相关差异。

我还在“创建表...”期间跟踪了 MariaDB,但它只说:

57079 access("./database/test123.frm", F_OK) = -1 ENOENT (No such file or directory)
57079 sendto(119, ")\0\0\1\377\6\5#42000Unknown storage engine 'CONNECT'", 45, MSG_DONTWAIT, NULL, 0) = 45

抱歉,我在这里混淆了一些东西,但不幸的是,由于我连接到相关服务器的方式的性质,我无法从 CLI 复制粘贴。

我的环境

  • RHEL 7.3
  • MariaDB 10.2.9
  • MariaDB 连接引擎 10.2.9
  • unixODBC-utf16 2.3.1、msodbcsql 13.1.0

我需要什么帮助

  • 了解 MariaDB 为何声称存储引擎“CONNECT”不存在
  • 通过成功将 MSSQL 表映射到 MariaDB 来解决此问题
mariadb
  • 1 个回答
  • 977 Views
Martin Hope
PythonLearner
Asked: 2016-01-21 09:36:05 +0800 CST

在 SaltStack 中添加具有不同主机的 MySQL 用户

  • 0

我有两台服务器运行相同的应用程序,需要访问一台运行 MySQL 的特定数据库服务器上的数据库。

具有应用程序的两台服务器都应使用相同的用户凭据访问 MySQL 数据库。同时,不应使用主机通配符(例如 %)创建 MySQL 用户,而应使用两台服务器的 IP。

通常,这意味着我创建了两个 MySQL 用户:

  • 用户:frank,密码:topsecret,主机:10.10.0.1
  • 用户:frank,密码:topsecret,主机:10.10.0.2

现在,我如何使用 MySQL Salt 状态来做到这一点?

我想我想要这样的东西:

frank:
  mysql_user.present:
    - host: 10.0.0.1
    - host: 10.0.0.2
    - password: topsecret
  mysql_grants.present:
    - grant: select
    - database: secretdb
    - user: frank
    - host: 10.0.0.1
    - host: 10.0.0.2

这不起作用,因为主机被多次声明。同样创建用户“坦率”两次也不起作用,因为 Salt 会抱怨用户名不唯一。我尝试通过 Pillars 解决这个问题,但在这里 Salt 抱怨同一用户名的多个定义。

任何想法如何解决这个问题?

mysql
  • 1 个回答
  • 982 Views
Martin Hope
PythonLearner
Asked: 2014-11-15 07:26:00 +0800 CST

DC之间的GlusterFS复制没有不必要的开销?

  • 1

出于测试目的,我安装了四个 GlusterFS 节点并创建了一个复制数为 4 的复制卷。

两个 Gluster 节点位于 DC A 中,而其他 Gluster 节点位于 DC B 中。

现在让我们假设四个 Gluster 节点具有以下主机名:

  • gluster01 - 位于 DC A
  • gluster02 - 位于 DC A
  • gluster03 - 位于 DC B
  • gluster04 - 位于 DC B

在我的测试场景中,我将一个文件写入位于 DC A 中的 gluster01。现在,DC B 中的其他 Gluster 节点从 gluster01 复制有多聪明?DC B 中的两个 Gluster 节点会从 gluster01 复制还是仅 DC B 中的一个 Gluster 节点复制而 DC B 中的第二个节点从 DC B 中的另一个节点复制?

我问这个问题的原因是我想避免我的 DC 之间不必要的复制流量。

我在 Gluster 官方文档中找到了一些提示;但是,我发现的东西并没有为我解决问题。

replication
  • 1 个回答
  • 310 Views
Martin Hope
PythonLearner
Asked: 2014-11-15 07:10:39 +0800 CST

GlusterFS“客户端”是否更喜欢本地 LAN 节点而不是远程 LAN 节点?

  • 3

我目前正在仔细研究 GlusterFS。

出于测试原因,我一共设置了四台虚拟机,每台都充当 Gluster 对等机。

由于我可以访问两个 DC(位于不同位置),因此我在 DC A 中创建了两个 Gluster 节点,另外两个节点位于 DC B 中。

副本数为 4 的复制卷使用所有四个 Gluster 节点,这意味着我在每个 DC 中都有每个文件的两个副本。

两个 DC 相互连接,这意味着每台服务器都可以通过内部 IP 地址访问另一台服务器。

因为我还想访问这些文件,所以我在 DC A 中创建了另一个 VM,它在复制的卷上执行了 mount.glusterfs。

现在我的问题是:GlusterFS“客户端”是否更喜欢本地 Gluster 节点(来自同一个 DC)而不是更远的 Gluster 节点(位于另一个 DC)?

如果没有,有没有办法影响“Gluster 客户端”的文件访问行为?我尝试搜索官方文档并搜索了 30 多分钟;但是,我无法找到我的问题的答案。

我问这个问题的原因是因为我想确保我的“客户端”不会访问其他 DC 中的 Gluster 节点来访问文件。我想将流量保持在当前 DC 内。

glusterfs
  • 1 个回答
  • 945 Views
Martin Hope
PythonLearner
Asked: 2014-05-28 06:51:51 +0800 CST

Linux 服务器和 CPU/电源节流的最佳实践?

  • 5

我正在运行几个 Debian 6 (2.6.32) 和 7 (3.2) Linux 服务器,它们都在其 BIOS 中启用了节能设置。此外,Linux 显示如果服务器空闲,CPU 会受到限制。

我想知道这是否会造成任何伤害——是否会因为 Linux 无法正确处理节流而对性能产生影响?

Linux 服务器和电源/CPU 节流是否有最佳实践?你们是将能源配置文件切换到“性能”还是将 BIOS 和操作系统都保留为默认设置?

我问的原因是我在物理戴尔服务器上遇到了几个性能问题,尽管所有值(CPU/负载、内存、I/O、网络等)似乎都是正常的。在这些特定情况下将 BIOS 电源设置更改为“性能”后,我能够摆脱性能问题。

linux
  • 2 个回答
  • 3424 Views
Martin Hope
PythonLearner
Asked: 2014-04-04 13:00:01 +0800 CST

安装包或添加用户时自动触发操作

  • 1

在 Debian Wheezy 上安装 mysql-server 时,创建的用户“mysql”没有主目录。在我的设置中,直接在安装 MySQL 之后,将执行一个新任务,该任务依赖于将 /var/lib/mysql 作为主目录的 mysql 用户。

目前,此任务失败。我必须调整 mysql 用户并再次重新运行我的任务。所以我正在寻找的是 Debian 中的一个内置方法,它允许我“预置”mysql 用户的主目录(由其中一个 mysql 包创建)或创建一个触发器,该触发器对 mysql 的事件做出反应-server 包正在安装(或正在创建的 mysql 用户,我不在乎)。

我知道我可以修改 mysql 包或将 mysql 安装包装在某种脚本或木偶清单中;但是,这样的事情不适合我的设置。我需要一个干净的 Debian 方法来做到这一点。

是否存在可以在软件包安装或用户创建时触发的东西?我考虑过通过 inotify 观看 mysql 文件作为一种解决方法;但是,我认为 inotify 对我这里的小问题来说太多了。

我目前正在查看 dpkg-triggers,但我不确定这是否是正确的解决方案..

mysql
  • 1 个回答
  • 127 Views
Martin Hope
PythonLearner
Asked: 2012-12-14 09:23:17 +0800 CST

KVM/Qemu、Ubuntu:为什么更多来宾 CPU 会快速增强磁盘 I/O?

  • 9

我们有一个由两个节点组成的 Heartbeat/DRBD/Pacemaker/KVM/Qemu/libvirt 集群。每个节点都运行具有以下软件包/版本的 Ubuntu 12.04 64 位:

  • 内核 3.2.0-32-generic #51-Ubuntu SMP
  • DRBD 8.3.11
  • qemu-kvm 1.0+noroms-0ubuntu14.3
  • libvirt 0.9.13
  • 心脏起搏器1.1.7
  • 心跳3.0.5

虚拟来宾正在运行 Ubuntu 10.04 64 位和 Ubuntu 12.04 64 位。我们使用 libvirt 功能将主机 CPU 的功能传递给虚拟来宾,以实现最佳 CPU 性能。

现在这是该集群上的常见设置:

  • VM“监控”有 4 个 vCPU
  • VM“监控”使用ide作为磁盘接口(由于显而易见的原因,我们目前正在切换到VirtIO)

我们最近进行了一些简单的测试。我知道他们不专业,达不到高标准,但他们已经表现出很强的趋势:

节点 A 正在运行虚拟机“bla” 节点 B 正在运行虚拟机“监控”

当我们将文件从 VM“bla”同步到 VM“monitoring”时,我们只能达到 12 MB/s。当我们在虚拟机“监控”中执行一个简单的 dd if=/dev/null of=/tmp/blubb 时,我们达到了大约 30 MB/s。

然后我们向虚拟机“监控”添加了 4 个 vCPU 并重新启动它。VM“监控”现在有 8 个 vCPU。我们重新运行测试,结果如下:当我们将文件从 VM“bla”rsync 到 VM“monitoring”时,我们现在达到了 36 MB/s。当我们在虚拟机“监控”中执行一个简单的 dd if=/dev/null of=/tmp/blubb 时,我们现在达到了大约 61 MB/s。

对我来说,这种效果是相当令人惊讶的。为什么显然为这个虚拟来宾自动添加更多虚拟 CPU 意味着 VM 内的磁盘性能更高?

我对此没有任何解释,非常感谢您的意见。我想了解导致这种性能提升的原因,因为我可以 100% 重现这种行为。

performance
  • 1 个回答
  • 2616 Views
Martin Hope
PythonLearner
Asked: 2012-07-03 14:03:24 +0800 CST

KVM:哪些 CPU 特性使 VM 运行得更好?

  • 22

我们使用具有以下参数的 Ubuntu 12.04:

  • 戴尔R910
  • 内核 3.2.0-25-generic #40-Ubuntu SMP x86_64 x86_64 x86_64 GNU/Linux
  • kvm 1:84+dfsg-0ubuntu16+1.0+noroms+0ubuntu13
  • qemu-kvm 1.0+noroms-0ubuntu13
  • qemu-common 1.0+noroms-0ubuntu13
  • qemu-kvm 1.0+noroms-0ubuntu13
  • 4 x Intel(R) Xeon(R) CPU E7- 4870 @ 2.40GHz(每个有 10 个物理内核,支持 HT 和 Intel VT)
  • Windows 客户机目前没有 VirtIO,但很快就会改变

我们在这台机器上运行几个 Windows 客户机,其中一个是 Windows 2003 32 位,另一个是 Windows 2008(64 位)。我们目前正在努力解决性能问题并尝试使用 CPU 模型。

我们通常将“qemu-system-x86_64”用于我们的 Windows 32 位客户机,例如:

/usr/bin/qemu-system-x86_64 -S -M pc-1.0 -cpu qemu32 -enable-kvm -m 4096 -smp 4,sockets=4,cores=1,threads=1 [...] 

这位嘉宾的表现竟然有点低。我们还没有运行任何基准测试,但是假设当我们将 CPU 模型从“-cpu qemu32”切换到“-cpu Nehalem”时,将 VM 内的大量数据(文件)从一个目录复制到另一个目录的速度要快得多”。过去大约需要 2:40 小时才能复制的文件现在可以在 40 分钟内完成复制。当然这不是一个高质量的测试,还有很大的空间可以进行更专业的尝试。但这是一个明确的指标,表明选择正确的 CPU 型号可能会严重影响来宾的性能。

现在我很好奇并跑了:

qemu-x86_64 -cpu ?
x86           [n270]
x86         [athlon]
x86       [pentium3]
x86       [pentium2]
x86        [pentium]
x86            [486]
x86        [coreduo]
x86          [kvm32]
x86         [qemu32]
x86          [kvm64]
x86       [core2duo]
x86         [phenom]
x86         [qemu64]

和:

kvm -cpu ?model
 x86       Opteron_G3  AMD Opteron 23xx (Gen 3 Class Opteron)
 x86       Opteron_G2  AMD Opteron 22xx (Gen 2 Class Opteron)
 x86       Opteron_G1  AMD Opteron 240 (Gen 1 Class Opteron)
 x86          Nehalem  Intel Core i7 9xx (Nehalem Class Core i7)
 x86           Penryn  Intel Core 2 Duo P9xxx (Penryn Class Core 2)
 x86           Conroe  Intel Celeron_4x0 (Conroe/Merom Class Core 2)
 x86           [n270]  Intel(R) Atom(TM) CPU N270   @ 1.60GHz
 x86         [athlon]  QEMU Virtual CPU version 1.0
 x86       [pentium3]
 x86       [pentium2]
 x86        [pentium]
 x86            [486]
 x86        [coreduo]  Genuine Intel(R) CPU           T2600  @ 2.16GHz
 x86          [kvm32]  Common 32-bit KVM processor
 x86         [qemu32]  QEMU Virtual CPU version 1.0
 x86          [kvm64]  Common KVM processor
 x86       [core2duo]  Intel(R) Core(TM)2 Duo CPU     T7700  @ 2.40GHz
 x86         [phenom]  AMD Phenom(tm) 9550 Quad-Core Processor
 x86         [qemu64]  QEMU Virtual CPU version 1.0

对于所有这些不同的版本,很难猜测。“Nehalem”似乎是该列表中性能最高的一个。现在我想知道,如何判断哪种 CPU 型号最适合我的来宾?浏览互联网,我发现了以下资源:

  • http://rwmj.wordpress.com/2010/10/08/32-or-64-bit-virtual-cpu-in-kvm/
  • http://www.linux-kvm.org/page/Tuning_KVM

当我正确阅读这些网站时,他们声称“-cpu 主机”可能会带来最佳性能。我还不担心迁移,因为两台 KVM 主机的配置相同(完全相同的硬件)。

那么,有经验的 KVM 管理员推荐什么?是否存在黄金法则甚至矩阵,例如“此模型最适合该来宾操作系统”?

如果我能自己找到这些信息,我深表歉意——我运行了各种谷歌搜索并浏览了许多网站。我找不到能回答我问题的东西。

virtualization central-processing-unit kvm-virtualization qemu
  • 5 个回答
  • 94193 Views
Martin Hope
PythonLearner
Asked: 2012-06-22 10:42:25 +0800 CST

kvm 和 qemu 主机:是否有最大 CPU 限制(Ubuntu 10.04)?

  • 6

今天我们在两个相同的 kvm 和 qemu 主机(Dell R910)上遇到了一个非常奇怪的行为。每个主机系统都有 4 x 10 个核心,这意味着 40 个物理核心在操作系统(Ubuntu Linux 10.04 64 位,内核 3.0)中显示为 80。

我们在其中一个节点上启动了 Windows 2003 32 位 VM(1 个 CPU、1 GB RAM,我们多次更改了这些值),并注意到启动过程需要 15 分钟才能开始。在那 15 分钟内,黑屏显示,没有任何反应。libvirt 和主机系统显示来宾的 qemu-kvm 进程几乎处于空闲状态。跟踪这个过程只显示了一些 FUTEX 条目,但没有什么特别的。

15 分钟后,Windows VM 突然开始启动并出现 Windows 徽标。几秒钟后,VM 就可以使用了。VM 本身的性能非常好,因此这不是性能问题。

我们尝试使用 virsh 和 taskset 工具固定 CPU,但这只会让事情变得更糟。

当我们使用 Linux Live CD 启动 Windows VM 时,也会出现几分钟的黑屏,但不会长达 15 分钟。当在此主机(Ubuntu 10.04)上启动另一个 VM 时,它也有黑屏问题,并且在这里黑屏只显示 2-3 分钟(而不是 15 分钟)。

因此,总结一下:这些相同节点中的每一个上的每个来宾在启动后都会出现空闲几分钟。几分钟后,启动过程突然开始。我们观察到空闲时间发生在来宾的 bios 初始化之后。

我们的一名员工想到在 Grub(内核参数)中限制 maxcpus=40(因为存在 40 个物理内核)的 CPU 数量,突然“黑屏空闲”行为消失了。

在 KVM 和 Qemu 邮件列表、互联网、论坛、serverfault 和其他各种网站上搜索已知错误等都没有找到有用的结果。即使在开发 IRC 频道中询问也没有带来新的想法。那里的人建议我们使用 CPU 固定,但如前所述,它没有帮助。

我现在的问题是:qemu 或 kvm 主机系统是否有某种 CPU 限制?浏览这两个工具的源代码表明,如果您的主机有超过 255 个 CPU,KVM 会发出警告。但我们甚至没有触及这个限制。

关于主机系统的一些东西:

3.0.0-20-server
kvm 1:84+dfsg-0ubuntu16+0.14.0+noroms+0ubuntu4
kvm-pxe 5.4.4-7ubuntu2
qemu-kvm 0.14.0+noroms-0ubuntu4
qemu-common 0.14.0+noroms-0ubuntu4
libvirt 0.8.8-1ubuntu6
4 x Intel(R) Xeon(R) CPU E7-4870  @ 2.40GHz, 10 Cores

编辑:还尝试了 3.2 内核(未使用 maxcpus 参数)——不幸的是,这让事情变得更糟。dstat 显示越来越多的上下文切换:

----total-cpu-usage---- -dsk/total- -net/total- ---paging-- ---system--
usr sys idl wai hiq siq| read  writ| recv  send|  in   out | int   csw 
  0   0  99   0   0   0|1164k  638k|   0     0 |   0     0 |4972  6319 
  0   1  99   0   0   0|   0     0 |3456B 4847B|   0     0 |  18k   33k
  0   1  99   0   0   0|   0     0 |6126B 4550B|   0     0 |  17k   33k
  0   1  99   0   0   0|   0     0 |1772B 4139B|   0     0 |  17k   33k
  0   1  99   0   0   0|   0     0 |5507B 3674B|   0     0 |  17k   32k

对于一个启动了 VM 的系统,正常值约为 7000。

编辑:我用 maxcpus=40 作为引导参数启动了主机系统。virsh nodeinfo 显示 40 个物理内核,没有超线程内核。

启动虚拟机时,它仍然有大约 30 秒的“引导中断”。在此期间,上下文切换的数量从 300(每秒)增加到 600 000(每秒)。黑屏 30 秒后,VM 开始正常启动过程,上下文切换降至每秒 <7000 次:

----total-cpu-usage---- -dsk/total- -net/total- ---paging-- ---system--
usr sys idl wai hiq siq| read  writ| recv  send|  in   out | int   csw 
  1   2  97   0   0   0| 943k    0 |  26k   12k|   0     0 |  22k   40k
  3   7  84   6   0   0|  26M   64k|  71k   18k|   0     0 |  10k   16k
  1   1  97   1   0   0|5282k 2560B|9751B   15k|   0     0 |  13k   23k
  1   4  95   0   0   0|1216k    0 |  14k   18k|   0     0 | 295k  592k
  1   3  96   0   0   0|   0    52k|5518B 7299B|   0     0 | 228k  456k
  1   3  96   0   0   0|  12k   24k|1228B 1514B|   0     0 | 258k  518k
  1   4  96   0   0   0|   0     0 |  14k   32k|   0     0 | 280k  565k
  1   3  96   0   0   0|   0     0 |  19k   38k|   0     0 | 284k  573k
  1   3  96   0   0   0|   0     0 |6465B 7203B|   0     0 | 288k  581k
  1   3  96   0   0   0|   0   172k|  26k   11k|   0     0 | 290k  584k
  1   3  96   0   0   0|   0     0 |  23k   11k|   0     0 | 288k  580k
  1   3  96   0   0   0|   0    12k|5678B 4556B|   0     0 | 289k  583k
  1   3  96   0   0   0|   0     0 |1192B 2929B|   0     0 | 288k  580k
  1   3  96   0   0   0|   0     0 |6304B   10k|   0     0 | 272k  547k
  1   3  96   0   0   0|4096B   52k|8330B   14k|   0     0 | 300k  605k
  1   3  96   0   0   0|   0    24k|  11k   20k|   0     0 | 293k  591k
  1   3  96   0   0   0|   0     0 |  13k   28k|   0     0 | 291k  587k
  1   3  96   0   0   0|   0   512B|  10k   18k|   0     0 | 291k  587k
  2   3  95   0   0   0|   0     0 |6653B   10k|   0     0 | 167k  337k
  3   0  97   0   0   0|   0   160k|  23k 5524B|   0     0 |  10k   19k
  7   0  92   0   0   0|   0    36k|  22k 3335B|   0     0 | 949   924 
 10   0  90   0   0   0|   0     0 |5172B 3318B|   0     0 | 908   923 
  5   0  94   0   0   0|   0     0 |2234B 2825B|   0     0 | 846   875 

编辑:根据要求,我将添加 strace -f -p 的摘录:

25734 <... read resumed> "\16\0\0\0\0\0\0\0\376\377\377\377\0\0\0\0\0\0\0\0\0\0\0\0\1\0\0\0\0\0\0\0"..., 128) = 128
25752 futex(0x927e60, FUTEX_WAIT_PRIVATE, 2, NULL <unfinished ...>
25734 rt_sigaction(SIGALRM, NULL, {0x4b2300, ~[KILL STOP RTMIN RT_1], SA_RESTORER, 0x7fe09ac108f0}, 8) = 0
25734 write(8, "\1\0\0\0\0\0\0\0", 8)   = 8
25734 read(15, 0x7fffcea69f70, 128)     = -1 EAGAIN (Resource temporarily unavailable)
25734 timer_gettime(0x1, {it_interval={0, 0}, it_value={0, 0}}) = 0
25734 timer_settime(0x1, 0, {it_interval={0, 0}, it_value={0, 250000}}, NULL) = 0
25734 timer_gettime(0x1, {it_interval={0, 0}, it_value={0, 182592}}) = 0
25734 futex(0x927e60, FUTEX_WAKE_PRIVATE, 1 <unfinished ...>
25752 <... futex resumed> )             = 0
25734 <... futex resumed> )             = 1
25752 futex(0x927e60, FUTEX_WAKE_PRIVATE, 1 <unfinished ...>
25734 select(25, [7 10 14 15 16 17 18 24], [], [], {1, 0} <unfinished ...>
central-processing-unit kvm-virtualization qemu pinning
  • 2 个回答
  • 4162 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve