AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / user-107133

Jarmund's questions

Martin Hope
Jarmund
Asked: 2020-07-05 09:26:35 +0800 CST

将未配置好的驱动器添加到现有驱动器组/RAID 设置

  • 1

我有一台装有几个驱动器的机器。运行storcli /c0 show会产生此相关信息等:

TOPOLOGY :
========
----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT      Size PDC  PI SED DS3  FSpace TR 
----------------------------------------------------------------------------
 0 -   -   -        -   RAID6 Optl  N  90.952 TB dflt N  N   none N      N  
 0 0   -   -        -   RAID6 Optl  N  90.952 TB dflt N  N   none N      N  
 0 0   0   0:0      2   DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 0 0   1   0:1      3   DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 0 0   2   0:2      4   DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 0 0   3   0:3      5   DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 0 0   4   0:4      6   DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 0 0   5   0:5      7   DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 0 0   6   1:0      26  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 0 0   7   1:1      27  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 0 0   8   1:2      28  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 0 0   9   1:3      29  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 0 0   10  1:4      30  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 0 0   11  1:5      31  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 1 -   -   -        -   RAID6 Optl  N  90.952 TB dflt N  N   none N      N  
 1 0   -   -        -   RAID6 Optl  N  90.952 TB dflt N  N   none N      N  
 1 0   0   0:6      8   DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 1 0   1   0:7      9   DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 1 0   2   0:8      10  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 1 0   3   0:9      11  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 1 0   4   0:10     12  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 1 0   5   0:11     13  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 1 0   6   1:6      32  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 1 0   7   1:7      33  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 1 0   8   1:8      34  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 1 0   9   1:9      35  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 1 0   10  1:10     36  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 1 0   11  1:11     37  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 2 -   -   -        -   RAID5 Optl  N  90.952 TB dflt N  N   none N      N  
 2 0   -   -        -   RAID5 Optl  N  90.952 TB dflt N  N   none N      N  
 2 0   0   0:12     14  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 2 0   1   0:14     16  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 2 0   2   0:15     17  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 2 0   3   0:16     18  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 2 0   4   0:17     19  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 2 0   5   0:18     20  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 2 0   6   0:19     21  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 2 0   7   0:20     22  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 2 0   8   0:21     23  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 2 0   9   0:22     24  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
 2 0   10  0:23     25  DRIVE Onln  Y   9.094 TB dflt N  N   none -      N  
----------------------------------------------------------------------------

(...snip...)

PD LIST :
=======
----------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model            Sp Type 
----------------------------------------------------------------------------
0:0       2 Onln   0 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:1       3 Onln   0 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:2       4 Onln   0 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:3       5 Onln   0 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:4       6 Onln   0 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:5       7 Onln   0 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:6       8 Onln   1 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:7       9 Onln   1 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:8      10 Onln   1 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:9      11 Onln   1 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:10     12 Onln   1 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:11     13 Onln   1 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:12     14 Onln   2 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:13     38 UGood  - 9.094 TB SAS  HDD N   N  512B ST10000NM0096    D  -    
0:14     16 Onln   2 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:15     17 Onln   2 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:16     18 Onln   2 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:17     19 Onln   2 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:18     20 Onln   2 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:19     21 Onln   2 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:20     22 Onln   2 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:21     23 Onln   2 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:22     24 Onln   2 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
0:23     25 Onln   2 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
1:0      26 Onln   0 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
1:1      27 Onln   0 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
1:2      28 Onln   0 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
1:3      29 Onln   0 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
1:4      30 Onln   0 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
1:5      31 Onln   0 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
1:6      32 Onln   1 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
1:7      33 Onln   1 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
1:8      34 Onln   1 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
1:9      35 Onln   1 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
1:10     36 Onln   1 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
1:11     37 Onln   1 9.094 TB SAS  HDD N   N  512B ST10000NM0096    U  -    
----------------------------------------------------------------------------

如您所见,c0/e0/d13标记为 UGgood(更换驱动器后),驱动器组 2 缺少第 11 行。

storcli使用将此驱动器添加到 RAID的正确程序是什么?我宁愿通过storcli而不是重新启动来使用(对我而言)更熟悉的 BIOS RAID 工具。

raid megaraid raid6 storcli
  • 1 个回答
  • 165 Views
Martin Hope
Jarmund
Asked: 2020-04-15 09:29:32 +0800 CST

多个磁盘充当一个文件系统,同时仍允许单独访问每个磁盘

  • 1

我有一个相当大的数据集(~160TB),需要经常交付给客户。该数据集由相当大的文件组成,通常每个文件在 2Gb 到 20Gb 之间。它们存在于在总容量为 1.1Tb 的 RAID 集群上运行的 BeeGFS 文件系统上。目前,当需要交付数据时,它是通过以下方式完成的:

  1. 创建文件及其大小的主索引
  2. 统计文件大小直到 4Tb,并从主索引中创建所述文件的子索引
  3. 将文件复制到 4Tb USB 驱动器
  4. 重复步骤 2 和 3,直到复制整个数据集
  5. 给客户一个装有 U 盘的纸板箱

我想做的只是将其同步到已安装的文件系统,所以我想知道是否有可用的文件系统可以将存储空间分布在多个磁盘上?显而易见的候选者是 LVM 和 RAID,但问题是客户端需要能够自行读取每个磁盘,这排除了这一点(至少据我所知)。有没有办法模拟 LVM 或类似的东西,但允许以相当标准的方式读取单个磁盘?实际上,允许我运行单个 rsync 操作,将数据分布在多个单独的磁盘/文件系统上

数据来自一台redhat机器,所以到目前为止我只是在USB驱动器上使用了ext4。但是,如果可能的话,如果我可以使用与 Windows10 完美配合的文件系统,这对每个人来说都是非常有益的(尽管不是绝对必要的)。

PS:我对同时连接的USB驱动器的数量没有限制。我唯一真正的限制是数据必须一次可以访问一个磁盘/文件系统。

filesystems cluster distributed-filesystems large-data
  • 1 个回答
  • 174 Views
Martin Hope
Jarmund
Asked: 2020-02-18 11:29:42 +0800 CST

Oracle 数据库模式导出

  • 0

我正在尝试通过expdep在 oracle 数据库上运行模式导出:

expdp somedatabase/something directory=EXP_DIR schemas=someschema dumpfile=dumpfile.dmp logfile=logfile.log

上面的命令(尽管为了发布这个问题而进行了编辑)之前一直在工作,但现在我收到了这个错误:

ORA-31626: job does not exist
ORA-31633: unable to create master table "SOMEDATABASE.SYS_EXPORT_SCHEMA_09"
ORA-06512: at "SYS.DBMS_SYS_ERROR", line 95
ORA-06512: at "SYS.KUPV$FT", line 1161
ORA-01658: unable to create INITIAL extent for segment in tablespace USERS
ORA-06512: at "SYS.KUPV$FT", line 1054
ORA-06512: at "SYS.KUPV$FT", line 1042

我有理由相信,根本原因是存在与早期数据泵相关的停滞作业,这些作业被半中止 (ctrl+c) 并删除了目标文件。

如何清除这些作业,以便我可以从头开始重新启动数据泵?

从外观上看,我在 Centos 上运行的是 12.2.0.1 版本。

data-pump oracle-linux
  • 1 个回答
  • 214 Views
Martin Hope
Jarmund
Asked: 2019-10-31 02:39:49 +0800 CST

NFS:什么是远程锁定,我需要它吗?

  • 7

我正在构建一个有点简约的系统,它收集串行端口数据并将其推送到 NFS 挂载上的日志文件中。

为了在一定程度上减少系统,我决定禁用 RPC,因为我看不到它的用途,这导致了以下警告:

mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified

NFS 中涉及 RPC 并不奇怪,所以我的下一步是删除警告。我可以选择重新启用 RPC,或者-o nolock按照建议使用。

那么问题来了,远程锁定到底是做什么的?在这种特殊情况下,NFS 挂载仅由相关机器写入,不存在诸如多个进程写入同一个文件等冲突的可能性。(虽然,有几个进程写入各自的日志文件)

运行 debian buster,内核 4.19

编辑:我试过-o nolock了,一切似乎都很好,所以乍一看,没有副作用。

linux
  • 1 个回答
  • 8223 Views
Martin Hope
Jarmund
Asked: 2016-01-01 15:56:28 +0800 CST

自动假设几个区域文件的主控

  • 3

现在我正在移动我的主服务器,我正在花一些时间改进和简化它的一些设置,现在它已经来到了 DNS 服务器(在新设置中绑定 9.9.5)。

我注意到在我的配置中,我有很多这样定义的区域:

zone "123.123.123.123.in-addr.arpa" in {
        type master;
        file "123.123.123.123";
};

zone "123.123.123.124.in-addr.arpa" in {
        type master;
        file "123.123.123.124";
};

zone "example.com" in {
        type master;
        file "example.com";
};

zone "example.net" in {
        type master;
        file "example.net";
};

// With another ~20 definitions like that

这对我来说似乎非常低效。有没有办法自动加载找到由options { directory "/some/folder" }.

domain-name-system
  • 1 个回答
  • 130 Views
Martin Hope
Jarmund
Asked: 2015-12-27 17:29:48 +0800 CST

测试服务器服务特定域的能力

  • 11

假设你已经Server A设置了你最喜欢的 webserver-daemon 来服务www.example.com. 现在你想把它移到Server B. 经过大量的复制和配置,新服务器似乎已经准备就绪。www.example.com最后的测试是有序的:在更改 DNS 记录之前,当 DNS 记录仍然指向服务器 A 时,如何向服务器 B 请求?


虽然我的主要问题已经得到解答,但如果 /etc/hosts 不在我的影响范围内,是否可以通过将原始 HTTP1.1 与网络服务器交谈来使用 telnet 对其进行测试?

domain-name-system
  • 5 个回答
  • 15700 Views
Martin Hope
Jarmund
Asked: 2013-05-08 02:51:00 +0800 CST

/24 异常的 /16 子网的 iptables

  • 1

简单地说,我想使用这些规则:

iptables -I FORWARD -i br0.105 -d 192.168.0.0/16 -j DROP
iptables -I FORWARD -s 192.168.0.0/16 -i br0.105 -j DROP

但 192.168.99.0/24 子网除外。

有没有办法在上面的行中指定它?-j accept我不希望为-subnet添加异常规则.99,因为还有其他规则引用该特定子网。

iptables
  • 3 个回答
  • 938 Views
Martin Hope
Jarmund
Asked: 2013-03-13 01:26:14 +0800 CST

脚本分区创建

  • 0

我需要在具有相同硬件的各种机器上定期执行这些步骤:

  1. 删除 /dev/sda 上的所有分区
  2. 在 /dev/sda 上创建一个 100G 的主分区
  3. 将创建的分区的分区类型更改为 linux raid auto(类型 fd)
  4. 写表
  5. 为 /dev/sdb 做完全相同的事情

我目前使用 fdisk -u 来执行此操作,但我在想,必须有一种编写脚本的方法吗?有任何想法吗?

raid
  • 2 个回答
  • 84 Views
Martin Hope
Jarmund
Asked: 2013-02-16 06:02:52 +0800 CST

在路由器上使用 tcpdump 记录 HTTP 流量

  • 0

我有一个 linux box 作为许多客户端和互联网之间的路由器,我需要提取一些关于使用情况的统计数据:我需要记录哪些内部 IP 访问哪些外部地址。

我用它来检查哪些内部 IP 访问哪些外部 IP:

tcpdump -n -i any port 80 or port 443 and src net 192.168.101.0/24

(我使用 -n 并稍后进行查找)

然而,这也向我展示了很多与 TCP 握手和窗口相关的额外信息。是否可以只显示实际的 HTTP 请求?

我发现了一些方法,其中大部分涉及grepping for GET\|POST,但是它去除了 IP,这正是我关心的主要内容。

编辑:

  • 除了 tcp + 标准 linux 和 bash 命令之外,我没有使用任何其他东西的奢侈(因此我仅限于 tcpdump 和 grep/strings/awk/sed
  • 包括过滤器有tcp[13] & 2!=0'帮助吗,据我所知,这只会显示初始 SYN?
logging
  • 3 个回答
  • 3156 Views
Martin Hope
Jarmund
Asked: 2012-11-11 11:29:21 +0800 CST

通过第三台机器在两台机器之间移动文件和目录,保留权限和用户名

  • 1

情况如下:

  • 机器 A 有一个可通过 rsync 访问的文件存储库
  • 机器 B 需要上述所有权限和所有权完整的文件(包括组等)
  • 机器 C 可以访问 A 和 B,但有一组完全不同的用户。

通常,我只是直接在 A 和 B 之间 rsync 一切,但由于目前带宽严重有限,我需要一些不同的东西,因为 rsync 在构建 430 个文件列表后超时(49Mb 未压缩......可以是压缩到 ~7Mb)。

到目前为止我已经尝试过: rsync 从 A 到 C 的所有内容,对其进行 tar,将 tarball 复制过来,然后解压缩,但是,这会弄乱所有权和/或权限。

要将它从 A 同步到 C,我运行以下命令:

rsync --numeric-ids --password-file=/root/rsync_pwd_file -oaPvu rsync://[email protected]/portal_2/ ./portal_2/

...从外观上看,它们确实以正确的所有权/权限/标志/一切结束在 C 上(虽然不是 100% 肯定..还有更多的开关我可以扔在那里吗?我错过了什么?)

复制 tarball 很简单(由于带宽的原因,它像一只独足的乌龟一样慢,但它的校验和很好)

我不确定的是用于创建和提取 tarball 的标志和开关,所以有人可以提供完整的命令来从机器 C 上的 /root/portal_2 创建 tarball(一切都完好无损)并将 tarball 提取到 /var /ex/portal_2 在机器 B 上??

另外,还有其他值得一提的方法可以让我执行此操作吗?我有 A 和 C 的根访问权限,而我只有 B 的 rsync 访问权限。

PS:我在机器 B 上运行 rsync v2.6.9,不幸的是我没有机会升级到 v3

linux
  • 2 个回答
  • 232 Views
Martin Hope
Jarmund
Asked: 2012-10-13 08:34:28 +0800 CST

防止用两个路由器无限转发

  • 3

有问题的网络基本上是这样的:

                     /----Inet1
                    /
H1---[111.0/24]---GW1---[99.0/24]
                                 \----GW2-----Inet2

设备说明

  • H1:IP 为 192.168.111.47 的主机
  • GW1:具有 IP 192.168.111.1 和 192.168.99.2 的 Linux 机器,以及它自己的互联网路由。
  • GW2:IP 为 192.168.99.1 的通用无线路由器,它有自己的互联网路由。
  • Inet1 和 Inet2:两条可能的互联网路径

简而言之:H 有不止一条可能的互联网路径。

H 应该只在该链接打开时通过 GW2 访问互联网,因此 GW1 有一些专门针对 H1 的基于策略的路由:

ip rule add from 192.168.111.47 table 991
ip route add default via 192.168.99.1 table 991

虽然只要 GW2 与 Internet 有直接链接就可以工作,但当该链接断开时就会出现问题。然后发生的是 GW2 将数据包转发回 GW1,GW1 再次转发回 GW2,从而形成无限循环的 TCP-pingpong。首选结果是数据包刚刚被丢弃。

GW1 上的 iptables 是否可以做些什么来防止这种情况发生?基本上, “如果数据包来自 GW2,但源自 H1,则丢弃它”的 iptables 友好版本

  • 注意 1:最好不要更改 GW2 上的任何内容。
  • 注 2:H1 需要能够同时与 GW1 和 GW2 通信,反之亦然,但只有 GW2 应该通向互联网

TLDR; H1 应该只允许通过 GW2 访问互联网,但仍然需要能够与 GW1 和 GW2 通信。

编辑: GW1 的接口是“99”网络的 br0.105 和“111”网络的 br0.111。解决方案可能非常简单,也可能不简单,但我自己无法生成正确的 iptables 语法,因此非常感谢您的帮助。


PS:这是这个问题的后续问题

linux
  • 2 个回答
  • 283 Views
Martin Hope
Jarmund
Asked: 2012-10-08 14:48:00 +0800 CST

默认路由不在 LAN 上

  • 2

我有一个原则上看起来像这样的网络:

H1---\           /----Inet1
H2---->---GW1---<
H3---/           \----GW2-----Inet2
  • H1 和 H2 = 需要使用 GW1 访问互联网的主机
  • Inet1 = 通过 3G 连接的 Internet 链接
  • Inet2 = 5GHz 互联网链接(不总是在线)
  • GW1 = 作为路由器工作,自动选择 Inet1 和 Inet2 之间的“最佳”连接(后者通过 GW2)。
  • GW2 = 5GHz 无线路由器

这就是问题所在: H3 只需要在 Inet2 启动时访问互联网。我想做的是一个看起来像这样的路由表:

  • 通过 GW1 到 GW2 的路线
  • 默认路由是通过 GW2

我首先毫无问题地通过 GW1 设置了到 GW2 的路由。但是当我尝试

路由添加默认 gw 1​​.2.3.4

(1.2.3.4 是 GW2 的 IP),它抱怨“SIOCADDRT:没有这样的设备”是我尝试设置的默认 gw 无法直接访问的问题吗?是否有不同的方法可以让我实现这一目标?

另一种(和假设的)方法:由于 H3 将使用静态 IP,是否可以对 GW1 上的 iptables 做一些魔术,将任何数据包从 H3 转发到 GW3,从而“欺骗”H3 使用 GW2 作为其默认路由器?

PS:这个问题是这个问题的后续问题。

linux
  • 2 个回答
  • 531 Views
Martin Hope
Jarmund
Asked: 2012-09-12 12:12:40 +0800 CST

dhcpd 池耗尽 - 结果是什么?

  • 1

我有一个 DHCP 服务器,平均每天为数百个(可能多达一千个)不同的客户端提供租约服务。该池由 242 个 IP 组成,并且由于网络的高度动态特性,尽管租用时间为 3600,但它在 99% 的时间就足够了(大多数设备会在几分钟内从网络中消失)。

现在,想象一下如果在一个小时内有更多的客户端连接到网络。解决方案很明显:减少租用时间,或增加 DHCP 池,但是,我想知道的是:当 dhcpd 耗尽池时会发生什么?是否简单地忽略了新的 DHCP 请求?

linux
  • 2 个回答
  • 3739 Views
Martin Hope
Jarmund
Asked: 2012-07-04 13:02:23 +0800 CST

使 lighttpd 从 www.example.com 重定向到 www.example.com/cgi-bin/index.pl

  • 0

标题说的是什么。。

www.example.com 在 lighttpd.conf 中定义为虚拟主机:

$HTTP["host"] =~ "(^|\.)example.com$" {
        server.document-root = "/usr/www/example.com/http"
        accesslog.filename = "/var/log/www/example.com/access.log"
        $HTTP["url"] =~ ".pl$" {
                cgi.assign = (".pl" => "/usr/bin/perl" )
        }
}

但是,我希望所有对虚拟主机根目录的请求都被转发到 /cgi-bin/index,而不是通过 index-file.names 中列出的文件(通常的 index.html、default.html 等) .pl。最简单/最好的方法是什么?这种需求是一种特殊情况,只会适用于这个虚拟主机。是否可以让特定的虚拟主机在标头中发送重定向?

perl virtualhost redirect lighttpd cgi-bin
  • 1 个回答
  • 693 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve