AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / user-14858

wfaulk's questions

Martin Hope
wfaulk
Asked: 2020-01-24 13:26:27 +0800 CST

SPF 与其他 TXT 记录的大小

  • 3

SPF 规范说:

给定域名的已发布 SPF 记录应保持足够小,以使其查询结果适合 512 个八位字节。否则,可能会超出 DNS 协议限制。

…

请注意,在计算对 TXT 格式查询的回复大小时,必须考虑在域名上发布的任何其他 TXT 记录。

它还指出,最近的 DNS 规范允许更大的 UDP 响应(限制的原因,因为 SPF 规范暗示您不应该依赖 DNS over TCP 工作),但这似乎并没有真正覆盖“应该” .

问题在于,许多组织需要同一域上的 TXT 记录用于验证目的(例如facebook-domain-verification、google-site-verification、atlassian-domain-verification、adobe-sign-verification等),并且可以快速将 TXT RRset 的总大小超过 512 字节。

看起来大多数大型组织都在遵守这一点,但也有一些超越了:

% dig +noall +stats netflix.com TXT | grep 'MSG SIZE'
;; MSG SIZE  rcvd: 593

% dig +noall +stats linkedin.com TXT | grep 'MSG SIZE'
;; MSG SIZE  rcvd: 632

% dig +noall +stats twitter.com TXT | grep 'MSG SIZE'
;; MSG SIZE  rcvd: 642

% dig +noall +stats microsoft.com TXT | grep 'MSG SIZE'
;; MSG SIZE  rcvd: 1459

(您可以通过运行类似的内容来查看可能发生的截断dig +notcp +noedns +ignore microsoft.com TXT。)

六个月以来,我一直处于边缘,现在我需要为新供应商添加另一条验证记录,这将使我远远超过 512 字节。我已尽我所能整合我的 SPF 记录,并确保我无法删除现有的验证记录。

我应该在这里做什么?我不能没有验证记录,但我也不想忽略 SPF 规范。也就是说,微软似乎忽略了它,我不认为他们的邮件被拒绝了。

domain-name-system email smtp spf
  • 1 个回答
  • 1148 Views
Martin Hope
wfaulk
Asked: 2019-02-28 13:36:38 +0800 CST

有条件地转发到 AWS Route 53 名称服务器验证失败

  • 2

我正在尝试将特定区域有条件地转发到一组对该区域具有权威性的 Amazon Route 53 名称服务器。当我尝试添加名称服务器时,验证失败,并显示不太有用的错误消息“验证期间发生超时”。

如果我尝试从命令行(通过类似的东西nslookup host.example.com ns-000.awsdns-00.com)从该名称服务器查询区域中的记录,它可以正常工作。

该错误使我无法单击“确定”并完全创建条件转发区域。

windows
  • 1 个回答
  • 1611 Views
Martin Hope
wfaulk
Asked: 2016-12-30 11:54:49 +0800 CST

使用 VMware 数据存储进行光纤通道分区

  • 2

如果我有多个由 vCenter 控制的 VMware ESXi 服务器,它们通过 FibreChannel 共享一个数据存储,那么对这些连接进行分区的最佳做法是什么?

我看到了两种明显的方法来做到这一点:

  • 每台服务器创建一个区域,每个区域包含服务器和数据存储
  • 创建一个包含所有服务器和数据存储的大区域

这个比那个好吗?或者还有其他更有意义的方法吗?

如果有多个数据存储,这些会发生什么变化?

vmware-vcenter vmware-esxi fibre-channel
  • 2 个回答
  • 849 Views
Martin Hope
wfaulk
Asked: 2016-02-04 09:56:00 +0800 CST

监控 Cloud Foundry 中的 java 应用程序内存

  • 1

我有一个在 Cloud Foundry 环境中部署的 Java 应用程序。我想监控应用程序的内存使用情况。Cloud Foundry 提供的cf app命令可生成有关指定应用程序的每个实例的输出。在这里,您可以看到有关具有两个正在运行的实例(已删除)的特定应用程序的信息:

$ cf app myapp
Showing health and status for app myapp in org myorg / space myspace as admin...
OK

requested state: started
instances: 2/2
usage: 1G x 2 instances
urls: myapp.example.com
last uploaded: Wed Jan 27 09:00:53 UTC 2016
stack: mylinuxstack
buildpack: myjavabuildpack

     state     since                    cpu    memory         disk      details
#0   running   2016-01-27 09:01:31 AM   0.4%   689.8M of 1G   0 of 1G
#1   running   2016-02-03 05:35:03 PM   0.0%   624.2M of 1G   0 of 1G

但是,内存指标似乎只报告了在 Cloud Foundry 容器内运行的进程使用的内存量。如果您处理过监视 Java 应用程序的问题,您就会知道 JVM 最终可能会消耗您告诉它们可以拥有的内存量,即使 Java 应用程序没有使用它。(换句话说,它自己进行内存管理。)这意味着实际java进程可能正在消耗它的全部 1GB 内存,但这并不意味着它即将耗尽内存。

根据我的经验,对 Java 应用程序内存利用率的有用监控取决于从 JVM 本身获取数据,通过 JMX 之类的东西(例如 via jconsole)。但是,Cloud Foundry 似乎没有提供有关应用程序实际运行位置的信息。(事实上​​,我发现有些人声称 Cloud Foundry 明确不会告诉您这些信息。)这意味着我无处可连接 JMX 客户端。

如果我想监控 Cloud Foundry 中 Java 应用程序的内存利用率,我应该怎么做?如果您知道得更多,请随时反驳我的任何主张。

java
  • 1 个回答
  • 1929 Views
Martin Hope
wfaulk
Asked: 2015-07-24 13:59:20 +0800 CST

ZFS 在 FreeBSD 上的读取速度非常慢

  • 2

我有一个 FreeBSD 10.0 系统,在该系统上运行 MySQL,其 InnoDB 数据库文件存储在 ZFS 上。几个月来似乎一直很好,但最近,似乎突然间,性能已经触底。在对 MySQL 进行了一段时间的调试之后,我最终决定只是看看从文件系统中读取数据库文件是否很慢。

我选择了一张数据库文件大约 16GB 的表,运行:

time cat table.ibd > /dev/null

并得到:

cat table.ibd > /dev/null 1.24s user 64.35s system 0% cpu 1:00:34.65 total

相比之下,位于同一系统上的 UFS 上的文件副本(有一些更改,我敢肯定:数据库是活动的)给了我:

cat table.ibd > /dev/null 0.20s user 9.34s system 5% cpu 9.550 total

以下是此系统上的非默认 ZFS 选项:

/boot/loader.conf:
  vfs.zfs.arc_max=17179869184

-

/etc/sysctl.conf:
  vfs.zfs.prefetch_disable=1

-

zfs get:
  recordsize 16K
  compression on
  atime off
  primarycache metadata
  zfs:zfs_nocacheflush 1

现在这个文件系统上有 12 个快照。(这似乎过分了;我要看看是否可以删除其中的任何一个。)

此池(或系统上的任何其他池)没有 L2ARC。

我已经尝试了 primarycache 的所有三个值,并尝试重新启用预取,但似乎都没有任何显着效果。

zpool 是四个 2 磁盘镜像:

% zpool status mysqlrot
  pool: mysqlrot
state: ONLINE
  scan: scrub repaired 0 in 9h45m with 0 errors on Fri Jun 26 12:46:33 2015
config:

    NAME        STATE     READ WRITE CKSUM
    mysqlrot    ONLINE       0     0     0
      mirror-0  ONLINE       0     0     0
        mfid9   ONLINE       0     0     0
        mfid10  ONLINE       0     0     0
      mirror-1  ONLINE       0     0     0
        mfid11  ONLINE       0     0     0
        mfid12  ONLINE       0     0     0
      mirror-2  ONLINE       0     0     0
        mfid13  ONLINE       0     0     0
        mfid14  ONLINE       0     0     0
      mirror-3  ONLINE       0     0     0
        mfid15  ONLINE       0     0     0
        mfid16  ONLINE       0     0     0
    spares
      mfid19    AVAIL

errors: No known data errors

一个奇怪的是原始设备的设置方式。存储控制器是一个 MFI 控制器,每个裸磁盘实际上在 MFI 控制器中配置为一个 1-disk RAID0 卷:

% sudo mfiutil show volumes
mfi0 Volumes:
  Id     Size    Level   Stripe  State   Cache   Name
 mfid0 (  185G) RAID-1      64K OPTIMAL Disabled <OS>
 mfid1 (  558G) RAID-0      64K OPTIMAL Disabled <DB0A>
 mfid2 (  558G) RAID-0      64K OPTIMAL Disabled <DB0B>
 mfid3 (  558G) RAID-0      64K OPTIMAL Disabled <DB1A>
 mfid4 (  558G) RAID-0      64K OPTIMAL Disabled <DB1B>
 mfid5 (  558G) RAID-0      64K OPTIMAL Disabled <DB2A>
 mfid6 (  558G) RAID-0      64K OPTIMAL Disabled <DB2B>
 mfid7 (  558G) RAID-0      64K OPTIMAL Disabled <DB3A>
 mfid8 (  558G) RAID-0      64K OPTIMAL Disabled <DB3B>
 mfid9 (  558G) RAID-0      64K OPTIMAL Disabled <DB4A>
mfid10 (  558G) RAID-0      64K OPTIMAL Disabled <DB4B>
mfid11 (  558G) RAID-0      64K OPTIMAL Disabled <DB5A>
mfid12 (  558G) RAID-0      64K OPTIMAL Disabled <DB5B>
mfid13 (  558G) RAID-0      64K OPTIMAL Disabled <DB6A>
mfid14 (  558G) RAID-0      64K OPTIMAL Disabled <DB6B>
mfid15 (  558G) RAID-0      64K OPTIMAL Disabled <DB7A>
mfid16 (  558G) RAID-0      64K OPTIMAL Disabled <DB7B>
mfid17 (  558G) RAID-0      64K OPTIMAL Disabled <DB8A>
mfid18 (  558G) RAID-0      64K OPTIMAL Disabled <DB8B>
mfid19 (  558G) RAID-0      64K OPTIMAL Disabled <SPARE0>

我在任何日志文件或实用程序中都找不到任何错误。

任何人有任何想法在哪里看?


各种数据:

% zpool list mysqlrot
NAME       SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
mysqlrot  2.17T  1.49T   701G    68%  1.00x  ONLINE  -

将 15.3GB 文件复制到受影响的文件系统(从 UFS 文件系统):

% time sudo cp test.file /var/lib/mysql/mysqlrot/test.file
sudo cp test.file /var/lib/mysql/mysqlrot/test.file  0.02s user 44.23s system 1% cpu 1:06.93 total

(即 66.93 秒。)

从受影响的文件系统中读取相同的文件:

# time cat test.file > /dev/null
cat test.file > /dev/null  4.23s user 268.50s system 0% cpu 25:29.27 total

(这是 1529.27 秒:几乎是写入时间的 23 倍。)

有趣的是,cp性能远远好于cat:

% time sudo cp /var/lib/mysql/v4netrot/test.file /dev/null
sudo cp /var/lib/mysql/v4netrot/test.file /dev/null  0.03s user 33.63s system 0% cpu 3:05.99 total

(185.99 秒)


iostat复制期间的数据到:

                        extended device statistics
device     r/s    w/s    kr/s    kw/s qlen svc_t  %b
mfid0      0.0    0.6     0.0     8.8    0   0.6   0
mfid1      0.4   12.6     2.7    70.5    0   0.5   0
mfid2      1.8   12.8    10.8    70.5    0   1.6   2
mfid3      0.2   10.0     1.5    92.4    0   0.7   0
mfid4      0.0   10.4     0.0    92.4    0   0.5   0
mfid5      0.2    9.4     1.2    39.7    0   0.5   0
mfid6      0.6    9.8     3.9    39.7    0   0.6   0
mfid7      0.6    4.8     0.3    46.1    0   0.9   0
mfid8      1.8    4.8    11.4    46.1    0   0.8   0
mfid9      0.4 1327.2     2.9 26686.5    0   0.5  23
mfid10     0.8 1328.2     1.8 26686.5    0   0.5  20
mfid11     1.4 1304.8     8.4 26357.6    0   0.5  23
mfid12     1.4 1304.6     2.6 26357.6    0   0.6  31
mfid13     1.6 1120.6     3.5 26194.2    0   0.6  25
mfid14     0.4 1122.6     2.7 26194.2    0   0.5  22
mfid15     0.8 1406.6     5.5 26188.5    0   0.5  22
mfid16     1.0 1174.6     2.0 21534.3   10   4.9  74
mfid17     5.8   24.2   152.9   300.6    0   0.3   0
mfid18     4.0   23.6    76.7   300.6    0   0.3   0
mfid19     0.0    0.0     0.0     0.0    0   0.0   0

kw/s 数据范围从大约 17k 到大约 25k,并且在驱动器之间非常一致。

iostat当cat从:_

                        extended device statistics
device      r/s   w/s    kr/s    kw/s qlen svc_t  %b
mfid0       0.0   0.0     0.0     0.0    0   0.0   0
mfid1       0.4  17.2    11.4    63.4    0   0.5   0
mfid2       0.0  17.0     0.0    63.4    0   0.4   0
mfid3       0.0  14.0     0.0    56.4    0   0.4   0
mfid4       0.4  13.6     0.2    56.4    0   0.4   0
mfid5       0.8   9.6     4.8    37.3    0   0.8   0
mfid6       0.0   9.8     0.0    37.3    0   0.4   0
mfid7       0.2   3.8    17.2    11.9    0   0.6   0
mfid8       0.2   3.8     1.4    11.9    0   0.5   0
mfid9    1208.8   0.0  6831.4     0.0    0   0.1  11
mfid10    129.4   0.0   780.7     0.0    0   0.2   2
mfid11    906.4   0.0  5858.5     0.0    0   0.1  10
mfid12    600.5   0.0  2673.0     0.0    0   0.1   5
mfid13    136.2   0.0   803.9     0.0    0   0.2   3
mfid14    316.1   0.0  1895.3     0.0    0   0.1   4
mfid15    243.6   0.0  1414.5     0.0    0   0.1   2
mfid16    129.0   0.0   768.8     0.0    0   0.2   2
mfid17      3.8  25.8    29.8   274.1    0   0.2   0
mfid18      6.0  25.6    96.6   274.1    0   0.2   0
mfid19      0.0   0.0     0.0     0.0    0   0.0   0

kr/s 的数字非常不一致,但这些都是有代表性的数字。

iostatwhile cping从(到 /dev/null):

                        extended device statistics
device     r/s   w/s    kr/s    kw/s qlen svc_t  %b
mfid0      0.0   0.0     0.0     0.0    0   0.0   0
mfid1     21.0  66.6   107.6  2351.7    0   0.9   6
mfid2     17.6  66.8   106.8  2351.7    0   1.0   6
mfid3     17.6  39.0   116.9  2111.3    0   1.1   6
mfid4     18.8  39.6    99.8  2111.3    0   1.3   7
mfid5     23.2  62.4   172.2  2076.1    0   1.1   7
mfid6     23.0  62.0   130.0  2076.1    0   1.4   9
mfid7     16.2  62.6   112.6  2125.3    0   1.0   6
mfid8     17.4  63.0   107.6  2125.3    0   0.7   4
mfid9    237.5  44.6  5140.6   807.0    0   3.1  22
mfid10   263.7  43.6  5530.5   807.0    0   1.5  14
mfid11   252.7  55.8  5297.6   802.4    0   2.6  20
mfid12   298.1  55.6  5361.9   802.4    0   2.5  21
mfid13   275.3  46.2  5116.4   801.4    0   2.8  22
mfid14   252.9  42.4  5107.7   801.4    2   3.1  21
mfid15   270.9  43.8  4546.5   943.7    0   1.2  12
mfid16   257.7  44.0  5642.5   943.7    0   2.5  19
mfid17     7.8  23.0    73.1   244.9    0   0.3   0
mfid18     0.8  24.2    44.4   244.9    0   0.2   0
mfid19     0.0   0.0     0.0     0.0    0   0.0   0

它似乎不受 CPU 限制。 top显示cp从受影响的文件系统到/dev/null消耗大约 18% 的一个内核(共 48 个),其余内核显示超过 95% 的空闲。

last pid: 12474;  load averages:  1.65,  1.26,  1.14                                                                                                                                        up 39+05:42:19  14:29:08
147 processes: 1 running, 146 sleeping
CPU 0:   0.0% user,  0.0% nice,  1.6% system,  0.0% interrupt, 98.4% idle
CPU 1:   0.0% user,  0.0% nice,  1.2% system,  0.0% interrupt, 98.8% idle
CPU 2:   0.4% user,  0.0% nice,  0.8% system,  0.0% interrupt, 98.8% idle
CPU 3:   0.0% user,  0.0% nice,  1.2% system,  0.0% interrupt, 98.8% idle
CPU 4:   0.0% user,  0.0% nice,  2.3% system,  0.0% interrupt, 97.7% idle
CPU 5:   0.0% user,  0.0% nice,  0.4% system,  0.0% interrupt, 99.6% idle
CPU 6:   0.0% user,  0.0% nice,  1.2% system,  0.0% interrupt, 98.8% idle
CPU 7:   0.0% user,  0.0% nice,  2.7% system,  0.0% interrupt, 97.3% idle
CPU 8:   0.4% user,  0.0% nice,  1.9% system,  0.0% interrupt, 97.7% idle
CPU 9:   0.0% user,  0.0% nice,  2.3% system,  0.0% interrupt, 97.7% idle
CPU 10:  0.4% user,  0.0% nice,  1.9% system,  1.2% interrupt, 96.5% idle
CPU 11:  0.0% user,  0.0% nice,  3.9% system,  0.0% interrupt, 96.1% idle
CPU 12:  0.0% user,  0.0% nice,  1.6% system,  0.8% interrupt, 97.7% idle
CPU 13:  0.0% user,  0.0% nice,  2.7% system,  0.0% interrupt, 97.3% idle
CPU 14:  0.0% user,  0.0% nice,  1.6% system,  0.0% interrupt, 98.4% idle
CPU 15:  0.4% user,  0.0% nice,  1.2% system,  0.0% interrupt, 98.4% idle
CPU 16:  0.0% user,  0.0% nice,  1.6% system,  0.0% interrupt, 98.4% idle
CPU 17:  0.4% user,  0.0% nice,  3.1% system,  0.0% interrupt, 96.5% idle
CPU 18:  0.0% user,  0.0% nice,  0.4% system,  0.0% interrupt, 99.6% idle
CPU 19:  0.8% user,  0.0% nice,  0.8% system,  0.0% interrupt, 98.4% idle
CPU 20:  0.0% user,  0.0% nice,  2.7% system,  0.0% interrupt, 97.3% idle
CPU 21:  0.4% user,  0.0% nice,  1.9% system,  0.0% interrupt, 97.7% idle
CPU 22:  0.0% user,  0.0% nice,  2.3% system,  0.0% interrupt, 97.7% idle
CPU 23:  0.4% user,  0.0% nice,  1.2% system,  0.0% interrupt, 98.4% idle
CPU 24:  0.0% user,  0.0% nice,  1.2% system,  0.0% interrupt, 98.8% idle
CPU 25:  0.8% user,  0.0% nice,  0.8% system,  0.0% interrupt, 98.4% idle
CPU 26:  0.4% user,  0.0% nice,  0.8% system,  0.0% interrupt, 98.8% idle
CPU 27:  0.0% user,  0.0% nice,  4.7% system,  0.0% interrupt, 95.3% idle
CPU 28:  0.0% user,  0.0% nice,  0.8% system,  0.0% interrupt, 99.2% idle
CPU 29:  0.4% user,  0.0% nice,  0.8% system,  0.0% interrupt, 98.8% idle
CPU 30:  0.0% user,  0.0% nice,  2.7% system,  0.0% interrupt, 97.3% idle
CPU 31:  0.0% user,  0.0% nice,  1.2% system,  0.0% interrupt, 98.8% idle
CPU 32:  0.0% user,  0.0% nice,  0.8% system,  0.0% interrupt, 99.2% idle
CPU 33:  0.0% user,  0.0% nice,  3.5% system,  0.0% interrupt, 96.5% idle
CPU 34:  0.0% user,  0.0% nice,  0.4% system,  0.0% interrupt, 99.6% idle
CPU 35:  0.0% user,  0.0% nice,  0.4% system,  0.0% interrupt, 99.6% idle
CPU 36:  1.2% user,  0.0% nice,  1.6% system,  0.0% interrupt, 97.3% idle
CPU 37:  0.0% user,  0.0% nice,  0.0% system,  0.0% interrupt,  100% idle
CPU 38:  0.4% user,  0.0% nice,  1.2% system,  0.4% interrupt, 98.1% idle
CPU 39:  0.0% user,  0.0% nice,  0.0% system,  0.0% interrupt,  100% idle
CPU 40:  0.0% user,  0.0% nice,  1.9% system,  0.0% interrupt, 98.1% idle
CPU 41:  0.0% user,  0.0% nice,  1.2% system,  0.0% interrupt, 98.8% idle
CPU 42:  0.4% user,  0.0% nice,  1.9% system,  0.0% interrupt, 97.7% idle
CPU 43:  0.0% user,  0.0% nice,  4.7% system,  0.0% interrupt, 95.3% idle
CPU 44:  0.0% user,  0.0% nice,  2.3% system,  0.0% interrupt, 97.7% idle
CPU 45:  0.4% user,  0.0% nice,  2.7% system,  0.0% interrupt, 96.9% idle
CPU 46:  0.4% user,  0.0% nice,  3.5% system,  0.0% interrupt, 96.1% idle
CPU 47:  0.4% user,  0.0% nice,  1.6% system,  0.0% interrupt, 98.1% idle
Mem: 82G Active, 23G Inact, 15G Wired, 3340K Cache, 1655M Buf, 4858M Free
ARC: 12G Total, 527M MFU, 11G MRU, 4375K Anon, 377M Header, 89M Other
Swap: 4096M Total, 12M Used, 4084M Free

  PID USERNAME     PRI NICE   SIZE    RES STATE   C   TIME    WCPU COMMAND
12461 root          31    0 12268K  2552K zio->i 30   0:07  18.16% cp
 3151 mysql         24    0 92309M 92073M uwait   3  22:06   7.47% mysqld{mysqld}
 3151 mysql         22    0 92309M 92073M select 33  15:30   4.79% mysqld{mysqld}
 3151 mysql         20    0 92309M 92073M uwait  46 895:41   0.49% mysqld{mysqld}
12175 wfaulk        20    0 23864K  6404K CPU25  25   0:03   0.29% top
 6074 root          20    0 84348K 40372K kqread 25   0:11   0.20% vc-aggregator{vc-aggregator}

(其余进程显示 CPU 利用率为 0.00%。)

performance
  • 2 个回答
  • 2145 Views
Martin Hope
wfaulk
Asked: 2015-01-14 16:20:24 +0800 CST

LSI MegaRAID 实际如何布置 RAID10 集?

  • 5

我正在尝试在 LSI MegaRAID 控制器上设置 RAID10。我不清楚 RAID 控制器将如何在物理驱动器上实际布置 RAID 集。

部分问题在于 MegaRAID 使用的术语似乎非常不一致。同一个想法通常有多个术语,有时他们似乎使用同一个术语来指代多个想法。我将尝试使用 MegaCli 命令似乎最常用的术语。

MegaRAID 要求 RAID10 集中有两到八个阵列。每个阵列必须包含两个的倍数的物理驱动器。RAID10 集中的每个阵列必须具有相同数量的物理驱动器。

每个阵列是RAID10集,然后将阵列连接在一起吗?如果是这样,数组必须具有相同大小的事实是否意味着数组正在被条带化?如果是这样,鉴于每个阵列都是条带化的,然后在其之上还有一层额外的条带化,我是否应该担心性能方面的冗余?(或者这会是一件好事吗?)

但是,如果每个阵列都是 RAID10 集,为什么 MegaRAID 要求您至少有两个?

如果每个阵列都不是 RAID10 集,为什么它要求阵列具有 2 倍数的物理驱动器?

在文档中,它将数组称为跨度,它在其他地方定义如下:

磁盘跨越允许多个驱动器像一个大驱动器一样运行。跨越通过组合现有资源或添加相对便宜的资源来克服磁盘空间不足并简化存储管理。例如,可以将四个 20 GB 驱动器组合起来,在操作系统中显示为单个 80 GB 驱动器。单独的跨越并不能提供可靠性或性能增强。跨区虚拟驱动器必须具有相同的条带大小并且必须是连续的。

对我来说,这意味着连接,或者充其量是条带化。让我们大方一点,称它为 RAID0。

因此,如果我必须定义两个阵列,并且阵列是跨度,跨度是 RAID0,那么我将定义两个 RAID0 集。如果我必须定义其中两个,那么它反映了它们是有道理的。但这将是两个 RAID0 或 RAID0+1 的 RAID1,这是不好的。

那么,我希望,如果我定义了三个阵列,那将创建一个 RAID0 集的三向镜像,但如果我真的这样做,逻辑驱动器的总容量仍然是所有驱动器的一半,而不是三分之一。所以这个结论也没有意义。

问题是我在一个 RAID10 集中有 18 个驱动器。在我使用过的所有其他 RAID 系统中,我只需创建 9 个双驱动器镜像,然后将它们条带化,但我无法使用 MegaRAID 做到这一点。因为必须有 2 到 8 个阵列,并且每个阵列必须有偶数个驱动器,所以我能想到的唯一可行的配置是三个阵列,每个阵列有 6 个驱动器,但我觉得这样做很奇怪,没有更好地了解这些磁盘的实际布局方式。

这是我想太多了吗?我是否应该让 MegaRAID 做它的事情并希望驱动器布局最佳?

raid
  • 2 个回答
  • 5173 Views
Martin Hope
wfaulk
Asked: 2014-10-31 08:35:42 +0800 CST

ssh 会话结束后运行本地命令

  • 10

我有一些通过 ssh 登录的 HP 交换机。开关发送一个终端命令来禁用换行(terminfo 用语中的“rmam”),但随后无法重新启用它,这在我退出 ssh 会话后搞砸了我的终端。我可以通过运行来修复终端tput smam。

有没有办法让 ssh 在我的 ssh 会话结束后自动运行该命令?

将它作为 shell 自动命令运行,或者ssh在之后始终运行该命令的别名不会杀死我,但我更愿意通过 ssh 解决问题,以便我可以限制命令仅在我连接到已知后运行-坏主机。

我的 ssh 客户端是 OpenSSH_6.2p2,但如果某处有新功能,我可以更改或更新。

ssh
  • 2 个回答
  • 4064 Views
Martin Hope
wfaulk
Asked: 2014-07-11 11:38:44 +0800 CST

Solaris 10 init 无法获取僵尸进程

  • 1

ps目前显示 17617 个僵尸进程,所有这些进程的 ppid 为 1/init。init 应该正在收获这些已失效的进程,但不是出于某种原因。失效进程的数量正在增长。

试图用以下方法强迫他们收割preap失败:

preap: Failed to reap 15977: the only non-defunct ancestor is 'init'

顺便说一下,我是这样计算进程的:

% ps -e -o pid,s,ppid | awk 'index($2,"Z")>0 {ppid[$3]=ppid[$3]+1} END {for (key in ppid) print key,ppid[key]}'
1 17617

我发现了这个令人不安的日志条目:

Jun 20 22:45:34 host genunix: [ID 470503 kern.warning] WARNING: Sorry, no swap space to grow stack for pid 1 (init)

操作系统是 Solaris 10 ( SunOS host 5.10 Generic_150401-04 i86pc i386 i86pc)。

solaris
  • 1 个回答
  • 1362 Views
Martin Hope
wfaulk
Asked: 2013-10-24 13:41:53 +0800 CST

lsof 中的 txt 文件描述符

  • 2

根据我的经验,文件描述符为txtinlsof输出的文件是可执行文件本身和共享对象。lsof手册页说它的意思是“程序文本(代码和数据)” 。

在调试问题时,我发现大量数据文件(特别是 ElasticSearch 数据库索引文件)lsof报告为txt. 这些绝对不是可执行文件。该过程是 ElasticSearch 本身,它是一个 java 过程,如果这有助于为某人指明正确的方向。

我想了解这个过程是如何打开和使用这些文件以这种方式报告的。我试图了解一些内存利用率,并且我怀疑这些打开的文件与我以某种方式看到的某些指标有关。

该系统是 Solaris 10 x86。

solaris
  • 1 个回答
  • 1338 Views
Martin Hope
wfaulk
Asked: 2013-10-08 09:07:44 +0800 CST

在 FreeBSD 中报告历史系统活动

  • 3

我想记录有关 FreeBSD 下系统活动的数据,以供将来分析。如果我运行的是 SysV 系统,我只会使用 sar 及其相关实用程序,但 BSD 中不存在这些实用程序。(而且 bsdsar 不见了。)我并不真正关心特定格式或实用程序,但我想保留有关 CPU、RAM 和 VM 利用率的信息,以及 I/O 信息。同时,完整的会计流程记帐似乎有点矫枉过正,并没有真正提供我想要的数据:特别是有关预先存在的流程的数据。

我可以只记录长时间运行的 vmstat、iostat 等命令的输出,但似乎应该有一些更整洁的东西。

最终,问题是:

在 FreeBSD 下找出最近过去系统利用率的好方法是什么?

freebsd
  • 2 个回答
  • 1248 Views
Martin Hope
wfaulk
Asked: 2013-06-28 16:09:10 +0800 CST

带有不兼容开关的生成树设置

  • 2

我的数据中心有一组八台 HP ProCurve 2910al-48G 以太网交换机,它们采用星形拓扑设置,没有物理环路。我想部分连接交换机以实现冗余并使用生成树协议管理环路。

但是,我们与数据中心的连接由两个上行链路提供,每个上行链路连接到 Cisco 3750。数据中心的交换机使用 PVST 生成树处理冗余连接,这是一种 Cisco 专有的生成树实现,我的 HP 交换机不支持.

我的交换机似乎没有参与数据中心的生成树域,而是在我这边的两个交换机端口之间盲目地传递 BPDU,这使得数据中心的交换机能够识别环路并将其中一个上行链路置于阻塞状态。这有点假设,但我可以确认,虽然我的交换机说两个上行链路端口都在转发,但只有一个在传递任何实际数量的数据。(我假设我无法让数据中心远离 PVST。我不知道我是否希望他们做出如此重大的改变。)

数据中心还从他们的交换机向我发送了这个输出(我已经删除了任何可识别的信息):

3750G-1#sh spanning-tree vlan nnn

VLAN0nnn
  Spanning tree enabled protocol ieee
  Root ID    Priority    10
             Address     00d0.0114.xxxx
             Cost        4
             Port        5 (GigabitEthernet1/0/5)
             Hello Time   2 sec  Max Age 20 sec  Forward Delay 15 sec

  Bridge ID  Priority    32mmm  (priority 32768 sys-id-ext nnn)
             Address     0018.73d3.yyyy
             Hello Time   2 sec  Max Age 20 sec  Forward Delay 15 sec
             Aging Time  300 sec

Interface           Role Sts Cost      Prio.Nbr Type
------------------- ---- --- --------- -------- --------------------------------
Gi1/0/5             Root FWD 4         128.5    P2p
Gi1/0/6             Altn BLK 4         128.6    P2p
Gi1/0/8             Altn BLK 4         128.8    P2p

和:

3750G-2#sh spanning-tree vlan nnn

VLAN0nnn
  Spanning tree enabled protocol ieee
  Root ID    Priority    10
             Address     00d0.0114.xxxx
             Cost        4
             Port        6 (GigabitEthernet1/0/6)
             Hello Time   2 sec  Max Age 20 sec  Forward Delay 15 sec

  Bridge ID  Priority    32mmm  (priority 32768 sys-id-ext nnn)
             Address     000f.f71e.zzzz
             Hello Time   2 sec  Max Age 20 sec  Forward Delay 15 sec
             Aging Time  300 sec

Interface           Role Sts Cost      Prio.Nbr Type
------------------- ---- --- --------- -------- --------------------------------
Gi1/0/1             Desg FWD 4         128.1    P2p
Gi1/0/5             Altn BLK 4         128.5    P2p
Gi1/0/6             Root FWD 4         128.6    P2p
Gi1/0/8             Desg FWD 4         128.8    P2p

我的交换机的上行链路在他们两个交换机上的 Gi1/0/8 上。上行链路端口配置有单个标记的 VLAN。我还在我的交换机基础设施中使用了许多其他标记的 VLAN。而且,需要明确的是,我将从数据中心接收到的标记 VLAN 传递到基础架构中其他交换机上的其他端口。

我的问题是:如何配置我的交换机,以便我可以在我的交换机基础架构中使用生成树协议,而不会破坏我无法参与的数据中心的生成树?

networking
  • 1 个回答
  • 1300 Views
Martin Hope
wfaulk
Asked: 2012-12-28 13:05:15 +0800 CST

IT 部门应该如何选择标准的 Linux 发行版?

  • 74
想要改进这篇文章?提供此问题的详细答案,包括引用和解释为什么你的答案是正确的。不够详细的答案可能会被编辑或删除。

关于哪些 Linux 发行版适合生产服务器环境,哪些不适合,社区有很多感觉,但是,很多这种感觉似乎是基于宗教的,很少提供支持证据。

假设我们正在尝试选择一个 Linux 发行版来标准化(因为我们有兴趣使我们的环境尽可能保持同质化),哪些标准很重要,您如何确定不同发行版满足这些标准的程度?

linux
  • 2 个回答
  • 6536 Views
Martin Hope
wfaulk
Asked: 2010-04-15 11:58:21 +0800 CST

NetApp FAS270 磁头看不到磁盘

  • 0

我有一个 FAS270C。几个月来,我一直以拆分头的方式运行它(即每个头完全独立地提供数据,甚至没有启用任何集群),以便于移动一些数据。我终于找到了所有东西,将所有数据移到了其中一个头上,并试图恢复集群设置。

现在,当我尝试将 OnTap 安装到“新”磁头上时,它看不到磁头架中的任何磁盘。(也就是说,插入磁头的架子。)我已经启动到维护模式,它向我显示 0b 适配器,应该是该架子及其磁盘应该出现的适配器,位于“离线(物理)”状态。如果我尝试使用“storage enable adapter 0b”或“fcadmin online 0b”启用它,它会等待大约 30 秒,然后说:

[fci.initialization.failed:error]:光纤通道适配器 0b 上的初始化失败。[fci.adapter.online.failed:error]:光纤通道适配器 0b 无法联机。

当前没有连接到其外部 0b 端口。我已经尝试过插入和不插入 SFP,打开和不打开内部终端开关。

当前活动的磁头可以看到这些磁盘,并且可以看到其中两个已分配给另一个磁头。在我开始重新配置之前,“新”磁头可以看到那个架子上的磁盘。它们甚至可能与之前安装 OnTap 的磁盘相同。

有谁知道如何进行?

netapp cluster fibre-channel
  • 2 个回答
  • 2089 Views
Martin Hope
wfaulk
Asked: 2010-04-14 13:38:19 +0800 CST

Exchange 2003 日历的“遥远”未来在计划时为空白

  • 1

如果用户尝试在“遥远的”未来安排会议,其中“遥远的未来”似乎意味着“未来七周或更长时间”,则不会出现现有会议,并且资源(至少)频繁(如果并非总是)在会议创建窗口中显示带有白色和黑色阴影的“无信息”指示器,但如果您从 Outlook 主窗口查看实际日历,则显示正常。

这是预期的行为吗?如果是这样,有什么方法可以扩展 Exchange/Outlook 的外观吗?

编辑:
好的,很多人说这是由 Outlook 控制的,或者它是 Outlook 的功能。我的具体问题是我有一个会议室作为自动接受会议的资源,而且它的未来数据非常有限。没有人以该用户身份登录(调试除外)。

那么是 Outlook 控制 Exchange 的忙/闲发布跨度,还是 Outlook 实际计算忙/闲时间并将该数据上传到 Exchange 服务器?如果是前者,我应该能够以这些用户的身份登录并设置一次忙/闲跨度并且一切正常。如果是后者,我必须每隔一段时间以这些资源用户的身份登录才能更新该数据。考虑到几个月来没有人登录这些帐户,这将引发一个问题,即 Exchange 如何拥有数周的此类数据。无论如何,如果是后者,是否有一种已知的方法可以自动更新数据?

exchange-2003 calendar
  • 4 个回答
  • 1409 Views
Martin Hope
wfaulk
Asked: 2010-02-04 15:50:02 +0800 CST

网格集群的集中式 cron

  • 1

我有一个网格集群。(它正在运行 SGE,但我认为这无关紧要。)所有机器都旨在能够随时退出并返回而不会出现任何重大问题。

但是,我的用户需要能够运行 cron 作业。现在,他们只是随机挑选一台服务器并在其上执行一项 cron 作业。我可以在网格中或外部分配一个特定的服务器,让他们在上面运行他们的工作,但这似乎是错误的。

有没有人有一个解决方案,其中 crontab 集中存储,但(可能)在其他地方运行?还是我只是想多了?

cron cluster grid
  • 1 个回答
  • 894 Views
Martin Hope
wfaulk
Asked: 2010-02-02 13:58:25 +0800 CST

如何迁移 Windows 打印队列

  • 2

我有一台 Windows 2003 打印服务器需要退役,但我需要先将打印队列从它迁移到另一台 Win2k3 服务器上。我找到了一些关于迁移的信息,但这似乎都与复制打印队列设置有关。我想找出最透明的方式将新的打印队列部署到我的客户。

现在,所有客户端都手动配置了打印队列。我不太关心删除旧队列,尽管我不会拒绝这样做。我只想自动添加新队列。在我看来,GPO 将是可行的方法,但我以前从未设置过。(我是一名被迫与 Windows 打交道的 Unix 管理员。)我看到的关于打印队列 GPO 的每一篇文档似乎都引用了根本不存在的东西。

打印管理分步指南是指“打印管理”选项,它可能位于管理工具中或可能是 MMC 插件。它在我的打印服务器上的任何地方都不存在。打印服务器角色是很久以前激活的,并且没有该文档中提到的“更新此角色”选项。我尝试在不同的服务器上激活它,它也没有出现在那里。(该文档还说:“安装打印管理是通过添加或更新打印服务器角色来完成的。请注意,安装打印管理的计算机不需要是打印服务器。”当然,您不能添加打印服务器角色而不共享本地连接的打印机,所以我不确定该声明如何不矛盾。)

我还发现 Microsoft 引用了一个名为 PushPrinterConnections.exe 的程序,但我找不到该程序存在的任何地方。

基本上,在 Microsoft 文档中两次或三个完全失败之后,我已经放弃并希望其他人真正知道如何做到这一点。

windows-server-2003 group-policy print-server
  • 2 个回答
  • 3557 Views
Martin Hope
wfaulk
Asked: 2009-10-09 13:26:23 +0800 CST

远程可移动工作空间访问工作流建议

  • -1

我的用户需要具有以下要求的解决方案:

  • 远程访问多个基于 Linux 的应用程序
  • 来自多个客户端的远程访问(非同时)
  • 需要应用程序分组,以便与一个任务关联的所有应用程序都可以作为一个单元处理
  • 能够将应用程序“提供”给另一个用户,最好保留分组

他们当前的系统在 Xvnc 下运行一组应用程序,当他们遇到需要将这些应用程序传递给另一个用户的情况时,他们会移交整个 Xvnc 会话并启动一个新会话。

现在,这显然会导致问题,因为多个 Gnome 会话在彼此的脚上行走,对此我还有另一个问题。我应该能够通过摆脱 Gnome 来解决这个问题,但是这个设置确实让我有些调整。现在我在想它,我真的不知道是什么,但它仍然存在。

我想让他们在 xpra(或 xmove 或 freenx 或 netx)下运行他们的应用程序,然后将它们显示在他们想要的任何 X 服务器上。这将使他们能够移动应用程序,他们可以使用他们想要的任何 X 服务器(包括带有 Gnome 的 Xvnc,因为他们只需要运行一次),并且他们可以传递应用程序。但我担心移动应用程序的界面会很繁琐。

有没有人遇到过类似的情况已经解决了?或者不管个人经验有什么想法?

remote-desktop
  • 1 个回答
  • 89 Views
Martin Hope
wfaulk
Asked: 2009-10-02 10:59:54 +0800 CST

在没有 VMware 客户端的 VMware ESX 来宾操作系统上挂载 ISO 映像

  • 0

我的 VMware ESX 3.5 主机上有一个 ISO 映像,我想将它挂载到来宾操作系统中。我无法弄清楚如何做到这一点。我可以使用 VMware Infrastructure Client 的“连接 CD/DVD”按钮(也允许您安装本地工作站的 CD 驱动器)轻松安装 ISO 映像,但该按钮仅允许您从客户端的角度引用文件工作站,这意味着我将通过网络访问该图像,我不想这样做,并且我希望它独立于 VIC,因为它经常崩溃。

更新:我现在看到,如果我在定义 CD 驱动器的位置编辑来宾操作系统的设置,我可以从那里挂载一个位于数据存储区的 ISO。

是否有某种方法可以让我登录到主机操作系统并将图像挂载/呈现给来宾操作系统,而无需与 GUI 交互?

更新 2:我今天一定是个白痴。我已经尝试了 vmware-cmd 实用程序,但我无法让它工作。

# vmware-cmd /vmfs/volumes/<blah>/<host>/<host>.vmx disconnectdevice ide0:0
Error executing the command "disconnectdevice"

Run /usr/bin/vmware-cmd -h to see usage information.
VMControl error -5: Not connected

如果我尝试连接设备,我会得到同样的结果。

vmware-esx
  • 5 个回答
  • 26056 Views
Martin Hope
wfaulk
Asked: 2009-10-01 07:09:34 +0800 CST

与专用磁带相比,NetBackup 更喜欢“临时”磁带

  • 2

我有一个在 Windows Server 2003 上运行的 NetBackup 6.0MP7 安装。它充当唯一的主服务器和介质服务器。我每周都将一整套磁带进出交换,但始终将一组磁带的卷池设置为“暂存”。每周的磁带集然后在一段时间后轮换回来。很大程度上,这很好用。我实际上很少需要暂存磁带,但每隔一段时间,备份就会超过我专门用于该任务的内容。

然而,一个星期的磁带集总是被拒绝,有利于暂存池。每周的备份策略都相同,它们都将“策略卷池”设置为“NetBackup”,并且每周的所有磁带(除了暂存磁带)都将其池分配为“NetBackup”,绝对包括总是被忽视的那一周。

也就是说,它不会忽略该周的所有 NetBackup 池磁带。它通常会写入其中的两三个,但它会写入大约 20 个暂存磁带。(我没想过看看它是否总是相同的两三个磁带。)而且这个问题似乎在任何其他星期都不会发生。

它不会加载磁带然后拒绝它们;它似乎根本没有尝试使用它们。它们没有被标记为冻结。当我将它们换入时,它们都处于活动状态且未分配。

这些磁带位于 Quantum PX510 磁带库中。NetBackup 服务器通过 HP 品牌的 Brocade 交换机通过光纤通道连接到磁带库/机器人。

我根本不是 NetBackup 方面的专家。我什至不知道在哪里看。任何有关查看日志或启用日志的建议或实际上任何东西都将不胜感激。如果有人需要更多信息来帮助,我会密切关注这个问题并更新它。

backup
  • 4 个回答
  • 2953 Views
Martin Hope
wfaulk
Asked: 2009-09-26 21:31:47 +0800 CST

Exchange 2003 自动将 text/plain 电子邮件转换为 text/html 以进行 IMAP 检索

  • 3

当通过 IMAP 访问 Exchange 2003 服务器时,以 text/plain 形式发送的电子邮件(以及根本没有指定 MIME 编码的电子邮件)会自动转换为具有原始 text/plain 正文和 text/html 正文的 multipart/alternative。这是……愚蠢的。它甚至不需要指定等宽字体。

新的 MIME 部分是这样开始的:

Content-Type: text/html;
    charset="iso-8859-1"
Content-Transfer-Encoding: quoted-printable

<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 3.2//EN">
<HTML>
<HEAD>
<META HTTP-EQUIV=3D"Content-Type" CONTENT=3D"text/html; =
charset=3Diso-8859-1">
<META NAME=3D"Generator" CONTENT=3D"MS Exchange Server version =
6.5.7654.12">
<TITLE>{{subject}}</TITLE>

</HEAD>
<BODY>
<!-- Converted from text/plain format -->
<BR>

<P><FONT SIZE=3D2>{{body}}

(所有“3D”内容都是等号的可引用打印编码;令人惊讶的是,这方面没有任何问题。)

我怎样才能停下来?

exchange-2003
  • 2 个回答
  • 1787 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve