AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / user-213074

elliotp's questions

Martin Hope
elliotp
Asked: 2020-11-10 12:27:54 +0800 CST

HPC SSD 环境中 ZFS RAIDz1/2 的开销是多少?

  • 3

示例硬件/主机:

  • 现代 64 核 CPU,128GB 内存
  • 8 个美光 Pro 15.36TB u.2 SSD
  • 每个设备通过专用 Oculink 连接 SSD(无背板或 PCIe 共享)
  • Ubuntu 20.04

用例:

  • 数百台主机的备份服务器。备份是通过增量 rsync 执行的,首先是来自远程主机的 rsync,然后是本地副本(使用 cp)以创建快照。- - - 数以百万计的小文件(电子邮件、html 文件等)是典型的备份。
  • 在任何时候,服务器都可以处理 50 个传入的 rsync(cpu 轻加密算法和无压缩)
  • 冗余虽然是有利的,但不是必需的。最多单个驱动器故障。
  • 文件轮换所需的极端本地 i/o
  • rsync 和硬链接差异复制('rsnapshot')的使用不能改变,这是已部署并投入生产的备份软件所要求的 - 所以 BTRFS 快照是不可能的。

我提出了两种可能的解决方案:

  1. 分片我的数据存储,没有冗余。BTRRFS 中基于每个驱动器的格式,并使用内联 LZO 压缩进行安装。
  • 优点:简单轻量,无raid管理开销
  • 优点:独立故障,在磁盘故障时只有一小部分备份丢失,可以快速重新建立
  • 优势:获得的最大总容量
  • 缺点:容量管理的复杂性——没有一个大容量意味着战略性地平衡特定磁盘上的数据以充分利用它们
  • 缺点:磁盘故障确实会丢失数据
  1. 一个大卷跨所有磁盘的 ZFS RAIDz1/2
  • 优点:1或2个磁盘故障冗余
  • 优点:易于管理,所有内容都集中在一个巨大的体积中 - 空间充足。
  • 缺点:损失 1 或 2 个磁盘的容量

问题:与选项 1 相比,是否存在显着的 ZFS RAID 管理开销会降低阵列的性能?- 在他设计的每个级别以最大限度地提高操作系统和 SSD 之间的磁盘吞吐量的配置中,以每秒 10 千兆比特为单位,ZFS RAID 管理的开销是否会导致性能显着下降和/或 CPU 或内存过载?

谢谢你。

ssd zfs raid5 btrfs hpc
  • 2 个回答
  • 445 Views
Martin Hope
elliotp
Asked: 2018-12-29 02:02:55 +0800 CST

在 Linux 上实现非常快速(300+MB/秒)的文件传输

  • 2

我正在使用高端硬件,但是在尝试移动大量数据时,我在所有情况下都会遇到 cpu 瓶颈。

具体来说,我正在两个 Ubuntu 主机之间移动 2TB 的大型虚拟机映像 (VHD) 文件。

我最近一次尝试用了 200 分钟来传输 2TB。导致传输的吞吐量约为 170MB/秒。

我正在尝试使用基本 arcfour 密码的 netcat 和 scp 等技术。

每端的硬件是 RAID 10 中的 6 个企业级 SSD,位于硬件 RAID 控制器上。256GB 内存和 Xeon V4 CPU。网络为 20Gbe(2 x 10Gbe LACP)。

在所有情况下,网络和磁盘 i/o 都有足够的容量,瓶颈是不断地将 1 个 CPU 核心与 100% 挂钩。

我使用各种方法执行了基本基准测试,如下所示:

30GB 测试文件传输

scp: 真正的 5m1.970s

nc: 真正的 2m41.933s

nc & pigz: 真正的 1m24.139s

但是,因为我 dd 了一个空文件进行测试,我不相信 pigz 必须工作太努力。当我在生产 VHD 文件上尝试 pigz 时,pigz 达到了 1200% 的 CPU 负载,我相信这开始成为瓶颈。因此我最快的时间是由 nc 自己设定的。

nc 在每一端都达到 100% CPU,我假设只是处理从磁盘到网络的 i/o。

我确实考虑过将文件分成块并运行多个 nc 以使用更多内核,但是,其他人可能有更好的建议。

linux
  • 3 个回答
  • 2339 Views
Martin Hope
elliotp
Asked: 2018-09-29 11:06:49 +0800 CST

分区 - 是否需要/推荐 5% 的保留块?

  • 3

我正在执行新的 Ubuntu Server 安装,在硬件 RAID 10、6 x 1.72TB SSD 上,分区的总空间为 5.8TB。该服务器将用于 KVM 虚拟化。

我为 /boot ext4 分配了 500MB

2GB 用于交换

留5.8T换/ext4

在 / 分区保留 5% 的块时,这是我希望能够使用的 290GB 空间。

290GB 的保留块是否过大?我已经阅读了它的用途,但我的意见不一,有人说它只需要和 larges 文件一样大,其他人说它是必需的。

我的直觉是 linux 世界的好人知道他们在做什么,它被设置为 5% 是有原因的,但我想对此发表意见。

ubuntu
  • 2 个回答
  • 6026 Views
Martin Hope
elliotp
Asked: 2018-01-30 08:46:38 +0800 CST

在线时使用 dism 在 Windows Server 上安装驱动程序

  • 2

我们正在云基础架构之间迁移 Windows Server 虚拟机。在某些情况下(HyperV Gen2 UEFI)服务器,系统将无法启动,除非我们安装存储驱动程序以备迁移后启动。

虽然这在使用(例如连接到另一台服务器并注入驱动程序的磁盘)离线时有效:

dism /image:C:\ /add-driver /driver:E:\win7\amd64\viostor.inf

为了简化流程,我们希望在机器在线时安装驱动程序。不幸的是,dism 要求磁盘脱机,返回错误“此命令只能用于脱机映像”。

我们已经尝试使用 pnputil安装驱动程序,但这不起作用,我们认为这是因为 pnputil 是用于插入的硬件,目前没有驱动程序。

有没有办法将驱动程序安装到在线图像中?

windows
  • 1 个回答
  • 11704 Views
Martin Hope
elliotp
Asked: 2017-07-28 13:03:12 +0800 CST

FreeNAS - 在 zpool 中识别故障驱动器

  • 3

我在 OVH 托管的 FreeNas 服务器中有一个故障驱动器。我需要更换驱动器,但我非常清楚他们拉错了驱动器。

FreeNas 不会在其 GUI 中报告任何序列号。到目前为止,我已经完成了以下操作,我不知道如何获取驱动器序列号,或者更好地让 LED 闪烁?

    pool: vol0
     state: DEGRADED
    status: One or more devices could not be opened.  Sufficient replicas exist for
        the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
       see: http://illumos.org/msg/ZFS-8000-2Q
      scan: scrub repaired 0 in 15h23m with 0 errors on Sun Jul  9 23:23:55 2017
config:

    NAME                                            STATE     READ WRITE CKSUM
    vol0                                            DEGRADED     0     0     0
      mirror-0                                      DEGRADED     0     0     0
        4720622759705179538                         UNAVAIL      0    64     0  was /dev/gptid/2a4bad04-4573-11e7-bd76-001e67cb3c7a
        gptid/2af09f67-4573-11e7-bd76-001e67cb3c7a  ONLINE       0     0     0
      mirror-1                                      ONLINE       0     0     0
        gptid/2b9ad3ca-4573-11e7-bd76-001e67cb3c7a  ONLINE       0     0     0
        gptid/2c440267-4573-11e7-bd76-001e67cb3c7a  ONLINE       0     0     0
      mirror-2                                      ONLINE       0     0     0
        gptid/2ce91024-4573-11e7-bd76-001e67cb3c7a  ONLINE       0     0     0
        gptid/2d8f9a88-4573-11e7-bd76-001e67cb3c7a  ONLINE       0     0     0
      mirror-3                                      ONLINE       0     0     0
        gptid/2e376cc0-4573-11e7-bd76-001e67cb3c7a  ONLINE       0     0     0
        gptid/2edb2c23-4573-11e7-bd76-001e67cb3c7a  ONLINE       0     0     0
      mirror-4                                      ONLINE       0     0     0
        gptid/2f8402f6-4573-11e7-bd76-001e67cb3c7a  ONLINE       0     0     0
        gptid/302bfda0-4573-11e7-bd76-001e67cb3c7a  ONLINE       0     0     0
      mirror-5                                      ONLINE       0     0     0
        gptid/30d274f0-4573-11e7-bd76-001e67cb3c7a  ONLINE       0     0     0
        gptid/317ad2a6-4573-11e7-bd76-001e67cb3c7a  ONLINE       0     0     0
    logs
      gptid/cd56ac86-4576-11e7-bd76-001e67cb3c7a    ONLINE       0     0     0

使用 glabel 获取设备:

#glabel status | grep 2af09f67-4573-11e7-bd76-001e67cb3c7a
gptid/2af09f67-4573-11e7-bd76-001e67cb3c7a     N/A  mfisyspd5p2

下一步是什么?

更新:

进一步阅读表明,如果驱动器未连接到 RAID 控制器(全部处于直通模式),则此问题将很简单,因为 smartctl 将提供所需的信息。使用 mfiutil:

#mfiutil show drives
mfi0 Physical Drives:
 9 ( 5589G) JBOD <HGST HUS726060ALS640 A2D0 serial=1EJ48KYH> SCSI-6 E1:S5
10 ( 5589G) JBOD <HGST HUS726060ALS640 A2D0 serial=1EJ49TKH> SCSI-6 E1:S2
11 ( 5589G) JBOD <HGST HUS726060ALS640 A2D0 serial=1EJ48EMH> SCSI-6 E1:S6
12 ( 5589G) JBOD <HGST HUS726060ALS640 A2D0 serial=1EJ4AS6H> SCSI-6 E1:S8
13 ( 5589G) JBOD <HGST HUS726060ALS640 A2D0 serial=1EJ49HWH> SCSI-6 E1:S9
14 ( 5589G) JBOD <HGST HUS726060ALS640 A2D0 serial=1EJ48RDH> SCSI-6 E1:S10
15 ( 5589G) JBOD <HGST HUS726060ALS640 A2D0 serial=1EJ48NVH> SCSI-6 E1:S1
16 ( 5589G) JBOD <HGST HUS726060ALS640 A2D0 serial=1EJ49T1H> SCSI-6 E1:S11
17 ( 5589G) JBOD <HGST HUS726060ALS640 A2D0 serial=1EJ48T9H> SCSI-6 E1:S4
18 ( 5589G) JBOD <HGST HUS726060ALS640 A2D0 serial=1EJ4BAMH> SCSI-6 E1:S7
19 ( 5589G) JBOD <HGST HUS726060ALS640 A2D0 serial=1EJ4A0JH> SCSI-6 E1:S3
20 ( 5589G) JBOD <HGST HUS726060ALS640 A2D0 serial=1EJ4AX8H> SCSI-6 E1:S0
21 (  149G) JBOD <INTEL SSDSC2BB16 0370 serial=BTWL340106TD160MGN> SATA E2:S4

我现在有序列号和设备,如何将两者映射在一起?

zfs
  • 2 个回答
  • 2052 Views
Martin Hope
elliotp
Asked: 2016-12-14 13:59:38 +0800 CST

Ubuntu 16.04 服务器新安装无法通过 Grub(可能的 UEFI 问题)

  • 0

尝试将 Ubuntu 16.04 服务器安装到新初始化的磁盘上。使用 UEFI,和一个 4.5TB/分区。安装无问题后,在重新启动时,服务器将无法通过 Grub。

硬件:

  • 新的超微服务器
  • 硬件 6 x SSD RAID 5 - 4.5TB 虚拟磁盘
  • BIOS 全面更新

安装步骤:

选择 UEFI 虚拟 CD,即 Ubuntu 16.04 服务器。注意 - 我确实选择了 UEFI 虚拟 CD,而不是屏幕截图中突出显示的非 UEFI(我在截屏后意识到)

在此处输入图像描述

Ubuntu 默认引导分区布局,非 LVM,完全未修改。确认分区,包括 ESP 存在。

在此处输入图像描述

安装完成,没有错误。安装后,Ubuntu 在启动菜单中可见:

在此处输入图像描述

无论选择什么选项,系统都会引导至 Grub:

在此处输入图像描述

在 Grub 中,据我了解,ESP 应该安装在 /boot/efi。但是,Grub 显示错误如下,但也可以正常列出 /,但是 / 里面的任何东西,例如 /etc 都有错误,包括 /boot:

在此处输入图像描述

Grub 将分区显示为:

在此处输入图像描述

我不确定如何从这里开始。

ubuntu gpt ubuntu-16.04 uefi
  • 2 个回答
  • 2622 Views
Martin Hope
elliotp
Asked: 2016-04-27 11:15:59 +0800 CST

Openstack Neutron - 创建实例时连接被拒绝 - 我没有想法

  • 0

我已经设置了 OpenStack - 我的第一次。我已按照安装指南(在 Ubuntu 14.04 上)进行操作,并且我相信我一切都正确。但是,在尝试创建实例时出现错误:

实例 e948205a-2287-4b0e-9829-f2c6fe3a93eb 的构建中止:无法建立与 http://127.0.0.1:9696/v2.0/extensions.json的连接

我已经断断续续地调试了大约一个星期,我已经用尽了我在谷歌上找到的所有解决方案,而且我能想到的。

Neutron 正在监听端口:

网络统计-ln | grep 9696 tcp 0
0 0.0.0.0:9696 0.0.0.0:*
听

我也可以从命令行连接到 Neutron:

root@controller:/var/log# neutron ext-list
+---------------------------+-----------------------------------------------+
| alias                     | name                                          |
+---------------------------+-----------------------------------------------+
| default-subnetpools       | Default Subnetpools                           |
| network-ip-availability   | Network IP Availability                       |
| network_availability_zone | Network Availability Zone                     |
| auto-allocated-topology   | Auto Allocated Topology Services              |
| ext-gw-mode               | Neutron L3 Configurable external gateway mode |
| binding                   | Port Binding  
...

我可以使用令牌进行身份验证,并使用下面的 curl 测试手动从 Neutron 获得响应,这会响应预期的数据。

curl -i -H'X-Auth-Token: MY_TOKEN' http://controller:9696/v2.0/extensions.json

我的中子 API 端点:

| 440735e5dd8d468e89de9a8077ea9491 | 区域一 | 中子 | 网络 | 真 | 公共 | http://控制器:9696 |

| 5985d944b02b4148a87cafae8df006c8 | 区域一 | 中子 | 网络 | 真 | 内部 | http://控制器:9696 |

我检查了所有的 Nova 和 Neutron 日志,我看不到任何错误,我重新创建了我的 Neutron 端点,我检查并仔细检查了配置。我不知道如何继续调试或解决方案在哪里。

使用更新的信息进行编辑:

root@controller:~# openstack catalog list
+----------+----------+--------------------------------------------------------------------------+
| Name     | Type     | Endpoints                                                                |
+----------+----------+--------------------------------------------------------------------------+
| neutron  | network  | RegionOne                                                                |
|          |          |   admin: http://controller:9696                                          |
|          |          | RegionOne                                                                |
|          |          |   internal: http://controller:9696                                       |
|          |          | RegionOne                                                                |
|          |          |   public: http://controller:9696                                         |
|          |          |                                                                          |
| nova     | compute  | RegionOne                                                                |
|          |          |   admin: http://controller:8774/v2.1/225f1282f5034949937f5ef71c503dd0    |
|          |          | RegionOne                                                                |
|          |          |   internal: http://controller:8774/v2.1/225f1282f5034949937f5ef71c503dd0 |
|          |          | RegionOne                                                                |
|          |          |   public: http://controller:8774/v2.1/225f1282f5034949937f5ef71c503dd0   |
|          |          |                                                                          |
| keystone | identity | RegionOne                                                                |
|          |          |   admin: http://controller:35357/v3                                      |
|          |          | RegionOne                                                                |
|          |          |   public: http://controller:5000/v3                                      |
|          |          | RegionOne                                                                |
|          |          |   internal: http://controller:5000/v3                                    |
|          |          |                                                                          |
| glance   | image    | RegionOne                                                                |
|          |          |   admin: http://controller:9292                                          |
|          |          | RegionOne                                                                |
|          |          |   public: http://controller:9292                                         |
|          |          | RegionOne                                                                |
|          |          |   internal: http://controller:9292                                       |
|          |          |                                                                          |
+----------+----------+--------------------------------------------------------------------------+

我通过 Horizo​​n 和 cli 创建的中子网络

root@controller:~# neutron net-list
+--------------------------------------+------------------+--------------------------------------------------+
| id                                   | name             | subnets                                          |
+--------------------------------------+------------------+--------------------------------------------------+
| 8a50aef6-b687-483d-ab49-f43460eebdd6 | My Admin Network | d4f840cc-31b9-4d32-963d-3a2110ae5765 10.0.0.0/24 |
| 8bb223ef-828d-4c9a-aa16-15ac13d244f6 | ext-net          |                                                  |
| 98a2606a-3017-48fb-8b60-e18c4a4f1083 | My Network       | b76352ac-dc61-4d75-ba7a-b5b4d76705d0 10.0.0.0/24 |
+--------------------------------------+------------------+--------------------------------------------------+

我的 Neutron Ext 列表如下:

root@controller:~# neutron ext-list
+---------------------------+-----------------------------------------------+
| alias                     | name                                          |
+---------------------------+-----------------------------------------------+
| default-subnetpools       | Default Subnetpools                           |
| network-ip-availability   | Network IP Availability                       |
| network_availability_zone | Network Availability Zone                     |
| auto-allocated-topology   | Auto Allocated Topology Services              |
| ext-gw-mode               | Neutron L3 Configurable external gateway mode |
| binding                   | Port Binding                                  |
| agent                     | agent                                         |
| subnet_allocation         | Subnet Allocation                             |
| l3_agent_scheduler        | L3 Agent Scheduler                            |
| tag                       | Tag support                                   |
| external-net              | Neutron external network                      |
| net-mtu                   | Network MTU                                   |
| availability_zone         | Availability Zone                             |
| quotas                    | Quota management support                      |
| l3-ha                     | HA Router extension                           |
| provider                  | Provider Network                              |
| multi-provider            | Multi Provider Network                        |
| address-scope             | Address scope                                 |
| extraroute                | Neutron Extra Route                           |
| timestamp_core            | Time Stamp Fields addition for core resources |
| router                    | Neutron L3 Router                             |
| extra_dhcp_opt            | Neutron Extra DHCP opts                       |
| dns-integration           | DNS Integration                               |
| security-group            | security-group                                |
| dhcp_agent_scheduler      | DHCP Agent Scheduler                          |
| router_availability_zone  | Router Availability Zone                      |
| rbac-policies             | RBAC Policies                                 |
| standard-attr-description | standard-attr-description                     |
| port-security             | Port Security                                 |
| allowed-address-pairs     | Allowed Address Pairs                         |
| dvr                       | Distributed Virtual Router                    |
+---------------------------+-----------------------------------------------+

使用带有调试的创建命令,我现在在实际错误中获得了一些进一步的信息(最好将其复制并粘贴出来以阅读它):

{u'message': u'Build of instance 3e2f5678-6a4a-478b-8953-d10db929d367 aborted: Unable to establish connection to http://127.0.0.1:9696/v2.0/extensions.json', u'code': 500, u'details': u'  File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 1926, in _do_build_and_run_instance\n    filter_properties)\n  File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 2083, in _build_and_run_instance\n    \'create.error\', fault=e)\n  File "/usr/lib/python2.7/dist-packages/oslo_utils/excutils.py", line 220, in __exit__\n    self.force_reraise()\n  File "/usr/lib/python2.7/dist-packages/oslo_utils/excutils.py", line 196, in force_reraise\n    six.reraise(self.type_, self.value, self.tb)\n  File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 2067, in _build_and_run_instance\n    instance=instance)\n  File "/usr/lib/python2.7/contextlib.py", line 35, in __exit__\n    self.gen.throw(type, value, traceback)\n  File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 2244, in _build_resources\n    reason=six.text_type(exc))\n', u'created': u'2016-04-29T13:56:55Z'} |
openstack openstack-neutron ubuntu-14.04
  • 1 个回答
  • 3112 Views
Martin Hope
elliotp
Asked: 2016-04-25 14:46:29 +0800 CST

创建 vxlan - RTNETLINK 答案:不支持操作

  • 1

大约 30 分钟前我对 vxlan 一无所知,但是我在安装 OpenStack 时遇到了一个问题,这是与 vxlan 相关的。

尝试在 Ubuntu 14.04(内核 3.14.32)上的接口上创建 vxlan:

ip link add vxlan10 type vxlan id 10 group 239.0.0.10 ttl 4 dev eth0
RTNETLINK answers: Operation not supported

谷歌对此没有提供任何信息——这似乎不是一个普遍的问题。

诚然,上面的命令可能不正确,因为我从其他地方举了一个例子。但是,我不确定这是硬件还是内核支持问题?

ubuntu networking vlan
  • 1 个回答
  • 1645 Views
Martin Hope
elliotp
Asked: 2016-04-22 04:48:52 +0800 CST

Ubuntu 作为带有 iptables 的 NAT 网关

  • 3

我正在尝试将 Ubuntu 14.04 配置为充当私有网络和公共网络之间的 NAT 网关。

  • 公共接口->eth0 (178.x.x.x)
  • 私有接口->eth0:0 (192.168.206.190/17)

我尝试了许多iptables规则组合,但我无法让流量路由出去。我已经确认网关可以看到互联网,私网的主机可以看到网关,并且默认网关设置正确。

net.ipv4.ip_forward=1设置在sysctl.

我的iptables规则如下。我的iptables经验很少,所以很可能我错过了一些东西。

# Generated by iptables-save v1.4.21 on Thu Apr 21 12:38:44 2016
*security
:INPUT ACCEPT [215:14912]
:FORWARD ACCEPT [0:0]
:OUTPUT ACCEPT [133:16208]
COMMIT
# Completed on Thu Apr 21 12:38:44 2016
# Generated by iptables-save v1.4.21 on Thu Apr 21 12:38:44 2016
*raw
:PREROUTING ACCEPT [215:14912]
:OUTPUT ACCEPT [133:16208]
COMMIT
# Completed on Thu Apr 21 12:38:44 2016
# Generated by iptables-save v1.4.21 on Thu Apr 21 12:38:44 2016
*nat
:PREROUTING ACCEPT [3:132]
:INPUT ACCEPT [3:132]
:OUTPUT ACCEPT [0:0]
:POSTROUTING ACCEPT [0:0]
-A POSTROUTING -o eth0 -j MASQUERADE
COMMIT
# Completed on Thu Apr 21 12:38:44 2016
# Generated by iptables-save v1.4.21 on Thu Apr 21 12:38:44 2016
*mangle
:PREROUTING ACCEPT [215:14912]
:INPUT ACCEPT [215:14912]
:FORWARD ACCEPT [0:0]
:OUTPUT ACCEPT [133:16208]
:POSTROUTING ACCEPT [133:16208]
COMMIT
# Completed on Thu Apr 21 12:38:44 2016
# Generated by iptables-save v1.4.21 on Thu Apr 21 12:38:44 2016
*filter
:INPUT ACCEPT [46:3296]
:FORWARD ACCEPT [0:0]
:OUTPUT ACCEPT [28:3484]
-A FORWARD -i eth0:0 -o eth0 -m state --state RELATED,ESTABLISHED -j ACCEPT
-A FORWARD -i eth0 -o eth0:0 -j ACCEPT
COMMIT
# Completed on Thu Apr 21 12:38:44 2016

iptables -L -v

Chain INPUT (policy ACCEPT 15 packets, 1044 bytes)
 pkts bytes target     prot opt in     out     source               destination

Chain FORWARD (policy ACCEPT 0 packets, 0 bytes)
 pkts bytes target     prot opt in     out     source               destination
    0     0 ACCEPT     all  --  eth0:0 eth0    anywhere             anywhere             state RELATED,ESTABLISHED
    0     0 ACCEPT     all  --  eth0   eth0:0  anywhere             anywhere

Chain OUTPUT (policy ACCEPT 10 packets, 1016 bytes)
 pkts bytes target     prot opt in     out     source               destination

这是专用网络上主机的配置:

netstat -r
Kernel IP routing table
Destination     Gateway         Genmask         Flags   MSS Window  irtt Iface
default         nat             0.0.0.0         UG        0 0          0 eth0
192.168.128.0   *               255.255.128.0   U         0 0          0 eth0

ping 'nat' 确认主机可以看到 'nat':

ping nat
PING nat (192.168.206.190) 56(84) bytes of data.
64 bytes from nat (192.168.206.190): icmp_seq=1 ttl=64 time=0.359 ms

8.8.8.8 的 ping 显示没有流量路由:

ping 8.8.8.8
PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data.
^C
--- 8.8.8.8 ping statistics ---
3 packets transmitted, 0 received, 100% packet loss, time 1999ms
ubuntu nat iptables gateway
  • 2 个回答
  • 2255 Views
Martin Hope
elliotp
Asked: 2015-07-01 07:51:18 +0800 CST

Crontab 一周中的某些天发生冲突

  • -1

我已经在 centos 6 crontab 上设置了备份轮换,一个脚本应该在周一到周六运行,另一个在周日运行,而不是在每月 1 日。然而,每周(仅限周日)脚本每晚都在运行,而每日脚本则在周日运行。由 cron.log 确认

#Daily - Midnight, Mon-Sat, Not on the 1st of the Month
0 0 2-31 * 1-6 script_daily

#Weekly - Midnight, Sunday, Not on the 1st of the Month
0 0 2-31 * 0 script_weekly

我无法弄清楚我做错了什么?

编辑:我已经从 cron 日志中提取了相关行。28 日是星期天。

Jun 28 00:00:01 backup CROND[2000]: (root) CMD (script_daily)
Jun 28 00:00:01 backup CROND[2004]: (root) CMD (script_weekly)
Jun 29 00:00:01 backup CROND[9438]: (root) CMD (script_daily)
Jun 29 00:00:01 backup CROND[9443]: (root) CMD (script_weekly)
Jun 30 00:00:02 backup CROND[6893]: (root) CMD (script_daily)
Jun 30 00:00:02 backup CROND[6898]: (root) CMD (script_weekly)
linux
  • 1 个回答
  • 349 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve