AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / user-2518

slm's questions

Martin Hope
slm
Asked: 2019-02-13 13:47:50 +0800 CST

已经离线一段时间的 BIND 从站的预期行为是什么?

  • 2

我们有一个 BIND 从属服务器无法将任何区域数据写入文件系统的情况。当此服务器重新启动并 BIND 重新启动时,它会使用比当前主服务器上的旧版本的区域文件启动。

在此期间,它能够从主设备接收 IXFR 传输,只是无法将这些更改持久保存到 HDD。

这让我想知道 BIND 服务器的预期行为是什么?在进入服务之前,它不会对其主人进行一些检查,这似乎是一个设计缺陷。

作为参考,这是从属端的绑定版本:

$ rpm -q bind
bind-9.8.2-0.47.rc1.el6_8.2.x86_64

我确实找到了这个参考:

  • 为区域传输有效地调整 BIND 配置(尤其是对于许多频繁更新的区域)

其中规定了以下内容:

区域通知和刷新

除了重新启动服务器或使用 rndc 命令强制区域传输之外,还有两种机制会导致从属服务器检查其区域副本是否是最新的。检查和更新的过程称为区域刷新:

我将此解释为 BIND 在启动阶段没有做任何特别的事情。

linux
  • 1 个回答
  • 218 Views
Martin Hope
slm
Asked: 2015-12-04 13:47:07 +0800 CST

将 WebSphere 的默认 Java SDK 从 IBM 的 JVM 更改为 Oracle 的?

  • 0

我看到有人提到可以更改 WebSphere 8.x,以便它使用 Oracle 的 JVM 而不是 IBM 包含的 JVM。有谁知道如何做到这一点?

这似乎是可能的,但我没有看到任何地方提到的方法来说明如何去做。

java
  • 1 个回答
  • 1390 Views
Martin Hope
slm
Asked: 2015-08-04 15:27:38 +0800 CST

治疗 GlusterFS 似乎不起作用?

  • 0

我最近更换了一个在 GlusterFS 集群中提供砖块的 HDD。我能够将该 HDD 映射回砖块,然后让 GlusterFS 成功复制到它。

然而,整个过程有一个问题似乎对我不起作用。我试图用替换的砖块在卷上运行“heal”命令,但会不断遇到这个问题:

$ gluster volume heal nova
Locking failed on c551316f-7218-44cf-bb36-befe3d3df34b. Please check log file for details.
Locking failed on ae62c691-ae55-4c99-8364-697cb3562668. Please check log file for details.
Locking failed on cb78ba3c-256f-4413-ae7e-aa5c0e9872b5. Please check log file for details.
Locking failed on 79a6a414-3569-482c-929f-b7c5da16d05e. Please check log file for details.
Locking failed on 5f43c6a4-0ccd-424a-ae56-0492ec64feeb. Please check log file for details.
Locking failed on c7416c1f-494b-4a95-b48d-6c766c7bce14. Please check log file for details.
Locking failed on 6c0111fc-b5e7-4350-8be5-3179a1a5187e. Please check log file for details.
Locking failed on 88fcb687-47aa-4921-b3ab-d6c3b330b32a. Please check log file for details.
Locking failed on d73de03a-0f66-4619-89ef-b73c9bbd800e. Please check log file for details.
Locking failed on 4a780f57-37e4-4f1b-9c34-187a0c7e44bf. Please check log file for details.

日志基本上与上述内容相呼应,特别是:

$ tail etc-glusterfs-glusterd.vol.log
[2015-08-03 23:08:03.289249] E [glusterd-syncop.c:562:_gd_syncop_mgmt_lock_cbk] 0-management: Could not find peer with ID d827a48e-627f-0000-0a00-000000000000
[2015-08-03 23:08:03.289258] E [glusterd-syncop.c:111:gd_collate_errors] 0-: Locking failed on c7416c1f-494b-4a95-b48d-6c766c7bce14. Please check log file for details.
[2015-08-03 23:08:03.289279] W [rpc-clnt-ping.c:199:rpc_clnt_ping_cbk] 0-management: socket or ib related error
[2015-08-03 23:08:03.289827] E [glusterd-syncop.c:562:_gd_syncop_mgmt_lock_cbk] 0-management: Could not find peer with ID d827a48e-627f-0000-0a00-000000000000
[2015-08-03 23:08:03.289858] E [glusterd-syncop.c:111:gd_collate_errors] 0-: Locking failed on d73de03a-0f66-4619-89ef-b73c9bbd800e. Please check log file for details.
[2015-08-03 23:08:03.290509] E [glusterd-syncop.c:562:_gd_syncop_mgmt_lock_cbk] 0-management: Could not find peer with ID d827a48e-627f-0000-0a00-000000000000
[2015-08-03 23:08:03.290529] E [glusterd-syncop.c:111:gd_collate_errors] 0-: Locking failed on 4a780f57-37e4-4f1b-9c34-187a0c7e44bf. Please check log file for details.
[2015-08-03 23:08:03.290597] E [glusterd-syncop.c:1804:gd_sync_task_begin] 0-management: Locking Peers Failed.
[2015-08-03 23:07:03.351603] I [MSGID: 106132] [glusterd-proc-mgmt.c:83:glusterd_proc_stop] 0-management: bitd already stopped
[2015-08-03 23:07:03.351644] I [MSGID: 106132] [glusterd-proc-mgmt.c:83:glusterd_proc_stop] 0-management: scrub already stopped

这些其他日志在我尝试上述操作时有消息:

$ ls -ltr
-rw-------   1 root root      41704 Aug  2 12:07 glfsheal-nova.log
-rw-------   1 root root      15986 Aug  2 12:07 cmd_history.log-20150802
-rw-------   1 root root     290359 Aug  3 19:07 var-lib-nova-instances.log
-rw-------   1 root root     221829 Aug  3 19:07 glustershd.log
-rw-------   1 root root     195472 Aug  3 19:07 nfs.log
-rw-------   1 root root   61831116 Aug  3 19:07 var-lib-nova-mnt-92ef2ec54fd18595ed18d8e6027a1b3d.log
-rw-------   1 root root       3504 Aug  3 19:08 cmd_history.log
-rw-------   1 root root      89294 Aug  3 19:08 cli.log
-rw-------   1 root root     136421 Aug  3 19:08 etc-glusterfs-glusterd.vol.log

纵观它们,尚不清楚其中是否与这个特定问题有关。

glusterfs
  • 1 个回答
  • 2365 Views
Martin Hope
slm
Asked: 2015-08-02 13:26:31 +0800 CST

如何将替换 HDD 添加到 glusterfs 卷?

  • 1

我最近继承了一个 glusterfs 设置,我对它的了解几乎为零。其中一个为卷提供砖块的 HDD 发生故障,我能够更换该 HDD,并且主机操作系统可以看到该 HDD。我已成功格式化它,它位于已更换的 HDD 现在作为它更换的 HDD 安装的位置。

这是我需要帮助的地方。

我相信我需要运行某种修复命令,但对如何使用 GlusterFS 执行此操作感到困惑。这是一些背景信息。

$ mount |grep glus
/dev/sdc1 on /data/glusterfs/sdc1 type xfs (rw,relatime,attr2,inode64,noquota)
/dev/sdg1 on /data/glusterfs/sdg1 type xfs (rw,relatime,attr2,inode64,noquota)
/dev/sdf1 on /data/glusterfs/sdf1 type xfs (rw,relatime,attr2,inode64,noquota)
/dev/sdb1 on /data/glusterfs/sdb1 type xfs (rw,relatime,attr2,inode64,noquota)
/dev/sdd1 on /data/glusterfs/sdd1 type xfs (rw,relatime,attr2,inode64,noquota)
127.0.0.1:/nova on /var/lib/nova/instances type fuse.glusterfs (rw,relatime,user_id=0,group_id=0,default_permissions,allow_other,max_read=131072)
127.0.0.1:/cinder on /var/lib/nova/mnt/92ef2ec54fd18595ed18d8e6027a1b3d type fuse.glusterfs (rw,relatime,user_id=0,group_id=0,default_permissions,allow_other,max_read=131072)
/dev/sde1 on /data/glusterfs/sde1 type xfs (rw,relatime,attr2,inode64,noquota)

我更换的硬盘是/dev/sde1. 我已经安装了它(如上所示),当我运行时,glusterfs volume info我看到它在那里列出:

$ gluster volume info nova

Volume Name: nova
Type: Distributed-Replicate
Volume ID: f0d72d64-288c-4e72-9c53-2d16ce5687ac
Status: Started
Number of Bricks: 10 x 2 = 20
Transport-type: tcp
Bricks:
Brick1: icicle07:/data/glusterfs/sdb1/brick
Brick2: icicle08:/data/glusterfs/sdb1/brick
Brick3: icicle09:/data/glusterfs/sdb1/brick
Brick4: icicle10:/data/glusterfs/sdb1/brick
Brick5: icicle11:/data/glusterfs/sdb1/brick
Brick6: icicle07:/data/glusterfs/sdc1/brick
Brick7: icicle08:/data/glusterfs/sdc1/brick
Brick8: icicle09:/data/glusterfs/sdc1/brick
Brick9: icicle10:/data/glusterfs/sdc1/brick
Brick10: icicle11:/data/glusterfs/sdc1/brick
Brick11: icicle07:/data/glusterfs/sdd1/brick
Brick12: icicle08:/data/glusterfs/sdd1/brick
Brick13: icicle09:/data/glusterfs/sdd1/brick
Brick14: icicle10:/data/glusterfs/sdd1/brick
Brick15: icicle11:/data/glusterfs/sdd1/brick
Brick16: icicle07:/data/glusterfs/sde1/brick
Brick17: icicle08:/data/glusterfs/sde1/brick
Brick18: icicle09:/data/glusterfs/sde1/brick
Brick19: icicle10:/data/glusterfs/sde1/brick
Brick20: icicle11:/data/glusterfs/sde1/brick

尝试运行修复命令会导致:

$ gluster volume heal nova full
Locking failed on c551316f-7218-44cf-bb36-befe3d3df34b. Please check log file for details.
Locking failed on 79a6a414-3569-482c-929f-b7c5da16d05e. Please check log file for details.
Locking failed on ae62c691-ae55-4c99-8364-697cb3562668. Please check log file for details.
Locking failed on 5f43c6a4-0ccd-424a-ae56-0492ec64feeb. Please check log file for details.
Locking failed on cb78ba3c-256f-4413-ae7e-aa5c0e9872b5. Please check log file for details.
Locking failed on 6c0111fc-b5e7-4350-8be5-3179a1a5187e. Please check log file for details.
Locking failed on 88fcb687-47aa-4921-b3ab-d6c3b330b32a. Please check log file for details.
Locking failed on d73de03a-0f66-4619-89ef-b73c9bbd800e. Please check log file for details.
Locking failed on c7416c1f-494b-4a95-b48d-6c766c7bce14. Please check log file for details.
Locking failed on 4a780f57-37e4-4f1b-9c34-187a0c7e44bf. Please check log file for details.

尝试再次运行该命令会导致:

$ gluster volume heal nova full
Another transaction is in progress. Please try again after sometime.

重新启动 glusterd 将刷新该锁,但我不知道上面的愈合命令实际上试图告诉我什么。我发现日志没有用,因为有几个,而且我并不完全清楚哪些与什么相关:

$ ls -ltr /var/log/glusterfs
...
rw------- 1 root root      41711 Aug  1 00:51 glfsheal-nova.log-20150801
-rw------- 1 root root          0 Aug  1 03:39 glfsheal-nova.log
-rw------- 1 root root       4297 Aug  1 14:29 cmd_history.log-20150531
-rw------- 1 root root     830449 Aug  1 17:03 var-lib-nova-instances.log
-rw------- 1 root root     307535 Aug  1 17:03 glustershd.log
-rw------- 1 root root     255801 Aug  1 17:03 nfs.log
-rw------- 1 root root       4544 Aug  1 17:12 cmd_history.log
-rw------- 1 root root      28063 Aug  1 17:12 cli.log
-rw------- 1 root root   17370562 Aug  1 17:14 etc-glusterfs-glusterd.vol.log
-rw------- 1 root root 1759170187 Aug  1 17:14 var-lib-nova-mnt-92ef2ec54fd18595ed18d8e6027a1b3d.log

任何指导将不胜感激。

编辑#1

glusterfsd当系统尝试为我添加回的砖/硬盘驱动器调出相应的时,似乎系统出现问题。这是日志文件的输出/var/log/glusterfs/bricks/data-glusterfs-sde1-brick.log::

[2015-08-01 21:40:25.143963] I [MSGID: 100030] [glusterfsd.c:2294:main] 0-/usr/sbin/glusterfsd: Started running /usr/sbin/glusterfsd version 3.7.0 (args: /usr/sbin/glusterfsd -s icicle11 --volfile-id nova.icicle11.data-glusterfs-sde1-brick -p /var/lib/glusterd/vols/nova/run/icicle11-data-glusterfs-sde1-brick.pid -S /var/run/gluster/d0a51f364706915faa35c6cca46e9ce6.socket --brick-name /data/glusterfs/sde1/brick -l /var/log/glusterfs/bricks/data-glusterfs-sde1-brick.log --xlator-option *-posix.glusterd-uuid=5e09f3ec-bfbc-490b-bd93-8e083e8ebd05 --brick-port 49155 --xlator-option nova-server.listen-port=49155)
[2015-08-01 21:40:25.190863] I [event-epoll.c:629:event_dispatch_epoll_worker] 0-epoll: Started thread with index 1
[2015-08-01 21:40:48.359478] I [graph.c:269:gf_add_cmdline_options] 0-nova-server: adding option 'listen-port' for volume 'nova-server' with value '49155'
[2015-08-01 21:40:48.359513] I [graph.c:269:gf_add_cmdline_options] 0-nova-posix: adding option 'glusterd-uuid' for volume 'nova-posix' with value '5e09f3ec-bfbc-490b-bd93-8e083e8ebd05'
[2015-08-01 21:40:48.359696] I [server.c:392:_check_for_auth_option] 0-/data/glusterfs/sde1/brick: skip format check for non-addr auth option auth.login./data/glusterfs/sde1/brick.allow
[2015-08-01 21:40:48.359709] I [server.c:392:_check_for_auth_option] 0-/data/glusterfs/sde1/brick: skip format check for non-addr auth option auth.login.a9c47852-7dcf-4f89-80e5-110101943f36.password
[2015-08-01 21:40:48.359719] I [event-epoll.c:629:event_dispatch_epoll_worker] 0-epoll: Started thread with index 2
[2015-08-01 21:40:48.360606] I [rpcsvc.c:2213:rpcsvc_set_outstanding_rpc_limit] 0-rpc-service: Configured rpc.outstanding-rpc-limit with value 64
[2015-08-01 21:40:48.360679] W [options.c:936:xl_opt_validate] 0-nova-server: option 'listen-port' is deprecated, preferred is 'transport.socket.listen-port', continuing with correction
[2015-08-01 21:40:48.361713] E [ctr-helper.c:250:extract_ctr_options] 0-gfdbdatastore: CTR Xlator is disabled.
[2015-08-01 21:40:48.361745] W [gfdb_sqlite3.h:238:gfdb_set_sql_params] 0-nova-changetimerecorder: Failed to retrieve sql-db-pagesize from params.Assigning default value: 4096
[2015-08-01 21:40:48.361762] W [gfdb_sqlite3.h:238:gfdb_set_sql_params] 0-nova-changetimerecorder: Failed to retrieve sql-db-cachesize from params.Assigning default value: 1000
[2015-08-01 21:40:48.361774] W [gfdb_sqlite3.h:238:gfdb_set_sql_params] 0-nova-changetimerecorder: Failed to retrieve sql-db-journalmode from params.Assigning default value: wal
[2015-08-01 21:40:48.361795] W [gfdb_sqlite3.h:238:gfdb_set_sql_params] 0-nova-changetimerecorder: Failed to retrieve sql-db-wal-autocheckpoint from params.Assigning default value: 1000
[2015-08-01 21:40:48.361812] W [gfdb_sqlite3.h:238:gfdb_set_sql_params] 0-nova-changetimerecorder: Failed to retrieve sql-db-sync from params.Assigning default value: normal
[2015-08-01 21:40:48.361825] W [gfdb_sqlite3.h:238:gfdb_set_sql_params] 0-nova-changetimerecorder: Failed to retrieve sql-db-autovacuum from params.Assigning default value: none
[2015-08-01 21:40:48.362666] I [trash.c:2363:init] 0-nova-trash: no option specified for 'eliminate', using NULL
[2015-08-01 21:40:48.362906] E [posix.c:5894:init] 0-nova-posix: Extended attribute trusted.glusterfs.volume-id is absent
[2015-08-01 21:40:48.362922] E [xlator.c:426:xlator_init] 0-nova-posix: Initialization of volume 'nova-posix' failed, review your volfile again
[2015-08-01 21:40:48.362930] E [graph.c:322:glusterfs_graph_init] 0-nova-posix: initializing translator failed
[2015-08-01 21:40:48.362956] E [graph.c:661:glusterfs_graph_activate] 0-graph: init failed
[2015-08-01 21:40:48.363612] W [glusterfsd.c:1219:cleanup_and_exit] (--> 0-: received signum (0), shutting down

编辑#2

好的,所以一个问题似乎是已安装砖的文件系统上不存在扩展属性。假设此命令可以解决此问题:

$ grep volume-id /var/lib/glusterd/vols/nova/info | cut -d= -f2 | sed 's/-//g'
f0d72d64288c4e729c532d16ce5687ac
$ setfattr -n trusted.glusterfs.volume-id -v 0xf0d72d64288c4e729c532d16ce5687ac /data/glusterfs/sde1

然而,我仍然收到上述关于该属性不存在的警告:

[2015-08-01 18:44:50.481350] E [posix.c:5894:init] 0-nova-posix:扩展属性trusted.glusterfs.volume-id 不存在

完整输出glusterd restart:

[2015-08-01 22:03:41.467668] I [MSGID: 100030] [glusterfsd.c:2294:main] 0-/usr/sbin/glusterfsd: Started running /usr/sbin/glusterfsd version 3.7.0 (args: /usr/sbin/glusterfsd -s icicle11 --volfile-id nova.icicle11.data-glusterfs-sde1-brick -p /var/lib/glusterd/vols/nova/run/icicle11-data-glusterfs-sde1-brick.pid -S /var/run/gluster/d0a51f364706915faa35c6cca46e9ce6.socket --brick-name /data/glusterfs/sde1/brick -l /var/log/glusterfs/bricks/data-glusterfs-sde1-brick.log --xlator-option *-posix.glusterd-uuid=5e09f3ec-bfbc-490b-bd93-8e083e8ebd05 --brick-port 49155 --xlator-option nova-server.listen-port=49155)
[2015-08-01 22:03:41.514878] I [event-epoll.c:629:event_dispatch_epoll_worker] 0-epoll: Started thread with index 1
[2015-08-01 22:04:00.334285] I [graph.c:269:gf_add_cmdline_options] 0-nova-server: adding option 'listen-port' for volume 'nova-server' with value '49155'
[2015-08-01 22:04:00.334330] I [graph.c:269:gf_add_cmdline_options] 0-nova-posix: adding option 'glusterd-uuid' for volume 'nova-posix' with value '5e09f3ec-bfbc-490b-bd93-8e083e8ebd05'
[2015-08-01 22:04:00.334518] I [server.c:392:_check_for_auth_option] 0-/data/glusterfs/sde1/brick: skip format check for non-addr auth option auth.login./data/glusterfs/sde1/brick.allow
[2015-08-01 22:04:00.334529] I [server.c:392:_check_for_auth_option] 0-/data/glusterfs/sde1/brick: skip format check for non-addr auth option auth.login.a9c47852-7dcf-4f89-80e5-110101943f36.password
[2015-08-01 22:04:00.334540] I [event-epoll.c:629:event_dispatch_epoll_worker] 0-epoll: Started thread with index 2
[2015-08-01 22:04:00.335316] I [rpcsvc.c:2213:rpcsvc_set_outstanding_rpc_limit] 0-rpc-service: Configured rpc.outstanding-rpc-limit with value 64
[2015-08-01 22:04:00.335371] W [options.c:936:xl_opt_validate] 0-nova-server: option 'listen-port' is deprecated, preferred is 'transport.socket.listen-port', continuing with correction
[2015-08-01 22:04:00.336170] E [ctr-helper.c:250:extract_ctr_options] 0-gfdbdatastore: CTR Xlator is disabled.
[2015-08-01 22:04:00.336190] W [gfdb_sqlite3.h:238:gfdb_set_sql_params] 0-nova-changetimerecorder: Failed to retrieve sql-db-pagesize from params.Assigning default value: 4096
[2015-08-01 22:04:00.336197] W [gfdb_sqlite3.h:238:gfdb_set_sql_params] 0-nova-changetimerecorder: Failed to retrieve sql-db-cachesize from params.Assigning default value: 1000
[2015-08-01 22:04:00.336211] W [gfdb_sqlite3.h:238:gfdb_set_sql_params] 0-nova-changetimerecorder: Failed to retrieve sql-db-journalmode from params.Assigning default value: wal
[2015-08-01 22:04:00.336217] W [gfdb_sqlite3.h:238:gfdb_set_sql_params] 0-nova-changetimerecorder: Failed to retrieve sql-db-wal-autocheckpoint from params.Assigning default value: 1000
[2015-08-01 22:04:00.336235] W [gfdb_sqlite3.h:238:gfdb_set_sql_params] 0-nova-changetimerecorder: Failed to retrieve sql-db-sync from params.Assigning default value: normal
[2015-08-01 22:04:00.336241] W [gfdb_sqlite3.h:238:gfdb_set_sql_params] 0-nova-changetimerecorder: Failed to retrieve sql-db-autovacuum from params.Assigning default value: none
[2015-08-01 22:04:00.336951] I [trash.c:2363:init] 0-nova-trash: no option specified for 'eliminate', using NULL
[2015-08-01 22:04:00.337131] E [posix.c:5894:init] 0-nova-posix: Extended attribute trusted.glusterfs.volume-id is absent
[2015-08-01 22:04:00.337142] E [xlator.c:426:xlator_init] 0-nova-posix: Initialization of volume 'nova-posix' failed, review your volfile again
[2015-08-01 22:04:00.337148] E [graph.c:322:glusterfs_graph_init] 0-nova-posix: initializing translator failed
[2015-08-01 22:04:00.337154] E [graph.c:661:glusterfs_graph_activate] 0-graph: init failed
[2015-08-01 22:04:00.337629] W [glusterfsd.c:1219:cleanup_and_exit] (--> 0-: received signum (0), shutting down
glusterfs
  • 1 个回答
  • 2705 Views
Martin Hope
slm
Asked: 2015-06-09 18:21:41 +0800 CST

Nginx 上游从 serverA 故障转移到 serverB,然后回到 serverA,为什么?

  • 0

背景

我有以下 Nginx 配置,它负载平衡在 2 个不同服务器上运行的 2 个 Tomcat 服务器:

   ### http://nginx.org/en/docs/http/ngx_http_upstream_module.html#hash
   upstream backend_w_affinity { 
     hash $request_uri consistent;
     server 192.168.110.11:8080;
     server 192.168.110.12:8080; 
   }

   server {
            listen 80 default_server;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

            location ~ ^/path/to/rest/endpoint$ { proxy_pass http://backend_w_affinity; }
  }

当我使用以下curl命令在 Nginx 驱动流量时,它似乎很好。

$ watch "curl -iI http://10.128.13.153/path/to/rest/endpoint"
HTTP/1.1 401 Unauthorized
Server: nginx/1.8.0
Date: Tue, 09 Jun 2015 01:31:13 GMT
Content-Type: application/xml;charset=ISO-8859-1
Content-Length: 231
Connection: keep-alive

注意:我意识到我得到了上面的 401。肯定有 Tomcat 启动了,如果我更改路径,使其指向 Tomcat 中的静态页面,这样我得到 200 个,它的行为仍然相同,所以目前这似乎不是问题。

最初看起来不错

运行上述curl命令后,我的所有流量都被定向到第一个 Tomcat 服务器。如果我停止 Tomcat,那么所有流量都会故障转移到第二个 Tomcat 服务器。

我的问题

当我恢复第一台 Tomcat 服务器时,我希望所有流量现在都保留在第二台服务器上。但是,一旦我将其恢复,流量就会被引导回第一个 Tomcat 服务器。

我怎样才能获得 Nginx,将流量留在第二台服务器上,而不是将其重定向回来?

nginx
  • 1 个回答
  • 1267 Views
Martin Hope
slm
Asked: 2014-06-14 07:41:47 +0800 CST

确定哪些 MAC 地址通过 SNMP 连接到 Netgear GS724T 上的给定端口?

  • 3

在查看我们的 GS724T Netgear 交换机的输出时,snmpwalk我很惊讶它没有列出连接的 MAC 地址和/或使用交换机上的给定端口。这似乎是有用的信息。这只是GS724T的限制吗?我看到它被标记为“智能交换机”,这似乎表明它低于完全托管的交换机,但是像收集 MAC 一样基本的东西似乎应该包括在内,即使在像这样的较低级别的交换机中也是如此.

当我运行以下命令时,我只会获取每个端口上交换机的 MAC 地址。

$ snmpwalk -v2c -c public switch01 mib-2.interfaces
IF-MIB::ifPhysAddress.1 = STRING: 84:1b:5e:6f:65:21
IF-MIB::ifPhysAddress.2 = STRING: 84:1b:5e:6f:65:21
IF-MIB::ifPhysAddress.3 = STRING: 84:1b:5e:6f:65:21
IF-MIB::ifPhysAddress.4 = STRING: 84:1b:5e:6f:65:21
IF-MIB::ifPhysAddress.5 = STRING: 84:1b:5e:6f:65:21
IF-MIB::ifPhysAddress.6 = STRING: 84:1b:5e:6f:65:21
IF-MIB::ifPhysAddress.7 = STRING: 84:1b:5e:6f:65:21
IF-MIB::ifPhysAddress.8 = STRING: 84:1b:5e:6f:65:21
IF-MIB::ifPhysAddress.9 = STRING: 84:1b:5e:6f:65:21
...

我在这里缺少一些基本的东西吗?

hardware
  • 1 个回答
  • 1698 Views
Martin Hope
slm
Asked: 2013-01-07 01:01:56 +0800 CST

如何在新服务器上恢复 Windows 2008R2 AD 快照?

  • 0

我们一直在使用 Win2008R2 的AD快照功能对我们的AD域执行每晚备份。我试图弄清楚我需要执行哪些步骤才能使用这些夜间备份之一AD在第二台服务器上恢复我们的域。

这些是我们用来备份的命令AD DOM:

1.创建一个新的快照

echo **** create a new snapshot **** >> %LOG% 2>>&1
ntdsutil snapshot "activate instance ntds" create quit quit >> %LOG% 2>>&1

2.挂载快照

echo **** mount the new snapshot **** >> %LOG% 2>>&1
ntdsutil snapshot "list all" "mount 1" quit quit >> %LOG% 2>>&1

3.复制NTDS快照到备份目录

echo **** backup the snapshot files **** >> %LOG% 2>>&1
c:
cd "\*SNAP*\WINDOWS\NTDS"
robocopy . "%BUDIR%" /E /Z /NFL /NDL /R:3 /LOG+:"%LOG%"

我想弄清楚的是如何在第二台计算机上ntdsutil安装/恢复此AD快照,以便它现在是我们的Master AD服务器。

编辑#1

经过更多挖掘后,@Greg Askew 的从媒体安装 (IFM)方法似乎对我们不起作用。我应该在最初的问题中提到这一点,但没有意识到这很重要。我们正在尝试创建现有主服务器的备份,AD DS并希望能够将其恢复到第二台服务器,作为我们Disaster Recovery (DR)流程的一部分。根据这个博客:

...是重新安装域控制器并使其同步的一种快速有效的方法(在大多数情况下,这是处理故障副本/域控制器的正确方法)。对于“从媒体安装”这个概念存在一些常见的误解,我认为该操作是否可以完全离线或在线执行,简短的回答是:不可以。它不能离线执行;您必须在与 IFM 源相同的域中与至少一个可写域控制器联机,即使那样您也可能无法完全高效并导致复制发生......

看起来您不能使用该IFM方法来还原域中的第一台服务器。一个已经必须在域中。因此IFM,这只是进行“在线”恢复的一个选项,而不是“离线”,我们的情况就是如此。

active-directory
  • 2 个回答
  • 3499 Views
Martin Hope
slm
Asked: 2013-01-05 07:43:12 +0800 CST

如何在引导 Windows 2008R2 KVM 来宾 VM 时访问 F8 引导菜单?

  • 0

愚蠢的问题,但这不起作用,似乎应该。是否有使用访问引导来宾 VM 的引导菜单的技巧KVM?我正在使用virt-manager0.8.7 运行虚拟机。KVM服务器是一台运行CentOS 6.3qemu-kvm-0.12.1.2-2.295.el6_3.8.x86_64的机器。来宾是Windows 2008R2。

我将其添加到来宾 VM 的 XML 中:

% virsh edit DR-01
...
  <os>
    <type arch='x86_64' machine='rhel5.4.0'>hvm</type>
    <boot dev='hd'/>
    <bootmenu enable='yes'/>
  </os>

不给我F8击键的能力。任何想法如何完成这个?

linux
  • 2 个回答
  • 11967 Views
Martin Hope
slm
Asked: 2012-12-13 14:20:00 +0800 CST

有什么方法可以在 virt-manager 中释放对 KVM 来宾的关注而无需单击 Ctrl_L + Alt_L?

  • 12

有没有一种方法可以将我的鼠标移入和移出 KVM 来宾,virt-manager而无需单击以获得窗口焦点并通过按Ctrl_L+释放焦点Alt_L?

背景

我通常从用于管理系统上运行的来宾 KVM 的Fedora 14系统进行连接。为了查看它是否重要,我尝试使用&的这些其他版本来查看它是否是版本问题:virt-managerCentOS 5virt-managerlibvirt

OS            virt-manager       libvirt       Steals focus?
--            ------------       -------       -------------
Fedora 14     0.8.7-2            0.8.3-10      Yes
CentOS 5      0.6.1-16           0.8.2-25      Yes
CentOS 6      0.9.0-14           0.9.10-21     Yes

不确定它是否重要,但来宾 VM 是Win2008R2,但我已经看到其他操作系统作为来宾存在同样的问题。

这是来宾虚拟机在我点击之前和之后的屏幕截图,显示它正在窃取焦点。

               单击前访客 VM 的 ss

               单击后访客 VM 的 ss

编辑#1

我刚刚尝试了@tpow推荐的解决方案,这似乎是问题所在。手动添加平板电脑输入设备可以解决问题,我现在可以将鼠标移入和移出KVM来宾,而无需先获得焦点。

这是带有焦点的来宾 VM 的屏幕截图。

               具有焦点和平板电脑输入的来宾虚拟机的 ss

virtualization
  • 2 个回答
  • 38471 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve