AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / user-90115

Korjavin Ivan's questions

Martin Hope
Korjavin Ivan
Asked: 2019-04-24 00:04:12 +0800 CST

kubectl 顶部节点不起作用。看起来像 heapster 的问题

  • 2

我在 gke 上有一个新的 k8s 集群。

每当我跑步时,kubectl top node gke-data-custom-vm-6-25-0cbae9b9-hrkc 我都会得到

Error from server (NotFound): the server could not find the requested resource (get services http:heapster:)

同时我有这个服务:

> kubectl -n kube-system get services
NAME                   TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)         AGE
default-http-backend   NodePort    10.11.241.20    <none>        80:32688/TCP    59d
heapster               ClusterIP   10.11.245.182   <none>        80/TCP          59d
kube-dns               ClusterIP   10.11.240.10    <none>        53/UDP,53/TCP   59d
metrics-server         ClusterIP   10.11.249.26    <none>        443/TCP         59d

并且一个带有 heapster 的 pod 正在运行(我可以看到它被重新启动了很多次)

 kubectl -n kube-system get pods
NAME                                               READY     STATUS    RESTARTS   AGE
event-exporter-v0.2.3-85644fcdf-kwd6g              2/2       Running   0          16d
fluentd-gcp-scaler-8b674f786-dbrcr                 1/1       Running   0          16d
fluentd-gcp-v3.2.0-2fqgl                           2/2       Running   0          17d
fluentd-gcp-v3.2.0-47586                           2/2       Running   0          17d
fluentd-gcp-v3.2.0-552xm                           2/2       Running   0          16d
heapster-v1.6.0-beta.1-fdc7fd478-8s998             3/3       Running   73         16d

但是我可以在 heapster-nanny 容器的日志中看到一些错误:

> kubectl logs -n kube-system --tail 10 -f po/heapster-v1.6.0-beta.1-fdc7fd478-8s998 -c heapster-nanny
ERROR: logging before flag.Parse: E0418 23:30:10.075539       1 nanny_lib.go:95] Error while querying apiserver for resources: Get https://10.11.240.1:443/api/v1/namespaces/kube-system/pods/heapster-v1.6.0-beta.1-fdc7fd478-8s998: dial tcp 10.11.240.1:443: getsockopt: connection refused
ERROR: logging before flag.Parse: E0418 23:30:10.971230       1 reflector.go:205] k8s.io/autoscaler/addon-resizer/nanny/kubernetes_client.go:107: Failed to list *v1.Node: Get https://10.11.240.1:443/api/v1/nodes?resourceVersion=0: dial tcp 10.11.240.1:443: getsockopt: connection refused
ERROR: logging before flag.Parse: E0418 23:30:11.972337       1 reflector.go:205] k8s.io/autoscaler/addon-resizer/nanny/kubernetes_client.go:107: Failed to list *v1.Node: Get https://10.11.240.1:443/api/v1/nodes?resourceVersion=0: dial tcp 10.11.240.1:443: getsockopt: connection refused
ERROR: logging before flag.Parse: E0418 23:30:12.973637       1 reflector.go:205] k8s.io/autoscaler/addon-resizer/nanny/kubernetes_client.go:107: Failed to list *v1.Node: Get https://10.11.240.1:443/api/v1/nodes?resourceVersion=0: dial tcp 10.11.240.1:443: getsockopt: connection refused
ERROR: logging before flag.Parse: E0418 23:30:13.975024       1 reflector.go:205] k8s.io/autoscaler/addon-resizer/nanny/kubernetes_client.go:107: Failed to list *v1.Node: Get https://10.11.240.1:443/api/v1/nodes?resourceVersion=0: dial tcp 10.11.240.1:443: getsockopt: connection refused
ERROR: logging before flag.Parse: E0418 23:30:14.976582       1 reflector.go:205] k8s.io/autoscaler/addon-resizer/nanny/kubernetes_client.go:107: Failed to list *v1.Node: Get https://10.11.240.1:443/api/v1/nodes?resourceVersion=0: dial tcp 10.11.240.1:443: getsockopt: connection refused
ERROR: logging before flag.Parse: E0418 23:30:16.063760       1 reflector.go:205] k8s.io/autoscaler/addon-resizer/nanny/kubernetes_client.go:107: Failed to list *v1.Node: Get https://10.11.240.1:443/api/v1/nodes?resourceVersion=0: dial tcp 10.11.240.1:443: getsockopt: connection refused
ERROR: logging before flag.Parse: E0418 23:30:27.065693       1 reflector.go:205] k8s.io/autoscaler/addon-resizer/nanny/kubernetes_client.go:107: Failed to list *v1.Node: Get https://10.11.240.1:443/api/v1/nodes?resourceVersion=0: net/http: TLS handshake timeout
ERROR: logging before flag.Parse: E0418 23:30:30.077159       1 nanny_lib.go:95] Error while querying apiserver for resources: Get https://10.11.240.1:443/api/v1/namespaces/kube-system/pods/heapster-v1.6.0-beta.1-fdc7fd478-8s998: net/http: TLS handshake timeout
ERROR: logging before flag.Parse: E0418 23:30:59.778560       1 reflector.go:205] k8s.io/autoscaler/addon-resizer/nanny/kubernetes_client.go:107: Failed to list *v1.Node: Get https://10.11.240.1:443/api/v1/nodes?resourceVersion=0: dial tcp 10.11.240.1:443: i/o timeout

以及在 heapster 容器中

I0423 07:02:10.765134       1 heapster.go:113] Starting heapster on port 8082
W0423 07:16:27.975467       1 manager.go:152] Failed to get all responses in time (got 2/3)
W0423 07:16:43.064110       1 manager.go:107] Failed to get kubelet_summary:10.128.0.49:10255 response in time
W0423 07:20:36.875359       1 manager.go:152] Failed to get all responses in time (got 2/3)
W0423 07:20:44.383790       1 manager.go:107] Failed to get kubelet_summary:10.128.0.49:10255 response in time
W0423 07:22:29.683060       1 manager.go:152] Failed to get all responses in time (got 2/3)
W0423 07:22:40.278962       1 manager.go:107] Failed to get kubelet_summary:10.128.0.49:10255 response in time
W0423 07:31:27.072711       1 manager.go:152] Failed to get all responses in time (got 2/3)
W0423 07:31:54.580031       1 manager.go:107] Failed to get kubelet_summary:10.128.0.49:10255 response in time

我怎样才能解决这个问题?

我应该提供任何其他信息吗?

monitoring
  • 2 个回答
  • 3591 Views
Martin Hope
Korjavin Ivan
Asked: 2015-03-25 09:56:08 +0800 CST

使用主机的 iptables 来防止访问 docker-container 的暴露端口

  • 1

我有一个运行几个 docker 容器的主机。

该主机有几个网络接口,我的目标是使容器中的一些暴露端口只能由某些接口访问,并阻止其他人访问。

我想为此使用主机的 iptables。

但它不可能简单地做:

iptables -I INPUT -i vlan2 --dport 80 -j DROP

因为数据包是通过预路由转发的。

iptables -t nat -L PREROUTING                                                                                                                               2
Chain PREROUTING (policy ACCEPT)
target     prot opt source               destination         
DOCKER     all  --  anywhere             anywhere             ADDRTYPE match dst-type LOCAL

Chain DOCKER (2 references)
target     prot opt source               destination         
DNAT       tcp  --  anywhere             anywhere             tcp dpt:mysql to:172.17.0.2:33066
DNAT       tcp  --  anywhere             anywhere             tcp dpt:http to:172.17.0.4:80

有两个暴露的端口 80 和 3306 到不同的容器,我想让它无法从接口 vlan2 访问

在我添加这个之后:

iptables -I FORWARD -i vlan2 -p tcp --dport 80 -j REJECT

Web 服务器停止工作,但

iptables -I FORWARD -i vlan2 -p tcp --dport 3306 -j REJECT

不要阻止连接到mysql,我仍然可以连接。tcpdump 证明了这一点:

tcpdump -n -i vlan2 port 3306
tcpdump: verbose output suppressed, use -v or -vv for full protocol decode
listening on vlan2, link-type EN10MB (Ethernet), capture size 262144 bytes
22:48:13.066636 IP 3.2.2.2.47259 > 1.1.2.3.3306: Flags [S], seq 3619220560, win 29200, options [mss 1460,sackOK,TS val 90183390 ecr 0,nop,wscale 7], length 0
22:48:13.066740 IP 1.1.2.3.3306 > 3.2.2.2.47259: Flags [S.], seq 2743923517, ack 3619220561, win 28960, options [mss 1460,sackOK,TS val 10989883 ecr 90183390,nop,wscale 7], length 0

我无法理解这两个规则之间的区别。

如何使用主机的 iptables 来阻止对容器的访问

iptables
  • 1 个回答
  • 1615 Views
Martin Hope
Korjavin Ivan
Asked: 2015-01-24 08:24:20 +0800 CST

用于定期任务时保持 docker 容器启动的正确方法

  • 72

我有安装和配置软件的 docker 容器。

没有任何程序应该一直启动/运行。

我想要什么 - 它能够根据外部事件启动一些命令。喜欢:

docker exec mysupercont /path/to/mycommand -bla -for

和

docker exec mysupercont /path/to/myothercommand 

但是当容器停止时“exec”是不可能的,而且这个容器里面有一些“工作”数据,用于该命令,所以我不能使用

docker run ...

每次,因为它从图像重新创建容器并销毁我的数据。

保持此类容器运行的“正确”和“最佳”方式是什么?我可以在里面启动哪个命令?

docker
  • 5 个回答
  • 193275 Views
Martin Hope
Korjavin Ivan
Asked: 2014-10-29 02:29:48 +0800 CST

禁用从一台主机/mac的dhcpd接收地址[重复]

  • 0
这个问题在这里已经有了答案:
如何忽略 dhcpd.conf 中的一组 Mac 地址? (2 个回答)
7年前关闭。

我的网络中有一个客户端,他要求我阻止他通过 dhcp 获取 IP 地址。

他有一个奇怪的软件,并且无法关闭dhcp-client,但是这个dhcp客户端在获得ip后会做坏事。

在同一个 vlan 中,我有需要 dhcp 才能工作的客户。

我尝试了 isc-dhcp41-server-4.1.e,2:

host client_disable {                                                                                                                                                             
  hardware ethernet aa:bb:cc:dd:rr:ff;                                                                                                                                     
  fixed-address 0.0.0.0;                                                                                                                                                   
} 

它似乎不起作用。

我正在尝试用谷歌搜索,但看起来它的场景很奇怪,我找不到任何合适的东西。

请指出我正确的解决方案。

dhcp
  • 1 个回答
  • 947 Views
Martin Hope
Korjavin Ivan
Asked: 2014-02-23 22:58:54 +0800 CST

如果作为参数传递的文件名不存在,则重定向到 404

  • 3

我data=/path/to/filename.htm在uri中有特殊参数。

它建立在 SSI 上的陈旧生锈的网站,我无法修改它。

问题是当作为 arg_data 传递的文件名不存在时,页面已损坏。

在这种情况下,我想重定向到 404.htm。

像这样的东西:

if (!-f $arg_data){
     rewrite ^.*$  /404.htm last;
   } 

但我得到:

处理“/404.htm”时重写或内部重定向循环

我认为是因为我没有检查if arg_data存在。

但是nginx没有嵌套if-s。

我试过了:

set $data index.htm;                                                                                                                                               
if ($args ~ "data=(.+)") {                                                                                                                                         
    set $data $1;                                                                                                                                                  
}                                                                                                                                                                                                                                                                                                                                          
if (!-f $data) {                                                                                                                                                
    rewrite ^.*$  /404.htm last;                                                                                                                                   
}                   

想法被设置$data为某个 100% 存在的文件,然后如果数据参数被传递,则重写。

由于某种原因,它给出了相同的错误,内部重定向循环

看起来我做错了。

nginx
  • 2 个回答
  • 3019 Views
Martin Hope
Korjavin Ivan
Asked: 2013-11-28 07:49:20 +0800 CST

类似freebsd的监狱,带有debian for mysql(更新数据库模式)

  • 0

我有带大数据库的 debian 盒子。

我想用这个数据库做很多有风险的操作。

它是关于更新与此数据库一起使用的软件。

我可以停止数据库 5 分钟,但不能更长时间。

db 文件是 lvm 逻辑卷上的 innodb 文件。

当我进行备份时,我使用 lvm 快照进行备份。

我很确定,我需要多次尝试更新,但总是会出错。

我的想法是:如果我做 lvm 快照(大尺寸),挂载它,启动另一个 mysql 实例并在这个实例上做所有有风险的工作怎么办。

如果出现问题,我只需删除快照并重新开始。

如果一切都正确,并且所有测试都将通过(可能需要 1-2 天) - 我从第二个实例进行备份,并将其移动到第一个实例。

我需要一些东西来启动第二个实例而不接触我的第一个实例。我能用什么?

  • 做 debootstrap 和 chroot 吗?
  • 安装kvm?

我需要你的建议。

mysql
  • 2 个回答
  • 95 Views
Martin Hope
Korjavin Ivan
Asked: 2013-10-27 09:54:11 +0800 CST

用于限制发布查询的 php 服务器设置

  • 0

我在托管上有 php 脚本,它使用 ajax/post 接收大数据。

刚才,在进行了一些托管工作后,我看到该脚本已损坏。

我用卷曲检查:

文件 temp1:

user_avatar=&user_baner=&user_sig=.... 

总共 237 个字符,并且

curl -H "X-Requested-With: XMLHttpRequest" -X POST --data @temp1 'http://host/mypage.php'

完美运行。

但是使用文件 temp2:

name=%D0%9C%D0%B5%D0%B1%%B5%D0%BB%D1%8C%D0%A4%%B0%D0%B1%D1%80%D0%B8%D0%BA%D1%8A&user_payed=0000-00-00&...positions%5B5231%5D=on

总字符数:65563

curl -H "X-Requested-With: XMLHttpRequest" -X POST --data @temp2 'http://host/mypage.php'

curl什么都不返回。

看起来像 apache/php/php.ini 或类似的问题。

我检查 .htaccess

php_value post_max_size 20M

我应该检查哪些其他参数?

%BO 编码是否有可能杀死 php/apache?或参数总数(约2800)?

apache-2.2
  • 2 个回答
  • 185 Views
Martin Hope
Korjavin Ivan
Asked: 2013-10-15 01:17:55 +0800 CST

使用另一个 samba 进行 Samba 身份验证

  • 0

我有一个带有内置身份验证 (smbpasswd) 的 samba 共享。

此网络中没有任何中央身份验证(ldap、ad、radius)。

我的任务是,在第二台主机上启动另一个 samba 服务器,使用相同的用户/密码进行共享。

samba2 是否有可能将 auth 与 samba1 一起使用?

authentication
  • 1 个回答
  • 195 Views
Martin Hope
Korjavin Ivan
Asked: 2013-10-03 00:08:15 +0800 CST

来自我的 debian 盒子(如 freebsd)的每日邮件模板

  • 2

从我的 FreeBSD 盒子里,我每天都会收到报告:

  1. 使用的文件系统
  2. 网络接口
  3. 正常运行时间 4,邮件队列状态

安全:

  1. ipfw 拒绝计数器
  2. 登录失败
  3. 拒绝连接
  4. 内核日志消息

只是想知道,如果我的 debian 盒子存在一些 config_templates/package 会怎样?

debian
  • 1 个回答
  • 372 Views
Martin Hope
Korjavin Ivan
Asked: 2013-09-10 19:10:55 +0800 CST

戴尔 PowerEdge 1950 奇怪的重启

  • 0

我有带 debian 的 Dell PowerEdge 1950,它无缘无故地重新启动,并且在重新启动后 BIOS 写入“之前的关机错误,按 f1 继续”。

首先,这个“f1 for continue”是否可以切换?它的远程服务器,我讨厌这个。

我无法解释 - 为什么它重新启动。我的日志中有一部分:

Sep  7 11:48:11 kernel: [182893.472177] virbr0: port 8(vnet7) entered forwarding state
Sep  7 11:48:11 kernel: [182893.484451] libvirtd: page allocation failure: order:4, mode:0x2000d0
Sep  7 11:48:11 kernel: [182893.484456] CPU: 0 PID: 2427 Comm: libvirtd Not tainted 3.10-2-amd64 #1 Debian 3.10.7-1
Sep  7 11:48:11 kernel: [182893.484458] Hardware name: Dell Inc. PowerEdge 1950/0DT097, BIOS 2.7.0 10/30/2010
Sep  7 11:48:11 kernel: [182893.484461]  0000000000000000 ffffffff810c4af9 ffff88012fff9b08 ffff88012fff8d80
Sep  7 11:48:11 kernel: [182893.484466]  0000000000000000 0000000000000000 ffff880100000002 ffffffff810d4f89
Sep  7 11:48:11 kernel: [182893.484469]  0000000000000010 fffffffffffffff0 000000000000001e 0000000000000000
Sep  7 11:48:11 kernel: [182893.484473] Call Trace:
Sep  7 11:48:11 kernel: [182893.484482]  [<ffffffff810c4af9>] ? warn_alloc_failed+0x118/0x12c
Sep  7 11:48:11 kernel: [182893.484487]  [<ffffffff810d4f89>] ? next_online_pgdat+0x1c/0x3a
Sep  7 11:48:11 kernel: [182893.484491]  [<ffffffff810c7469>] ? __alloc_pages_nodemask+0x206/0x78e
Sep  7 11:48:11 kernel: [182893.484496]  [<ffffffff810f90dc>] ? kmem_getpages+0x53/0x122
Sep  7 11:48:11 kernel: [182893.484499]  [<ffffffff810f997c>] ? fallback_alloc+0x123/0x1e5
Sep  7 11:48:11 kernel: [182893.484502]  [<ffffffff810f9efa>] ? kmem_cache_alloc_trace+0x7c/0xcc
Sep  7 11:48:11 kernel: [182893.484510]  [<ffffffffa0543fcc>] ? vhost_net_open+0x1f/0x17d [vhost_net]
Sep  7 11:48:11 kernel: [182893.484515]  [<ffffffff8126a54e>] ? misc_open+0x117/0x17a
Sep  7 11:48:11 kernel: [182893.484519]  [<ffffffff8110cd6c>] ? chrdev_open+0x11c/0x140
Sep  7 11:48:11 kernel: [182893.484522]  [<ffffffff8110cc50>] ? cdev_put+0x19/0x19
Sep  7 11:48:11 kernel: [182893.484526]  [<ffffffff8110815b>] ? do_dentry_open+0x16d/0x20f
Sep  7 11:48:11 kernel: [182893.484529]  [<ffffffff81108227>] ? finish_open+0x2a/0x33
Sep  7 11:48:11 kernel: [182893.484533]  [<ffffffff811146d7>] ? do_last+0x864/0xa0c
Sep  7 11:48:11 kernel: [182893.484536]  [<ffffffff8111219f>] ? __inode_permission+0x57/0x95
Sep  7 11:48:11 kernel: [182893.484539]  [<ffffffff81114941>] ? path_openat+0xc2/0x327
Sep  7 11:48:11 kernel: [182893.484543]  [<ffffffff81114e49>] ? do_filp_open+0x2a/0x6e
Sep  7 11:48:11 kernel: [182893.484546]  [<ffffffff810fa414>] ? kmem_cache_alloc+0x8c/0xfd
Sep  7 11:48:11 kernel: [182893.484550]  [<ffffffff8111dcce>] ? __alloc_fd+0xcc/0xdb
Sep  7 11:48:11 kernel: [182893.484553]  [<ffffffff81108a99>] ? do_sys_open+0x5c/0xe0
Sep  7 11:48:11 kernel: [182893.484557]  [<ffffffff8138ade9>] ? system_call_fastpath+0x16/0x1b
Sep  7 11:48:11 kernel: [182893.484559] Mem-Info:
Sep  7 11:48:11 kernel: [182893.484561] Node 0 DMA per-cpu:
Sep  7 11:48:11 kernel: [182893.484564] CPU    0: hi:    0, btch:   1 usd:   0
Sep  7 11:48:11 kernel: [182893.484566] CPU    1: hi:    0, btch:   1 usd:   0
Sep  7 11:48:11 kernel: [182893.484568] CPU    2: hi:    0, btch:   1 usd:   0
Sep  7 11:48:11 kernel: [182893.484569] CPU    3: hi:    0, btch:   1 usd:   0
Sep  7 11:48:11 kernel: [182893.484571] Node 0 DMA32 per-cpu:
Sep  7 11:48:11 kernel: [182893.484573] CPU    0: hi:  186, btch:  31 usd:   0
Sep  7 11:48:11 kernel: [182893.484575] CPU    1: hi:  186, btch:  31 usd:   0
Sep  7 11:48:11 kernel: [182893.484577] CPU    2: hi:  186, btch:  31 usd:   0
Sep  7 11:48:11 kernel: [182893.484579] CPU    3: hi:  186, btch:  31 usd:   0
Sep  7 11:48:11 kernel: [182893.484581] Node 0 Normal per-cpu:
Sep  7 11:48:11 kernel: [182893.484583] CPU    0: hi:  186, btch:  31 usd:   0
Sep  7 11:48:11 kernel: [182893.484585] CPU    1: hi:  186, btch:  31 usd:   0
Sep  7 11:48:11 kernel: [182893.484587] CPU    2: hi:  186, btch:  31 usd:   2
Sep  7 11:48:11 kernel: [182893.484589] CPU    3: hi:  186, btch:  31 usd:   0
Sep  7 11:48:11 kernel: [182893.484594] active_anon:423230 inactive_anon:137000 isolated_anon:0
Sep  7 11:48:11 kernel: [182893.484594]  active_file:169377 inactive_file:162749 isolated_file:0
Sep  7 11:48:11 kernel: [182893.484594]  unevictable:0 dirty:7 writeback:0 unstable:0
Sep  7 11:48:11 kernel: [182893.484594]  free:57651 slab_reclaimable:16563 slab_unreclaimable:9296
Sep  7 11:48:11 kernel: [182893.484594]  mapped:2985 shmem:145 pagetables:3918 bounce:0
Sep  7 11:48:11 kernel: [182893.484594]  free_cma:0
Sep  7 11:48:11 kernel: [182893.484599] Node 0 DMA free:15908kB min:264kB low:328kB high:396kB active_anon:0kB inactive_anon:0kB active_file:0kB inactive_file:0kB unevictable:0kB isolated(anon):0kB isolated(file):0kB present:15996kB managed:15908kB mlocked:0kB dirty:0kB writeback:0kB mapped:0kB shmem:0kB slab_reclaimable:0kB slab_unreclaimable:0kB kernel_stack:0kB pagetables:0kB unstable:0kB bounce:0kB free_cma:0kB writeback_tmp:0kB pages_scanned:0 all_unreclaimable? yes
Sep  7 11:48:11 kernel: [182893.484607] lowmem_reserve[]: 0 3231 3940 3940
Sep  7 11:48:11 kernel: [182893.484610] Node 0 DMA32 free:188268kB min:55212kB low:69012kB high:82816kB active_anon:1429476kB inactive_anon:284516kB active_file:658168kB inactive_file:631332kB unevictable:0kB isolated(anon):0kB isolated(file):0kB present:3386688kB managed:3309356kB mlocked:0kB dirty:16kB writeback:0kB mapped:6836kB shmem:220kB slab_reclaimable:53080kB slab_unreclaimable:12744kB kernel_stack:1024kB pagetables:7692kB unstable:0kB bounce:0kB free_cma:0kB writeback_tmp:0kB pages_scanned:0 all_unreclaimable? no
Sep  7 11:48:11 kernel: [182893.484618] lowmem_reserve[]: 0 0 708 708
Sep  7 11:48:11 kernel: [182893.484621] Node 0 Normal free:26428kB min:12100kB low:15124kB high:18148kB active_anon:263444kB inactive_anon:263484kB active_file:19340kB inactive_file:19664kB unevictable:0kB isolated(anon):0kB isolated(file):0kB present:786432kB managed:725380kB mlocked:0kB dirty:12kB writeback:0kB mapped:5104kB shmem:360kB slab_reclaimable:13172kB slab_unreclaimable:24440kB kernel_stack:1400kB pagetables:7980kB unstable:0kB bounce:0kB free_cma:0kB writeback_tmp:0kB pages_scanned:0 all_unreclaimable? no
Sep  7 11:48:11 kernel: [182893.484629] lowmem_reserve[]: 0 0 0 0
Sep  7 11:48:11 kernel: [182893.484632] Node 0 DMA: 1*4kB (U) 0*8kB 0*16kB 1*32kB (U) 2*64kB (U) 1*128kB (U) 1*256kB (U) 0*512kB 1*1024kB (U) 1*2048kB (R) 3*4096kB (M) = 15908kB
Sep  7 11:48:11 kernel: [182893.484645] Node 0 DMA32: 12519*4kB (UEM) 12482*8kB (UEM) 2152*16kB (UM) 3*32kB (U) 0*64kB 0*128kB 0*256kB 0*512kB 0*1024kB 0*2048kB 1*4096kB (R) = 188556kB
Sep  7 11:48:11 kernel: [182893.484659] Node 0 Normal: 5894*4kB (UM) 108*8kB (UM) 1*16kB (R) 2*32kB (R) 0*64kB 0*128kB 1*256kB (R) 1*512kB (R) 0*1024kB 1*2048kB (R) 0*4096kB = 27336kB
Sep  7 11:48:11 kernel: [182893.484684] Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=2048kB
Sep  7 11:48:11 kernel: [182893.484685] 345767 total pagecache pages
Sep  7 11:48:11 kernel: [182893.484688] 13606 pages in swap cache
Sep  7 11:48:11 kernel: [182893.484690] Swap cache stats: add 110606, delete 97000, find 86650/91247
Sep  7 11:48:11 kernel: [182893.484692] Free swap  = 2779960kB
Sep  7 11:48:11 kernel: [182893.484693] Total swap = 2928636kB
Sep  7 11:48:11 kernel: [182893.504936] 1048575 pages RAM
Sep  7 11:48:11 kernel: [182893.504939] 34669 pages reserved
Sep  7 11:48:11 kernel: [182893.504940] 1385978 pages shared
Sep  7 11:48:11 kernel: [182893.504941] 629752 pages non-shared
Sep  7 11:48:11 kernel: [182893.504944] kmem_getpages: 150006 callbacks suppressed
Sep  7 11:48:11 kernel: [182893.504946] SLAB: Unable to allocate memory on node 0 (gfp=0xd0)
Sep  7 11:48:11 kernel: [182893.504949]   cache: kmalloc-65536, object size: 65536, order: 4
Sep  7 11:48:11 kernel: [182893.504953]   node 0: slabs: 13/13, objs: 13/13, free: 0
Sep  7 11:52:49 kernel: [183171.325360] kvm: sending ioctl 5326 to a partition!
Sep  7 11:52:49 kernel: [183171.325374] kvm: sending ioctl 80200204 to a partition!

有什么过错?内存分配?我在这台主机上有一些 kvm 虚拟机,但它的内存总和比主机上的要少,而且我有很多空闲交换空间。

UPD:新日志,现在带有 SMP 字符串:

9月10日17:03:54内核:[83522.369641]硬件名称:Dell Inc. PowerEdge 1950/0DT097,BIOS 2.7.0 10/30/2010 SEP
10 17:03:54内核:[83522.369644] 00369644] 00000000000000000000000000000000000000000000000000000000000000000000来17:03:54 kernel: [83522.369649] ffff8800c6440080 0000000000000000 0000000000000000 ffff8800c6440080 Sep 10 17:03:54 kernel: [83522.369652] 0000000000000000 0000000000000001 ffffffffa034b051 0000000100000008 Sep 10 17:03:54 kernel: [83522.369656] Call Trace:
9 月 10 日 17:03:54 内核:[83522.369703] []?kvm_mmu_load+0x315/0x33b [kvm] Sep 10 17:03:54 kernel: [83522.369716] [] ? kvm_arch_vcpu_ioctl_run+0x8b4/0xe9f [kvm] Sep 10 17:03:54 kernel: [83522.369723] [] ? vmx_vcpu_load+0x28/0x14e [kvm_intel] Sep 10 17:03:54 内核:[83522.369728] [] ? paravirt_write_msr+0xb/0xe [kvm_intel]
Sep 10 17:03:54 kernel: [83522.369736] [] ? kvm_vcpu_ioctl+0x116/0x48b [kvm] Sep 10 17:03:54 kernel: [83522.369743] [] ? do_futex+0xd1/0x7b5
Sep 10 17:03:54 内核:[83522.369748] [] ? do_sync_readv_writev+0x76/0x76 Sep 10 17:03:54 内核:[83522.369752] [] ? vfs_ioctl+0x1b/0x25
9 月 10 日 17:03:54 内核:[83522.369755] []?do_vfs_ioctl+0x3e8/0x42a 9 月 10 日 17:03:54 内核:[83522.369759] []?finish_task_switch+0x48/0xaa
Sep 10 17:03:54 内核:[83522.369764] [] ? __schedule+0x4dc/0x532 Sep 10 17:03:54 内核:[83522.369767] [] ? SyS_ioctl+0x4e/0x79
Sep 10 17:03:54 内核:[83522.369771] [] ? system_call_fastpath+0x16/0x1b Sep 11 12:10:19 内核:[152307.503781] BUG:无法在 000000000000021c Sep 11 12:10:19 处处理内核 NULL 指针取消引用
内核:[152307.503946] IP:[] tag_get+0x2/0xd Sep 11 12:10:19 内核:[152307.504038] PGD 0-
9 月 11 日 12:10:19 内核:[152307.504081] 糟糕:0000 [#1] SMP-

UPD:kvm 内的 debian 虚拟机之一的屏幕截图: kvm显示截图 在该真实服务器被冻结后,并重新启动电源

debian
  • 2 个回答
  • 455 Views
Martin Hope
Korjavin Ivan
Asked: 2013-09-06 03:44:00 +0800 CST

使用 dns 名称进行 nginx 重定向

  • 1

我有 nginx 重定向,例如:

server {                                                                                                         
      listen       127.0.0.1:80;                                                                                 
      server_name  myname.local
      location / {                                                                                               
          proxy_pass http://m1.local:8080;                                                               
          }                                                                                                      
    }                                                                                                            
}   

效果很好。

但是在更改 m1.local 的 IP 地址后 - nginx 开始返回“坏网关”。

看起来它有 m1.local 的缓存 IP 地址。

nslookup m1.local 从 nginx 计算机显示正确的值,并重新启动 nginx 修复情况。

如何说 nginx 不应该为 dns 名称缓存 ip?

domain-name-system
  • 2 个回答
  • 3348 Views
Martin Hope
Korjavin Ivan
Asked: 2013-08-16 05:33:47 +0800 CST

退出代码的脚本返回摘要

  • 1

我使用这个命令来测试我的 html 页面是否有错误:

find . -iname '*html' -type f -print -exec /usr/local/bin/tidy -q -e {} \;

如果 tidy 发现任何错误,我想获得退出代码 > 0。

find 总是返回我 0。

有没有办法从 tidy 总结退出代码,并从 find 或任何其他包装脚本返回它?

command-line-interface
  • 2 个回答
  • 59 Views
Martin Hope
Korjavin Ivan
Asked: 2013-08-03 00:37:04 +0800 CST

在没有硬件RAID的Linux机器上安装戴尔perc(megaraid)分区

  • 0

我用 perc 5i 从戴尔服务器中提取了 sata 硬盘。我需要将数据保存在另一个 linux 机器上,没有硬件袭击。

可能吗?如何?

我知道这个磁盘上有两个分区,但是当我连接它时,“cfdisk”只显示一个,而且还有很多可用空间。

                                              Disk Drive: /dev/sdd
                                       Size: 250059350016 bytes, 250.0 GB
                              Heads: 95   Sectors per Track: 5   Cylinders: 1028204

     Name             Flags           Part Type      FS Type                 [Label]              Size (MB)
 ---------------------------------------------------------------------------------------------------------------
                                       Pri/Log       Free Space                                        1,05     *
     sdd1                              Primary       ext2                                            207,62     *
                                       Pri/Log       Free Space                                   249850,69     *

megaraid 模块已加载。

lsmod | grep megaraid megaraid 34971 0 scsi_mod
158517 5 sg,usb_storage,libata,sd_mod,megaraid

linux
  • 1 个回答
  • 1888 Views
Martin Hope
Korjavin Ivan
Asked: 2013-05-31 23:42:00 +0800 CST

删除旧备份的脚本

  • 1

我有很多备份,例如:

backup-20130528_054504_mysql.tar.gz, 
bill_db_201305290130.BAK.bz2,
etc_20130412.tbz

这是每天完成的完整备份。

在今天之前,我有一个带有如下命令行的 cron 任务:

/usr/bin/find /media/backups -ctime +7 -delete

但这是个坏主意。

一台服务器在 7 天前停止做新备份(文件系统已满),所有旧备份都被 cron 删除。

可能我需要一个新脚本来替代这个“find -ctime”,它无论如何都会保存一些旧的备份。

我所有的备份文件都有名称 {unique_prefix} YYYYMMDD ...

我想要这样的东西:

  • 前一年每年备份一次
  • 去年每个月备份一次
  • 上个月每周 4 个备份
  • 以及最近 7 天的 7 个备份。

对于每个 {unique_prefix}。

所有这些文件都由 cron 通过 rsync、ssh 等下载到我的服务器。

我不喜欢重新发明轮子,而且很确定这是一项典型的任务。

请指出我的解决方案。

backup
  • 3 个回答
  • 698 Views
Martin Hope
Korjavin Ivan
Asked: 2013-03-27 20:31:47 +0800 CST

flow_fanout flow_capture 中的内存泄漏。flow_capture 输出中的奇怪 ip

  • 0

在我的 freebsd 盒子上:

#uname -rimp
9.1-STABLE amd64 amd64 GENERIC

流程工具:

> pkg_info -x flow
Information for flow-tools-0.68_7:

Comment:
Suite of tools and library to work with netflow data


Description:
Tools to capture, replicate, print, filter, send and other works
on Cisco's NetFlow Export.

WWW: http://www.splintered.net/sw/flow-tools/

收集器是ng_flow,开始于

    /usr/sbin/ngctl mkpeer ipfw: netflow 30 iface0
    /usr/sbin/ngctl name ipfw:30 netflow

    /usr/sbin/ngctl msg netflow: setdlt {iface=0 dlt=12}
    /usr/sbin/ngctl msg netflow: setifindex {iface=0 index=5}
    /usr/sbin/ngctl msg netflow: settimeouts {inactive=15 active=150}
    /usr/sbin/ngctl mkpeer netflow: ksocket export inet/dgram/udp
    /usr/sbin/ngctl msg netflow:export connect inet/127.0.0.1:9995

和 ipfw 规则:

02750  59239017674  33111253913522 ngtee 30 ip from any to any via em0

为 flow_capture 使用 flow_fanout 导出。

# ps axww | grep flow
15106 ??  Ss        2:50,08 /usr/local/bin/flow-fanout -p /var/run/flow-capture/flow-fanout.pid 127.0.0.1/0.0.0.0/9995 127.0.0.1/127.0.0.1/9556
16367 ??  Ss       11:28,63 /usr/local/bin/flow-capture -n 95 -N 3 -z 5 -S 5 -E270G -w /var/netflow -p /var/run/flow-capture/flow-capture.pid 127.0.0.1/0.0.0.0/9556

对于我未知的原因,日志中报告了 flow_capture:

Mar 27 10:20:00 rubin flow-capture[16367]: STAT: now=1364358000 startup=1364227269 src_ip=127.0.0.1 dst_ip=103.247.29.1 d_ver=5 pkts=1 flows=30 lost=0 reset=0 filter_drops=0
Mar 27 10:20:00 rubin flow-capture[16367]: STAT: now=1364358000 startup=1364227269 src_ip=127.0.0.1 dst_ip=116.115.58.13 d_ver=5 pkts=1 flows=30 lost=0 reset=0 filter_drops=0
Mar 27 10:20:00 rubin flow-capture[16367]: STAT: now=1364358000 startup=1364227269 src_ip=127.0.0.1 dst_ip=186.85.188.1 d_ver=5 pkts=1 flows=30 lost=0 reset=0 filter_drops=0
Mar 27 10:20:00 rubin flow-capture[16367]: STAT: now=1364358000 startup=1364227269 src_ip=127.0.0.1 dst_ip=186.84.72.1 d_ver=5 pkts=2 flows=60 lost=480 reset=0 filter_drops=0
Mar 27 10:20:00 rubin flow-capture[16367]: STAT: now=1364358000 startup=1364227269 src_ip=127.0.0.1 dst_ip=186.85.212.1 d_ver=5 pkts=1 flows=30 lost=0 reset=0 filter_drops=0
Mar 27 10:20:00 rubin flow-capture[16367]: STAT: now=1364358000 startup=1364227269 src_ip=127.0.0.1 dst_ip=190.149.28.1 d_ver=5 pkts=2 flows=60 lost=0 reset=0 filter_drops=0
Mar 27 10:20:00 rubin flow-capture[16367]: STAT: now=1364358000 startup=1364227269 src_ip=127.0.0.1 dst_ip=190.149.4.1 d_ver=5 pkts=1 flows=30 lost=0 reset=0 filter_drops=0
 ....
Mar 27 10:25:00 rubin flow-capture[16367]: STAT: now=1364358300 startup=1364227269 src_ip=127.0.0.1 dst_ip=0.0.0.0 d_ver=5 pkts=8253374 flows=246879659 lost=71012 reset=0 filter_drops=0
  ....
Mar 27 10:25:28 rubin flow-fanout[15106]: ftpdu_seq_check(): src_ip=127.0.0.1 dst_ip=0.0.0.0 d_version=5 expecting=895162410 received=895162440 lost=30

我不明白:为什么所有这些 ips 都在这里?

我没有任何关于 190.149.4.1 和 186.85.212.1 等 ip 的配置。

此外,flow_fanout 和 flow_capture 都占用越来越多的内存。上次在我重新启动那些恶魔之前,它大约有 3Gb 的内存。

请帮助我处理日志中的这个奇怪的 ips。我配置有误吗?或者它是一个已知的错误?

UPD:我关于 flow_capture 日志的问题措辞不当。再试一次:

在我的其他服务器上,关于 flow_capture 的配置类似,我在日志中看到每 15 分钟只有一条记录:

Mar 28 08:55:00 flow-capture[45410]: STAT: now=1364439300 startup=1356501324 src_ip=127.0.0.1 dst_ip=127.0.0.1 d_ver=5 pkts=41948436 flows=1256544938 lost=0 reset=0 filter_drops=0 

查看 dst_ip=127.0.0.1。

当我返回到具有相同配置的第一台服务器时,我在日志中看到

Mar 28 09:05:00 rubin flow-capture[16367]: STAT: now=1364439900 startup=1364227269 src_ip=127.0.0.1 dst_ip=65.121.97.1 d_ver=5 pkts=1 flows=30 lost=0 reset=0 filter_drops=0                                                                        
Mar 28 09:05:00 rubin flow-capture[16367]: STAT: now=1364439900 startup=1364227269 src_ip=127.0.0.1 dst_ip=255.127.0.0 d_ver=5 pkts=1458 flows=43711 lost=21989 reset=1395 filter_drops=0                                                           
Mar 28 09:05:00 rubin flow-capture[16367]: STAT: now=1364439900 startup=1364227269 src_ip=127.0.0.1 dst_ip=109.112.100.32 d_ver=5 pkts=446 flows=13380 lost=15933 reset=401 filter_drops=0                                                          
Mar 28 09:05:00 rubin flow-capture[16367]: STAT: now=1364439900 startup=1364227269 src_ip=127.0.0.1 dst_ip=12.79.228.1 d_ver=5 pkts=4 flows=120 lost=0 reset=3 filter_drops=0                                                                       
Mar 28 09:05:00 rubin flow-capture[16367]: STAT: now=1364439900 startup=1364227269 src_ip=127.0.0.1 dst_ip=105.110.100.44 d_ver=5 pkts=465 flows=13950 lost=16443 reset=411 filter_drops=0                                                          
Mar 28 09:05:00 rubin flow-capture[16367]: STAT: now=1364439900 startup=1364227269 src_ip=127.0.0.1 dst_ip=8.0.0.0 d_ver=5 pkts=88 flows=2611 lost=210 reset=85 filter_drops=0                                                                      
Mar 28 09:05:00 rubin flow-capture[16367]: STAT: now=1364439900 startup=1364227269 src_ip=127.0.0.1 dst_ip=82.111.119.115 d_ver=5 pkts=449 flows=13412 lost=11044 reset=409 filter_drops=0                                                          
Mar 28 09:05:00 rubin flow-capture[16367]: STAT: now=1364439900 startup=1364227269 src_ip=127.0.0.1 dst_ip=0.0.0.0 d_ver=5 pkts=14965070 flows=447566910 lost=130355 reset=0 filter_drops=0

查看所有这些 dst_ip,例如 8.0.0.0。它看起来像错误或配置错误。但我不知道如何解决。

freebsd
  • 1 个回答
  • 280 Views
Martin Hope
Korjavin Ivan
Asked: 2013-03-21 02:25:52 +0800 CST

如何计算半径响应中的 CRC

  • 0

我有两种不同的专有软件,一种是用于计费的 radius 模块,另一种是电话站 pbx。

当客户端进行呼叫时,pbx 将 radius auth 数据包发送到计费。和计费应答。

我对半径响应有疑问。PBX 告诉我:

Auth 错误的 CRC 作为响应

我不知道这是真的还是假的。

我记录了请求-响应的tcpdump,想计算正确的crc。

但是 CRC 是什么意思?是那个吗

验证器:fd4f8e9f12f7b72c29b1cae61713bddf

还是包里的其他东西?

请为我指出正确的算法来完成这项任务。

UPD:我发现 ResponseAuth = MD5(Code+ID+Length+RequestAuth+Attributes+Secret) 其中 + 表示串联。

在此页面上http://www.hjp.at/doc/rfc/rfc2865.txt。

在这里我上传了我的转储 https://gist.github.com/5203725

authentication
  • 1 个回答
  • 246 Views
Martin Hope
Korjavin Ivan
Asked: 2013-02-28 19:47:30 +0800 CST

使用 2 个 isp 的自定义(基于端口或协议)路由

  • 0

我在办公室的 linux 电脑:

> uname -a 
Linux 3.2.0-2-686-pae #1 SMP Tue Mar 20 19:48:26 UTC 2012 i686 GNU/Linux.

它有 2 个 ISP,第一个是静态 IP 和默认路由:

> ip ro
default via 19.11.20.15 dev vlan40
19.11.20.0/27 dev vlan40  proto kernel  scope link  src 19.11.20.20

第二个是 gprs 调制解调器。我在没有默认路由的情况下调用 wvdial:

> ip ro
10.64.64.64 dev ppp0  proto kernel  scope link  src 10.68.173.91

其次,我家里的电脑在另一个网络上有公共 IP,但并不总是打开。他的配置非常相同,debian linux。

我的任务是通过 ssh 访问第一台计算机,即使第一台 isp 失败。

今天我使用了如下命令:

ip ro add 46.48.10.56 via 10.64.64.64
while true ; do  ssh -R2221:127.0.0.1:22 [email protected]; done

之后,我可以ssh -p 2221 127.0.0.1通过带有调制解调器的第二个 isp 连接到办公室。

它很好,但是又慢又贵,因为我在这两台计算机之间不仅使用 ssh,还使用 ​​vnc、http 等。

这就是为什么我想将 ISP1 用于除 ssh 之外的任何东西,而将 ISP2 用于 ssh。

可能吗?

linux
  • 1 个回答
  • 242 Views
Martin Hope
Korjavin Ivan
Asked: 2013-02-19 21:34:04 +0800 CST

是否可以从 ff:ff:ff... mac 地址接收 dhcpdiscover?

  • 5

今天我在我的日志文件中看到了这条记录:

dhcpd: DHCPDISCOVER from ff:ff:ff:ff:ff:ff via vlan400: network 40.60.100.10/24: no free leases                                                                                                              
dhcpd: DHCPDISCOVER from ff:ff:ff:ff:ff:ff via vlan300: network 100.100.120.0/24: no free leases                   

以此类推,在连接到同一个以太网卡 em1 的所有 VLAN 上。

我 99% 确定我在这些 VLAN 上没有能够发送 DHCP 请求的设备。

ff:ff:ff 也是一个奇怪的 MAC。

所以,我的问题是:这是坏事吗?以太网卡或交换机或其他东西上的一些错误?

networking
  • 1 个回答
  • 977 Views
Martin Hope
Korjavin Ivan
Asked: 2013-01-31 00:09:57 +0800 CST

Puppet 为创建用户执行了错误的命令

  • 0

我有 2 个 debian 盒子。一个是 puppetmaster,第二个是 puppetd。

# puppet -V
2.7.18

在清单中我有:

group {
    "tipadima":
        ensure   => present,
}
user {
    "tipadima":
        shell => $operatingsystem ? {
            FreeBSD  => '/usr/local/bin/zsh',
            Debian => '/usr/bin/zsh',
        },
        comment  => 'tipadima',
        home     => '/home/tipadima',
        password => '$1$Iasdfsa33Pv$6vF/Pe.Xr.Nv0gGl.VNjx/',
        groups   => 'tipadima',
        require =>   Group["tipadima"] ,
        ensure   => present,
}

但这会在客户端产生错误:

信息:应用配置版本 '1359531648' 错误:/Stage[main]/Tipadima_files/User[tipadima]/ensure:从不存在更改为存在失败:无法创建用户 tipadima:执行 '/usr/sbin/useradd -s / usr/bin/zsh -d /home/tipadima -G tipadima -c tipadima -p $1$sdgdf$6vF/Pe.Xr.Nv0gGl.VNjx/ tipadima' 返回 9: useradd: group tipadima exists - 如果你想添加这个该组的用户,使用-g。

为什么,以及如何解决这个问题?

debian
  • 1 个回答
  • 538 Views
Martin Hope
Korjavin Ivan
Asked: 2012-10-26 07:07:26 +0800 CST

如何接受 freeradius2 中的所有连接?

  • 0

我需要设置接受任何用户名/密码的半径,并为 mpd 提供一些属性。

像这样的东西:(raddb/用户)

DEFAULT Framed-Protocol == PPP                                                                                    
    Service-Type = Framed-User,                                                                                   
    mpd-limit = "out#1=all shape 10240000 pass ",                                                                 
    mpd-limit += "in#1=all rate-limit 2048000 pass",                                                              
    Framed-Pool = "local"

我不关心 auth 、 username 和其他,因为它的备份 radius 和它的任务在我们维护“主要”radiusd 时接受所有连接。

我尝试在可用站点/默认站点中对所有内容进行评论,

我尝试添加 DEFAULT Auth-Type = Accept

我尝试使用 Exec-Program-Wait = 程序总是返回 ok

但是 radius 总是从 mschap 组返回 REJECT,就像这样:

# Executing section authorize from file /usr/local/etc/raddb/sites-enabled/default
+- entering group authorize {...}
++[chap] returns noop
[mschap] Found MS-CHAP attributes.  Setting 'Auth-Type  = mschap'
++[mschap] returns ok
[eap] No EAP-Message, not doing EAP
++[eap] returns noop
[files] users: Matched entry DEFAULT at line 208
++[files] returns ok
Found Auth-Type = MSCHAP
# Executing group from file /usr/local/etc/raddb/sites-enabled/default
+- entering group MS-CHAP {...}
[mschap] No Cleartext-Password configured.  Cannot create LM-Password.
[mschap] No Cleartext-Password configured.  Cannot create NT-Password.
[mschap] Creating challenge hash with username: test
[mschap] Client is using MS-CHAPv2 for test, we need NT-Password
[mschap] FAILED: No NT/LM-Password.  Cannot perform authentication.
[mschap] FAILED: MS-CHAP2-Response is incorrect
++[mschap] returns reject
Failed to authenticate the user.
Login incorrect: [test] (from client localhost port 2 cli 00e05290b3e3 / 00:e0:52:90:b3:e3 / em1)
Using Post-Auth-Type REJECT
# Executing group from file /usr/local/etc/raddb/sites-enabled/default
+- entering group REJECT {...}
[attr_filter.access_reject]     expand: %{User-Name} -> test
attr_filter: Matched entry DEFAULT at line 11
++[attr_filter.access_reject] returns updated
Delaying reject of request 0 for 1 seconds
Going to the next request
Waking up in 0.9 seconds.
Sending delayed reject for request 0
Sending Access-Reject of id 175 to 127.0.0.1 port 64198
        MS-CHAP-Error = "\001E=691 R=1"

请帮帮我。如何为所有用户名/密码设置接受?

freeradius2
  • 1 个回答
  • 7916 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve