我在另一个 stackexchange 上发布了,但显然那是错误的地方......
我是 ceph 新手,如果这是常识,请原谅我,但我找不到它。这似乎是一个简单的问题,但我找不到任何可靠的答案。2017 年,当 ec 池上的 rbd 首次实现时,您必须有一个单独的复制池来存储 rbd 元数据,然后您可以将实际数据存储在 ec 池上。
这仍然是真的吗?还是现在有某种方法可以将元数据存储在同一个 ec_pool 中,这样我就不必管理两个池来创建 rbd?
谢谢。
我在另一个 stackexchange 上发布了,但显然那是错误的地方......
我是 ceph 新手,如果这是常识,请原谅我,但我找不到它。这似乎是一个简单的问题,但我找不到任何可靠的答案。2017 年,当 ec 池上的 rbd 首次实现时,您必须有一个单独的复制池来存储 rbd 元数据,然后您可以将实际数据存储在 ec 池上。
这仍然是真的吗?还是现在有某种方法可以将元数据存储在同一个 ec_pool 中,这样我就不必管理两个池来创建 rbd?
谢谢。
这有意义吗?在 3 节点设置上是否可行,crush 规则应该是什么样子?就是现在的那个。这背后的想法是补偿多个 osd 中断(例如,每个节点 3 个 osd 将失败)
# rules
rule replicated_rule {
id 0
type replicated
min_size 1
max_size 10
step take default
step chooseleaf firstn 0 type host
step emit
}
我正在尝试设置iptables
Ceph 集群。我目前正在为其中一台监控服务器制定规则。
监视器守护程序侦听tcp/6789
(IP 地址已删除,因为它是公共地址):
# netstat -tunlp | grep ceph-mon
tcp 0 0 X.X.X.X:6789 0.0.0.0:* LISTEN 2612/ceph-mon
如果我允许连接到 tcp 端口 6789 并删除其他所有内容,则监视器将被集群的其余部分标记为关闭:
iptables -F INPUT
iptables -A INPUT -p tcp --dport 6789 -j ACCEPT
iptables -A INPUT -j DROP
令人困惑的是,如果我断开与 tcp 端口 6789 的所有连接,集群仍然运行:
iptables -F INPUT
iptbales -A INPUT -p tcp --dport 6789 -j DROP
如果我允许与源tcp 端口 6789 的连接并删除集群运行的所有其他内容:
iptables -F INPUT
iptables -A INPUT -p tcp --sport 6789 -j ACCEPT
iptables -A INPUT -j DROP
这对我来说没有意义,因为守护进程正在监听端口 6789,所以 tcp 段的目标端口应该是 6789。
如果我tcpdump
对源端口 6789 执行操作,我可以看到目标端口为 56052 和源端口为 6789 的传入数据包。这对我来说更没有意义,因为在监控服务器上没有监听端口 56052。
我在这里错过了什么吗?我使用的是 SLES12 和 ceph 12.2.7,FORWARD 和 OUTPUT 链没有规则,所有链上的策略都是 ACCEPT
我写了一个程序,它会自动安装 ceph。该程序在我手动运行时运行良好但是当我使用 getty(下面的我的 conf)自动登录并在 /etc/profile “like this “./myapp” 中作为最后一行运行程序时,我收到以下授权错误。
** ERROR: error creating empty object store in /var/lib/ceph/tmp/mnt.XSlAG1: (13) Permission denied
程序运行时出现问题ceph-disk activate
我的问题是什么?
/etc/systemd/system/getty\@tty1.service.d/autologin.conf
[Service]
ExecStart=
ExecStart=-/usr/bin/agetty --skip-login --login-options "-f root" %I 38400 linux
ceph-mon 无法在 rasberry pi (raspbian 8.0) 上启动
我最近购买了 3 个树莓派节点来创建一个小型存储集群,以便在家中进行测试。我发现了一些设置程序,所以看起来人们已经成功地做到了!
我正在运行 Raspbian GNU/Linux 8.0 (jessie)。我正在使用 ceph-deploy 安装集群,它似乎安装了 ceph ARM 软件包的 10.2.5-7.2+rpi1 版本。
当我尝试启动 ceph-mon 服务时,我从 systemd 收到以下错误:
Dec 14 19:59:46 ceph-master systemd[1]: Starting Ceph cluster monitor daemon...
Dec 14 19:59:46 ceph-master systemd[1]: Started Ceph cluster monitor daemon.
Dec 14 19:59:47 ceph-master ceph-mon[28237]: *** Caught signal (Segmentation fault) **
Dec 14 19:59:47 ceph-master ceph-mon[28237]: in thread 756a5c30 thread_name:admin_socket
Dec 14 19:59:47 ceph-master systemd[1]: [email protected]: main process exited, code=killed, status=11/SEGV
Dec 14 19:59:47 ceph-master systemd[1]: Unit [email protected] entered failed state.
Dec 14 19:59:47 ceph-master systemd[1]: [email protected] holdoff time over, scheduling restart.
Dec 14 19:59:47 ceph-master systemd[1]: Stopping Ceph cluster monitor daemon...
Dec 14 19:59:47 ceph-master systemd[1]: Starting Ceph cluster monitor daemon...
Dec 14 19:59:47 ceph-master systemd[1]: Started Ceph cluster monitor daemon.
Dec 14 19:59:49 ceph-master ceph-mon[28256]: *** Caught signal (Segmentation fault) **
Dec 14 19:59:49 ceph-master ceph-mon[28256]: in thread 75654c30 thread_name:admin_socket
Dec 14 19:59:49 ceph-master ceph-mon[28256]: ceph version 10.2.5 (c461ee19ecbc0c5c330aca20f7392c9a00730367)
Dec 14 19:59:49 ceph-master ceph-mon[28256]: 1: (()+0x4b1348) [0x54fae348]
Dec 14 19:59:49 ceph-master ceph-mon[28256]: 2: (__default_sa_restorer()+0) [0x768bb480]
Dec 14 19:59:49 ceph-master ceph-mon[28256]: 3: (AdminSocket::do_accept()+0x28) [0x550ca154]
Dec 14 19:59:49 ceph-master ceph-mon[28256]: 4: (AdminSocket::entry()+0x22c) [0x550cc458]
Dec 14 19:59:49 ceph-master systemd[1]: [email protected]: main process exited, code=killed, status=11/SEGV
Dec 14 19:59:49 ceph-master systemd[1]: Unit [email protected] entered failed state.
Dec 14 19:59:49 ceph-master systemd[1]: [email protected] holdoff time over, scheduling restart.
Dec 14 19:59:49 ceph-master systemd[1]: Stopping Ceph cluster monitor daemon...
Dec 14 19:59:49 ceph-master systemd[1]: Starting Ceph cluster monitor daemon...
Dec 14 19:59:49 ceph-master systemd[1]: Started Ceph cluster monitor daemon.
Dec 14 19:59:50 ceph-master ceph-mon[28271]: *** Caught signal (Segmentation fault) **
Dec 14 19:59:50 ceph-master ceph-mon[28271]: in thread 755fcc30 thread_name:admin_socket
Dec 14 19:59:50 ceph-master systemd[1]: [email protected]: main process exited, code=killed, status=11/SEGV
Dec 14 19:59:50 ceph-master systemd[1]: Unit [email protected] entered failed state.
Dec 14 19:59:50 ceph-master systemd[1]: [email protected] holdoff time over, scheduling restart.
Dec 14 19:59:50 ceph-master systemd[1]: Stopping Ceph cluster monitor daemon...
Dec 14 19:59:50 ceph-master systemd[1]: Starting Ceph cluster monitor daemon...
Dec 14 19:59:50 ceph-master systemd[1]: [email protected] start request repeated too quickly, refusing to start.
Dec 14 19:59:50 ceph-master systemd[1]: Failed to start Ceph cluster monitor daemon.
Dec 14 19:59:50 ceph-master systemd[1]: Unit [email protected] entered failed state.
我在这里寻找指导,因为我不确定为什么这不起作用。我正在为我的 apt 存储库使用以下 URL:
root@ceph-master:~# cat /etc/apt/sources.list
deb http://mirrordirector.raspbian.org/raspbian/ testing main contrib non-free rpi
root@ceph-master:~# cat /etc/apt/sources.list.d/ceph.list
deb https://download.ceph.com/debian-jewel/ jessie main
有没有其他人尝试过这个并且遇到过类似的问题?有关如何继续或解决此问题的任何建议?
最近我用两个服务器配置构建了 ceph。
最令人不安的是,我不知道如何检查两台服务器是否在 ceph 集群上正确复制。
是否有人使用 ceph 确认数据已复制?