有没有人能够让 cassandra 3.x 在 kubernetes 上运行?
cassandra 2.1.13 运行良好,但 3.3 无法与其他 cassandra 节点通信。除了容器之外,我的 yaml 是相同的。我刚刚将 gcr.io/google-samples/cassandra:v8 从 2.1.13 升级到 3.3
3.x 中是否有一个新设置需要与 2.1 不同的配置?
在所有 5 个节点上运行 nodetool status 表明它们彼此看到并且具有 UN 的状态/状态
有没有人能够让 cassandra 3.x 在 kubernetes 上运行?
cassandra 2.1.13 运行良好,但 3.3 无法与其他 cassandra 节点通信。除了容器之外,我的 yaml 是相同的。我刚刚将 gcr.io/google-samples/cassandra:v8 从 2.1.13 升级到 3.3
3.x 中是否有一个新设置需要与 2.1 不同的配置?
在所有 5 个节点上运行 nodetool status 表明它们彼此看到并且具有 UN 的状态/状态
有没有办法来解决这个问题?我可以更改接口顺序吗?我有很多使用 $::ipaddress 的 puppet 模块,在带有 docker 的 CentOS 6 上运行良好,但在 7 上没有
interfaces => docker0,eno16780032,lo
ipaddress => 172.17.42.1
ipaddress_docker0 => 172.17.42.1
ipaddress_eno16780032 => 10.251.17.170
ipaddress_lo => 127.0.0.1
尝试设置自定义订阅以使 remediator.rb 在 puppet 的 sensu 模块中工作。
类 sensuJenkinsMasterClient { 类{“感觉”: purge_config => 真, rabbitmq_password => '', rabbitmq_host => 'sensu-master', #需要 fqdn 才能使修复程序工作 订阅 => ['sensu-default', 'centosJenkinsMaster', '"${::fqdn}'], use_embedded_ruby => true, #set 在 /etc/default/sensu 下 } }
我使用以下命令将 LVM 缩小了一半:
e2fsck -f /dev/VG/LV
resize2fs /dev/VG/LV 5G
lvreduce -L 5G /dev/VG/LV
检查物理卷会产生以下结果:
--- Physical volume ---
PV Name /dev/sdb
VG Name VG
PV Size 10.00 GiB / not usable 4.00 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 2559
Free PE 1279
Allocated PE 1280
如何通过 fdisk 将空闲 PE(从哪个柱面开始)分配为标准分区?
我尝试重新启动我的 puppet master,但错误仍然存在。
还可以从所有尝试加入的傀儡代理中看到它。
puppet agent --server puppet.example.com --waitforcert 60 --test --verbose
Error: Could not request certificate: Error 400 on SERVER: header too long
我有一个当前使用 RAID-0 设置的 Dell R710,并且我在服务器中有 12 个磁盘未使用。
我想知道是否可以使用这些其他磁盘设置第二个 RAID(5 个带热备件)。
我找不到有关 mini 是否可以管理多个阵列的数据。