我正在考虑将分区的保留块百分比设置为 0% ( tune2fs -m 0 /dev/sdb1
) 。ext4
无论如何,该分区仅由非特权用户使用。
假设我错误地将分区填充到 100% 并且文件系统损坏了。是否fsck
需要一些可用磁盘空间才能运行?如果文件系统损坏,我显然希望能够修复它。
我正在考虑将分区的保留块百分比设置为 0% ( tune2fs -m 0 /dev/sdb1
) 。ext4
无论如何,该分区仅由非特权用户使用。
假设我错误地将分区填充到 100% 并且文件系统损坏了。是否fsck
需要一些可用磁盘空间才能运行?如果文件系统损坏,我显然希望能够修复它。
http://kubernetes.io/docs/user-guide/petset/在“Alpha 限制”下声明
[...] 很可能会在 Kubernetes 的托管产品上被禁用。
Google Cloud Platform (GCP) 是否在其托管版本的 Kubernetes 中支持宠物集?
我想将 PEM(+key) 证书转换为*.p12
文件。我知道当我没有中间证书时我会这样做:
openssl pkcs12 -export -out certificate.pfx -inkey privateKey.key -in certificate.crt -certfile CACert.crt
有中级证书怎么办?
假设我登录到 Cassandra 节点 X 并发出nodetool repair
. 我会只修复 X 上的数据吗?或者我是否也会自动修复所有其他具有 X 所拥有的副本的节点(即双向协调数据不一致)?
尝试修复密钥空间时遇到问题:
myuser@host-1:~$ nodetool repair -pr mykeyspace
[2014-11-07 13:33:10,132] Starting repair command #13, repairing 1 ranges for keyspace mykeyspace
[2014-11-07 13:33:20,668] Repair session 3baeeb40-667a-11e4-a6e9-3562b4c30e9e for range (-3651079129967449,-2] failed with error java.io.IOException: Failed during snapshot creation.
[2014-11-07 13:33:20,668] Repair command #13 finished
当我看着system.log
它host-1
说:
ERROR [RepairJobTask:1] 2014-11-07 13:33:20,665 RepairJob.java (line 125) Error occurred during snapshot phase
java.lang.RuntimeException: Could not create snapshot at /X.X.X.33
at org.apache.cassandra.repair.SnapshotTask$SnapshotCallback.onFailure(SnapshotTask.java:81)
at org.apache.cassandra.net.MessagingService$5$1.run(MessagingService.java:344)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:471)
at java.util.concurrent.FutureTask.run(FutureTask.java:262)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
at java.lang.Thread.run(Thread.java:745)
ERROR [AntiEntropySessions:12] 2014-11-07 13:33:20,666 RepairSession.java (line 288) [repair #3baeeb40-667a-11e4-a6e9-3562b4c30e9e] session completed with the following error
java.io.IOException: Failed during snapshot creation.
at org.apache.cassandra.repair.RepairSession.failedSnapshot(RepairSession.java:323)
at org.apache.cassandra.repair.RepairJob$2.onFailure(RepairJob.java:126)
at com.google.common.util.concurrent.Futures$4.run(Futures.java:1160)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
at java.lang.Thread.run(Thread.java:745)
ERROR [AntiEntropySessions:12] 2014-11-07 13:33:20,667 CassandraDaemon.java (line 199) Exception in thread Thread[AntiEntropySessions:12,5,RMI Runtime]
java.lang.RuntimeException: java.io.IOException: Failed during snapshot creation.
at com.google.common.base.Throwables.propagate(Throwables.java:160)
at org.apache.cassandra.utils.WrappedRunnable.run(WrappedRunnable.java:32)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:471)
at java.util.concurrent.FutureTask.run(FutureTask.java:262)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
at java.lang.Thread.run(Thread.java:745)
Caused by: java.io.IOException: Failed during snapshot creation.
at org.apache.cassandra.repair.RepairSession.failedSnapshot(RepairSession.java:323)
at org.apache.cassandra.repair.RepairJob$2.onFailure(RepairJob.java:126)
at com.google.common.util.concurrent.Futures$4.run(Futures.java:1160)
... 3 more
ERROR [Thread-1607] 2014-11-07 13:33:20,668 StorageService.java (line 2599) Repair session 3baeeb40-667a-11e4-a6e9-3562b4c30e9e for range (-3651079129967449,-2] failed with error java.io.IOException: Failed during snapshot creation.
java.util.concurrent.ExecutionException: java.lang.RuntimeException: java.io.IOException: Failed during snapshot creation.
at java.util.concurrent.FutureTask.report(FutureTask.java:122)
at java.util.concurrent.FutureTask.get(FutureTask.java:188)
at org.apache.cassandra.service.StorageService$4.runMayThrow(StorageService.java:2591)
at org.apache.cassandra.utils.WrappedRunnable.run(WrappedRunnable.java:28)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:471)
at java.util.concurrent.FutureTask.run(FutureTask.java:262)
at java.lang.Thread.run(Thread.java:745)
Caused by: java.lang.RuntimeException: java.io.IOException: Failed during snapshot creation.
at com.google.common.base.Throwables.propagate(Throwables.java:160)
at org.apache.cassandra.utils.WrappedRunnable.run(WrappedRunnable.java:32)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:471)
at java.util.concurrent.FutureTask.run(FutureTask.java:262)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
... 1 more
Caused by: java.io.IOException: Failed during snapshot creation.
at org.apache.cassandra.repair.RepairSession.failedSnapshot(RepairSession.java:323)
at org.apache.cassandra.repair.RepairJob$2.onFailure(RepairJob.java:126)
at com.google.common.util.concurrent.Futures$4.run(Futures.java:1160)
... 3 more
当我查看日志时,X.X.X.33
我看不到任何日志错误。
谁能给我指点正确的方向?
我正在运行一个三节点 (elasticsearch) 集群,目前使用index.number_of_replicas: 0
. 我想关闭其中一个节点进行维护。我有什么选择可以在不增加的情况下做到这一点number_of_replicas
吗?
在节点关闭之前,关闭 API 似乎不会重新平衡分片。因此,看起来我需要使用集群重新路由 API 将分片手动移动到另一个节点。这样做会希望将其他分片重新平衡回我的节点,所以我想我需要以某种方式重新平衡集群。有没有更好的选择?
MySQL 版本:5.1.63。
我即将 DROP 一个更大的 ~8 GB InnoDB 表。上周我在另一台机器上丢了一个四倍大的桌子,一个全局锁启动了,让我们宕机了大约 90 秒。我怀疑它与table_cache
锁有关。有人对如何使这个 DROP 更顺畅有意见吗?首先是小批量删除,然后TRUNCATE
是它,最后是DROP TABLE
?显然,如果可能的话,我想保持这个数据库在生产中。我也一直在考虑在下降之前使缓冲池更小。
我很想听听你的意见。
我只是好奇; atime 是否更新于fread
,fopen
和/或fclose
?
时间呢?是否更新于fopen
,fwrite
和/或fclose
?
我目前正在配置 Nagios 服务之间的依赖关系。设置一项服务依赖于另一项服务很简单,但是当所有主服务都失败时是否有可能让一项服务失败?
我的例子是用于故障转移的负载均衡器。只要其任何后端正常运行,负载均衡器就会正常运行。
我希望监控用户能够(仅)在某个数据库上执行“SHOW INDEX”和“SHOW TABLES”。我GRANT
这个用户应该有什么特权?
我宁愿不开放让用户能够做SELECT
...
我已经定义了一个额外的图表(在 Munin 中munin.conf
),它计算了我的 MySQL 数据库的总大小。索引和数据大小是从外部插件中提取的。定义如下所示:
[...]
[Database;my.host.com]
address my.host.com
use_node_name yes
dbsize.update no
dbsize.graph_args --base 1024 -l 0
dbsize.graph_title Total database size
dbsize.graph_vlabel bytes
dbsize.graph_category mysql
dbsize.graph_info The total database size.
dbsize.graph_order the_sum
dbsize.the_sum.sum \
my.host.com:mysql_size.index \
my.host.com:mysql_size.datas
dbsize.the_sum.label data+index
dbsize.the_sum.type GAUGE
dbsize.the_sum.min 0
[...]
现在,是否可以提取该图的当前值?跑步
# munin-run dbsize
或者
# munin-run my.host.com:dbsize
似乎不起作用。
我打算使用 NFS 来提供许多小文件。它们会经常被读取,因此客户端缓存至关重要。NFS 会处理这个吗?有没有办法以某种方式增加客户端缓存?
...或者我应该看看另一种解决方案?定期使用 rsync 或 unison 同步不是一种选择,因为文件会不时在客户端进行修改。