AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / dba / 问题

问题[cassandra](dba)

Martin Hope
jetjo
Asked: 2025-03-25 15:00:05 +0800 CST

需要明确将表克隆到另一个集群的记录流程

  • 7

我已重读了这篇文章好几次 ,但仍然无法理解一些内容......

  1. 我有包含 3 个 dc 的生产集群,并且每个 dc 中的表都有 rf=3
  2. 我已经在每个节点上同时使用 ansible 拍摄了快照

2.1)我在测试集群上为键空间和表创建了相同的模式

  1. 下一步我必须将每个快照复制到每个测试服务器?例如:prod1 --> test1:path_to_table,prod2 --> test2:path_to_table?
  2. 最后一步:我到底应该在哪里运行 sstableloader?我必须在测试集群中的每个服务器上运行它吗?还是只在某一个服务器上运行?-d 选项表示源节点还是目标节点?请帮忙。
cassandra
  • 1 个回答
  • 46 Views
Martin Hope
FMH
Asked: 2025-03-13 01:27:20 +0800 CST

Cassandra ARM64 支持:自何时起以及在哪里下载?

  • 5

试图了解 Apache Cassandra 何时开始支持 ARM-64 架构。具体来说,是 AWS Graviton。我发现了多份比较英特尔和 ARM 上 C* 性能的文档。但没有版本详细信息。示例,https://community.arm.com/arm-community-blogs/b/servers-and-cloud-computing-blog/posts/increase-price_2d00_performance-by-deploying-cassandra-on-aws-graviton2

我的问题是......

  1. 从 4.0 版本开始,C* 是否开始像 AWS Graviton 一样支持 ARM64?
  2. ARM64 版本的 C* 没有单独的二进制下载吗?

谢谢

cassandra
  • 1 个回答
  • 18 Views
Martin Hope
jetjo
Asked: 2025-03-11 21:13:10 +0800 CST

Cassandra 二级索引构建缓慢

  • 5

有没有办法增加同时构建的二级索引的数量?如果我们有一个节点突然关闭,并且在引导后我们在 debug.log 中看到一些索引“正在提交构建”(重建以修复),cassandra 将在一个线程中执行此操作,其他索引(如果我们有另一个)保持待处理状态。PS cassandra 版本是 4.0.1

cassandra
  • 1 个回答
  • 16 Views
Martin Hope
eckstein151
Asked: 2025-02-25 19:08:28 +0800 CST

我该如何修复:IllegalArgumentException:e9311530-b596-11e8-b635-dd45db3e561g 已在 reverseMap 中绑定到(demo,airports)

  • 5

我们在 RedHat 上安装了三个节点的 Cassandra 集群。以前,集群可以毫无问题地停止和启动。重新启动集群后,Cassandra 不再启动。出现以下错误

ERROR [main] 2025-02-25 11:25:58,771 CassandraDaemon.java:708 - Exception encountered during startup

java.lang.IllegalArgumentException: e9311530-b596-11e8-b635-dd45db3e561g is already bound in reverseMap to (demo,airports)

at org.apache.cassandra.utils.ConcurrentBiMap.put(ConcurrentBiMap.java:97) ~[apache-cassandra-3.11.2.jar:3.11.2]

这个问题该如何解决?

https://issues.apache.org/jira/browse/CASSANDRA-15166中有一个较早的讨论,但没有提出解决方案。

cassandra
  • 1 个回答
  • 17 Views
Martin Hope
Lis Shimoni
Asked: 2025-01-27 22:32:55 +0800 CST

如何在不影响性能的情况下启用静态数据加密?

  • 5

我希望为我的 Cassandra 集群添加加密,以提高数据安全性。以下是我的设置细节以及我遇到的问题:

集群详情:8 个节点,每个节点都有 TB 级的数据。

尝试:尝试添加加密的 EBS 卷并更改数据路径,但这导致整个集群的性能显著滞后。添加了配置了加密的新节点(用于 SSTable 和节点间加密的 JKS),但这造成了严重中断并使整个集群不稳定。

面临的挑战:迁移到加密 EBS 卷时延迟严重。引入带加密的新节点时集群不稳定。

问题:在 Cassandra 集群中启用加密(静态数据)的推荐方法是什么,以最短的停机时间并且不会严重影响性能?

任何见解或最佳实践都将不胜感激!

cassandra
  • 2 个回答
  • 27 Views
Martin Hope
Коля Курик
Asked: 2025-01-25 00:17:30 +0800 CST

Cassandra 4.1 中已弃用的配置属性

  • 5

我需要一些建议,我将 Ubuntu 22.04 上拥有 7 个节点的 cassandra 集群从 4.0.5 升级到了 4.1.7,我是这样做的:

  • 停止 Cassandra,步骤:nodetool drip、nodetool stopdaemon
  • 编辑 /etc/apt/sources.list.d/cassandra.sources.list,将 deb http://www.apache.org/dist/cassandra/debian 40x main 替换为 deb https://debian.cassandra.apache.org 41x main
  • 升级:apt-get install --only-upgrade Cassandra
  • 重新启动 systemctl restart Cassandra

我对每个节点都继续执行此操作。之后我收到了警告:

WARN  08:50:08,758 [dynamic_snitch_reset_interval_in_ms, tracetype_query_ttl, request_timeout_in_ms, row_cache_size_in_mb, counter_write_request_timeout_in_ms, column_index_size_in_kb, trickle_fsync_interval_in_kb, cas_contention_timeout_in_ms, key_cache_size_in_mb, range_request_timeout_in_ms, enable_transient_replication, dynamic_snitch_update_interval_in_ms, column_index_cache_size_in_kb, write_request_timeout_in_ms, index_summary_resize_interval_in_minutes, permissions_validity_in_ms, max_hint_window_in_ms, enable_user_defined_functions, enable_sasi_indexes, read_request_timeout_in_ms, enable_drop_compact_storage, enable_legacy_ssl_storage_port, credentials_validity_in_ms, batch_size_warn_threshold_in_kb, index_summary_capacity_in_mb, commitlog_sync_period_in_ms, batchlog_replay_throttle_in_kb, windows_timer_interval, enable_scripted_user_defined_functions, commitlog_segment_size_in_mb, sstable_preemptive_open_interval_in_mb, tracetype_repair_ttl, roles_validity_in_ms, enable_materialized_views, prepared_statements_cache_size_mb, hinted_handoff_throttle_in_kb, compaction_large_partition_warning_threshold_mb, truncate_request_timeout_in_ms, slow_query_log_timeout_in_ms, hints_flush_period_in_ms, counter_cache_size_in_mb, max_hints_file_size_in_mb, compaction_throughput_mb_per_sec, batch_size_fail_threshold_in_kb] parameters have been deprecated. They have new names and/or value format; For more information, please refer to NEWS.txt

正如我在文档https://cassandra.apache.org/doc/4.1/cassandra/configuration/cass_yaml_file.html中看到的那样,我应该在以下内容中注释此参数cassandra.yaml:

  • dynamic_snitch_reset_interval_in_ms
  • tracetype_query_ttl
  • 请求超时(单位:毫秒)
  • row_cache_size_in_mb
  • counter_write_request_timeout_in_ms
  • 列索引大小(单位:kb)
  • trickle_fsync_interval_in_kb
  • cas_contention_timeout_in_ms
  • key_cache_size_in_mb
  • 范围请求超时(单位:毫秒)
  • 启用瞬时复制
  • dynamic_snitch_update_interval_in_ms
  • 列索引缓存大小(单位:kb)
  • 写入请求超时(毫秒)
  • index_summary_resize_interval_in_minutes
  • 权限有效性(单位:毫秒)
  • max_hint_window_in_ms
  • 启用用户定义函数
  • 启用_sasi_索引
  • 读取请求超时(毫秒)
  • 启用删除压缩存储
  • 启用旧版 SSL 存储端口
  • 凭证有效性(单位:毫秒)
  • 批次大小警告阈值(单位:kb)
  • index_summary_capacity_in_mb
  • commitlog_sync_period_in_ms
  • batchlog_replay_throttle_in_kb
  • windows_timer_interval
  • 启用脚本用户定义函数
  • commitlog_segment_size_in_mb
  • tracetype_repair_ttl
  • 角色有效性(单位:毫秒)
  • 启用物化视图
  • 准备好的语句缓存大小
  • hinted_handoff_throttle_in_kb
  • 压缩_大型分区_警告_阈值_mb
  • 截断请求超时(毫秒)
  • slow_query_log_timeout_in_ms
  • hints_flush_period_in_ms
  • counter_cache_size_in_mb
  • max_hints_file_size_in_mb
  • 压缩吞吐量
  • 批次大小_失败阈值_单位:kb

并sstable_preemptive_open_interval_in_mb改为sstable_preemptive_open_interval

对吧?

cassandra
  • 1 个回答
  • 26 Views
Martin Hope
stratacast1
Asked: 2025-01-18 08:47:44 +0800 CST

使用 Ansible 自动升级,对抗 APT 自动启动 Cassandra 服务

  • 5

我正准备将节点从 3.11.17 升级到 4.1.7。我已经手动成功完成了一些开发节点的升级,但我想使用 Ansible 使此过程更具可重复性。我在 Ubuntu 服务器上运行,因此我必须与 apt 自动启动服务作斗争。想知道在不让 apt 向我抛出默认文件并可能弄乱东西的情况下,进行这些升级的最正统流程是什么。我的想法是:

  1. 排空并停止一个节点
  2. 我必需的 cassandra.yaml 和 rack 属性文件中的模板
  3. 安装 Cassandra 4.1.7
  4. 应对 apt 自动启动 cassandra

这是否意味着灾难?我的数据不在来自软件包维护者的配置的默认路径 (/var/lib/cassandra) 中,并且我的一些配置变量在 4.1 中不再存在,所以我预计 Cassandra 会在启动时崩溃,并看到无法识别的变量(我在开发测试中遇到过)。我真正想要的是安装 Cassandra 并在开始之前仔细检查一下,但我没有这种奢侈。在多次测试中,成功安装后立即停止 Cassandra 不起作用,Cassandra 会继续存在。

cassandra
  • 1 个回答
  • 21 Views
Martin Hope
adinas
Asked: 2024-12-17 17:58:10 +0800 CST

Cassandra 数据库中的墓碑未被删除

  • 6

我认为 Cassandra 4.1.7 表中的墓碑不会被删除。

该表的 gc_grace_seconds = 345600

即使在运行之后nodetool garbagecollect(删除后远晚于 4 天),如果我运行,nodetool tablestats我会得到以下结果:

在此处输入图片描述

执行垃圾收集后,磁盘大小也不会减少。

我不确定我过去是否跑过nodetool compact(我想这意味着我需要继续使用它?)

附带问题,如何让 tablestats 返回更新的信息(而不是从 2024-12-12 开始)

谢谢

cassandra
  • 2 个回答
  • 60 Views
Martin Hope
Коля Курик
Asked: 2024-11-15 23:01:18 +0800 CST

如何在 Cassandra 4.0.5 上升级 Java 版本

  • 6

我想将 Cassandra 集群上的 Java 版本从 8 升级到 11。如何更好地做到这一点?我可以逐个节点升级 Java 版本吗?例如:

  • 停止1个节点
  • 升级 Java
  • 启动1个节点

并对另一个节点重复这些步骤,或者我是否需要在升级后修复节点。现在节点:

  • Cassandra 4.0.5
  • Java 8

我会很高兴听取您的建议。

cassandra
  • 2 个回答
  • 73 Views
Martin Hope
adinas
Asked: 2024-11-03 18:26:05 +0800 CST

5.0 上的架构更改导致 gossip 失败,oacdb.db.TypeSizes.sizeof() 返回“AssertionError: null”

  • 6

我们有一个 2 节点集群(我知道 3 是建议的最小值),它已经运行 Cassandra 3 和 4 多年,没有发生任何事故。

上周我们将两个节点都升级到了 Cassandra 5。

自那时起,节点之间似乎出现了流言蜚语和沟通问题。尤其是在更新架构时(例如创建或删除表时)。

这是在进行架构更改(删除表)之后立即出现的调试日志:

INFO  [Native-Transport-Requests-1] 2024-11-03 09:48:04,021 Keyspace.java:379 - Creating replication strategy r_internal params KeyspaceParams{durable_writes=true, replication=ReplicationParams{class=org.apache.cassandra.locator.SimpleStrategy, replication_factor=2}}
DEBUG [Native-Transport-Requests-1] 2024-11-03 09:48:04,064 MigrationCoordinator.java:430 - Reported schema a47919aa-79b3-362c-b023-d8ac89671885 at endpoint /10.10.2.27:7000
DEBUG [MigrationStage:1] 2024-11-03 09:48:04,070 MigrationCoordinator.java:749 - Pushing schema mutations: [Mutation(keyspace='system_schema', key='72617976656e5f696e7465726e616c', modifications=[
  [system_schema.columns] key=r_internal partition_deletion=deletedAt=-9223372036854775808, localDeletion=9223372036854775807 columns=[[] | []]
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=cdate |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=device_id |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=event_timestamp |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=info |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=input |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=node_id |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=output |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=server |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=unique_flow_process |
  [system_schema.indexes] key=r_internal partition_deletion=deletedAt=-9223372036854775808, localDeletion=9223372036854775807 columns=[[] | []]
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, index_name=p1489_log_node_input_output_unique_flow_process_idx |
  [system_schema.keyspaces] key=r_internal partition_deletion=deletedAt=-9223372036854775808, localDeletion=9223372036854775807 columns=[[] | [durable_writes replication]]
    Row[info=[ts=1730627238890000] ]: EMPTY | [durable_writes=true ts=1730627238890000], [replication=0000000200000005636c6173730000002b6f72672e6170616368652e63617373616e6472612e6c6f6361746f722e53696d706c655374726174656779000000127265706c69636174696f6e5f666163746f720000000132 ts=1730627238890000]
  [system_schema.tables] key=r_internal partition_deletion=deletedAt=-9223372036854775808, localDeletion=9223372036854775807 columns=[[] | []]
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output |
])]
DEBUG [MigrationStage:1] 2024-11-03 09:48:04,071 MigrationCoordinator.java:757 - Pushing schema mutations to /10.10.2.28:7000: [Mutation(keyspace='system_schema', key='72617976656e5f696e7465726e616c', modifications=[
  [system_schema.columns] key=r_internal partition_deletion=deletedAt=-9223372036854775808, localDeletion=9223372036854775807 columns=[[] | []]
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=cdate |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=device_id |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=event_timestamp |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=info |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=input |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=node_id |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=output |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=server |
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, column_name=unique_flow_process |
  [system_schema.indexes] key=r_internal partition_deletion=deletedAt=-9223372036854775808, localDeletion=9223372036854775807 columns=[[] | []]
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output, index_name=p1489_log_node_input_output_unique_flow_process_idx |
  [system_schema.keyspaces] key=r_internal partition_deletion=deletedAt=-9223372036854775808, localDeletion=9223372036854775807 columns=[[] | [durable_writes replication]]
    Row[info=[ts=1730627238890000] ]: EMPTY | [durable_writes=true ts=1730627238890000], [replication=0000000200000005636c6173730000002b6f72672e6170616368652e63617373616e6472612e6c6f6361746f722e53696d706c655374726174656779000000127265706c69636174696f6e5f666163746f720000000132 ts=1730627238890000]
  [system_schema.tables] key=r_internal partition_deletion=deletedAt=-9223372036854775808, localDeletion=9223372036854775807 columns=[[] | []]
    Row[info=[ts=-9223372036854775808] del=deletedAt=1730627238890000, localDeletion=1730627238 ]: table_name=p1489_log_node_input_output |
])]
ERROR [GossipStage:1] 2024-11-03 09:48:04,187 JVMStabilityInspector.java:70 - Exception in thread Thread[GossipStage:1,5,GossipStage]
java.lang.RuntimeException: java.lang.AssertionError
        at org.apache.cassandra.net.InboundSink.accept(InboundSink.java:108)
        at org.apache.cassandra.net.InboundSink.accept(InboundSink.java:45)
        at org.apache.cassandra.net.InboundMessageHandler$ProcessMessage.run(InboundMessageHandler.java:430)
        at org.apache.cassandra.concurrent.ExecutionFailure$1.run(ExecutionFailure.java:133)
        at java.base/java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1128)
        at java.base/java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:628)
        at io.netty.util.concurrent.FastThreadLocalRunnable.run(FastThreadLocalRunnable.java:30)
        at java.base/java.lang.Thread.run(Thread.java:829)
Caused by: java.lang.AssertionError: null
        at org.apache.cassandra.db.TypeSizes.sizeof(TypeSizes.java:44)
        at org.apache.cassandra.gms.VersionedValue$VersionedValueSerializer.serializedSize(VersionedValue.java:365)
        at org.apache.cassandra.gms.VersionedValue$VersionedValueSerializer.serializedSize(VersionedValue.java:343)
        at org.apache.cassandra.gms.EndpointStateSerializer.serializedSize(EndpointState.java:344)
        at org.apache.cassandra.gms.EndpointStateSerializer.serializedSize(EndpointState.java:300)
        at org.apache.cassandra.gms.GossipDigestAckSerializer.serializedSize(GossipDigestAck.java:96)
        at org.apache.cassandra.gms.GossipDigestAckSerializer.serializedSize(GossipDigestAck.java:61)
        at org.apache.cassandra.net.Message$Serializer.payloadSize(Message.java:1088)
        at org.apache.cassandra.net.Message.payloadSize(Message.java:1131)
        at org.apache.cassandra.net.Message$Serializer.serializedSize(Message.java:769)
        at org.apache.cassandra.net.Message.serializedSize(Message.java:1111)
        at org.apache.cassandra.net.OutboundConnections.connectionTypeFor(OutboundConnections.java:215)
        at org.apache.cassandra.net.OutboundConnections.connectionFor(OutboundConnections.java:207)
        at org.apache.cassandra.net.OutboundConnections.enqueue(OutboundConnections.java:96)
        at org.apache.cassandra.net.MessagingService.doSend(MessagingService.java:473)
        at org.apache.cassandra.net.OutboundSink.accept(OutboundSink.java:70)
        at org.apache.cassandra.net.MessagingService.send(MessagingService.java:462)
        at org.apache.cassandra.net.MessagingService.send(MessagingService.java:437)
        at org.apache.cassandra.gms.GossipDigestSynVerbHandler.doVerb(GossipDigestSynVerbHandler.java:110)
        at org.apache.cassandra.net.InboundSink.lambda$new$0(InboundSink.java:78)
        at org.apache.cassandra.net.InboundSink.accept(InboundSink.java:97)
        ... 7 common frames omitted
DEBUG [GossipStage:1] 2024-11-03 09:48:04,187 HeapUtils.java:133 - Heap dump creation on uncaught exceptions is disabled.
DEBUG [GossipStage:1] 2024-11-03 09:48:04,187 HeapUtils.java:133 - Heap dump creation on uncaught exceptions is disabled.

线程 Thread[GossipStage:1,5,GossipStage] 中的异常Exception不断重复出现。

此时,运行nodetool status显示,每个节点都认为另一个节点已关闭 在此处输入图片描述

我通常需要耗尽并重新启动两个节点(我一个接一个地执行此操作),以便它们互相看到并显示它们的模式是同步的。

以下是nodetool gossipinfo的输出(重新启动节点后)

/10.10.2.27
  generation:1730627829
  heartbeat:939
  STATUS:23:NORMAL,-1656170799351181049
  LOAD:898:2.029075780322E12
  SCHEMA:17:a47919aa-79b3-362c-b023-d8ac89671885
  DC:13:dc1
  RACK:15:rack1
  RELEASE_VERSION:6:5.0.2
  INTERNAL_IP:11:10.10.2.27
  RPC_ADDRESS:5:10.10.2.27
  NET_VERSION:2:12
  HOST_ID:3:8be5925c-0436-4bc7-bd4c-0fb5dd8fc9e5
  RPC_READY:35:true
  INTERNAL_ADDRESS_AND_PORT:9:10.10.2.27:7000
  NATIVE_ADDRESS_AND_PORT:4:10.10.2.27:9042
  STATUS_WITH_PORT:22:NORMAL,-1656170799351181049
  SSTABLE_VERSIONS:7:big-nb
  TOKENS:21:<hidden>
/10.10.2.28
  generation:1730628138
  heartbeat:619
  LOAD:586:2.215579324507E12
  SCHEMA:17:a47919aa-79b3-362c-b023-d8ac89671885
  DC:13:dc1
  RACK:15:rack1
  RELEASE_VERSION:6:5.0.2
  NET_VERSION:2:12
  HOST_ID:3:c9e8a4f8-c7b2-4cac-994a-e8de50c9f358
  RPC_READY:35:true
  INTERNAL_ADDRESS_AND_PORT:9:10.10.2.28:7000
  NATIVE_ADDRESS_AND_PORT:4:10.10.2.28:9042
  STATUS_WITH_PORT:22:NORMAL,-2024247660995288657
  SSTABLE_VERSIONS:7:big-nb
  TOKENS:21:<hidden>

这里从第二个节点开始

/10.10.2.27
  generation:1730627829
  heartbeat:906
  LOAD:898:2.029075780322E12
  SCHEMA:17:a47919aa-79b3-362c-b023-d8ac89671885
  DC:13:dc1
  RACK:15:rack1
  RELEASE_VERSION:6:5.0.2
  NET_VERSION:2:12
  HOST_ID:3:8be5925c-0436-4bc7-bd4c-0fb5dd8fc9e5
  RPC_READY:35:true
  INTERNAL_ADDRESS_AND_PORT:9:10.10.2.27:7000
  NATIVE_ADDRESS_AND_PORT:4:10.10.2.27:9042
  STATUS_WITH_PORT:22:NORMAL,-1656170799351181049
  SSTABLE_VERSIONS:7:big-nb
  TOKENS:21:<hidden>
/10.10.2.28
  generation:1730628138
  heartbeat:584
  STATUS:23:NORMAL,-2024247660995288657
  LOAD:524:2.215537773956E12
  SCHEMA:17:a47919aa-79b3-362c-b023-d8ac89671885
  DC:13:dc1
  RACK:15:rack1
  RELEASE_VERSION:6:5.0.2
  INTERNAL_IP:11:10.10.2.28
  RPC_ADDRESS:5:10.10.2.28
  NET_VERSION:2:12
  HOST_ID:3:c9e8a4f8-c7b2-4cac-994a-e8de50c9f358
  RPC_READY:35:true
  INTERNAL_ADDRESS_AND_PORT:9:10.10.2.28:7000
  NATIVE_ADDRESS_AND_PORT:4:10.10.2.28:9042
  STATUS_WITH_PORT:22:NORMAL,-2024247660995288657
  SSTABLE_VERSIONS:7:big-nb
  TOKENS:21:<hidden>

当他们遇到问题时,这是在 10.10.2.28 上运行时nodetool gossinfo显示的内容:

/10.10.2.27
  generation:1730626480
  heartbeat:810
  LOAD:771:2.029304184276E12
  SCHEMA:17:9bcfb867-92ca-3144-92d7-da5fed3359d0
  DC:13:dc1
  RACK:15:rack1
  RELEASE_VERSION:6:5.0.2
  NET_VERSION:2:12
  HOST_ID:3:8be5925c-0436-4bc7-bd4c-0fb5dd8fc9e5
  RPC_READY:35:true
  INTERNAL_ADDRESS_AND_PORT:9:10.10.2.27:7000
  NATIVE_ADDRESS_AND_PORT:4:10.10.2.27:9042
  STATUS_WITH_PORT:22:NORMAL,-1656170799351181049
  SSTABLE_VERSIONS:7:big-nb
  TOKENS:21:<hidden>
/10.10.2.28
  generation:1730625184
  heartbeat:2523
  STATUS:23:NORMAL,-2024247660995288657
  LOAD:2513:2.214202366182E12
  SCHEMA:2243:a47919aa-79b3-362c-b023-d8ac89671885
  DC:13:dc1
  RACK:15:rack1
  RELEASE_VERSION:6:5.0.2
  INTERNAL_IP:11:10.10.2.28
  RPC_ADDRESS:5:10.10.2.28
  NET_VERSION:2:12
  HOST_ID:3:c9e8a4f8-c7b2-4cac-994a-e8de50c9f358
  RPC_READY:35:true
  INTERNAL_ADDRESS_AND_PORT:9:10.10.2.28:7000
  NATIVE_ADDRESS_AND_PORT:4:10.10.2.28:9042
  STATUS_WITH_PORT:22:NORMAL,-2024247660995288657
  SSTABLE_VERSIONS:7:big-nb
  INDEX_STATUS:2198:{"r_internal.p1643_log_node_input_output_unique_flow_process_idx":"BUILD_SUCCEEDED","r_internal.p1720_log_node_input_output_unique_flow_process_idx":"BUILD_SUCCEEDED","r_internal.p1479_log_node_input_output_unique_flow_process_idx":"BUILD_SUCCEEDED"...}
  TOKENS:21:<hidden>
cassandra
  • 1 个回答
  • 40 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    连接到 PostgreSQL 服务器:致命:主机没有 pg_hba.conf 条目

    • 12 个回答
  • Marko Smith

    如何让sqlplus的输出出现在一行中?

    • 3 个回答
  • Marko Smith

    选择具有最大日期或最晚日期的日期

    • 3 个回答
  • Marko Smith

    如何列出 PostgreSQL 中的所有模式?

    • 4 个回答
  • Marko Smith

    列出指定表的所有列

    • 5 个回答
  • Marko Smith

    如何在不修改我自己的 tnsnames.ora 的情况下使用 sqlplus 连接到位于另一台主机上的 Oracle 数据库

    • 4 个回答
  • Marko Smith

    你如何mysqldump特定的表?

    • 4 个回答
  • Marko Smith

    使用 psql 列出数据库权限

    • 10 个回答
  • Marko Smith

    如何从 PostgreSQL 中的选择查询中将值插入表中?

    • 4 个回答
  • Marko Smith

    如何使用 psql 列出所有数据库和表?

    • 7 个回答
  • Martin Hope
    Jin 连接到 PostgreSQL 服务器:致命:主机没有 pg_hba.conf 条目 2014-12-02 02:54:58 +0800 CST
  • Martin Hope
    Stéphane 如何列出 PostgreSQL 中的所有模式? 2013-04-16 11:19:16 +0800 CST
  • Martin Hope
    Mike Walsh 为什么事务日志不断增长或空间不足? 2012-12-05 18:11:22 +0800 CST
  • Martin Hope
    Stephane Rolland 列出指定表的所有列 2012-08-14 04:44:44 +0800 CST
  • Martin Hope
    haxney MySQL 能否合理地对数十亿行执行查询? 2012-07-03 11:36:13 +0800 CST
  • Martin Hope
    qazwsx 如何监控大型 .sql 文件的导入进度? 2012-05-03 08:54:41 +0800 CST
  • Martin Hope
    markdorison 你如何mysqldump特定的表? 2011-12-17 12:39:37 +0800 CST
  • Martin Hope
    Jonas 如何使用 psql 对 SQL 查询进行计时? 2011-06-04 02:22:54 +0800 CST
  • Martin Hope
    Jonas 如何从 PostgreSQL 中的选择查询中将值插入表中? 2011-05-28 00:33:05 +0800 CST
  • Martin Hope
    Jonas 如何使用 psql 列出所有数据库和表? 2011-02-18 00:45:49 +0800 CST

热门标签

sql-server mysql postgresql sql-server-2014 sql-server-2016 oracle sql-server-2008 database-design query-performance sql-server-2017

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve