AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / user-423473

shalom's questions

Martin Hope
shalom
Asked: 2019-12-16 05:56:40 +0800 CST

mkfs + xfs + 什么是正确的 mkfs cli,以便在巨大的磁盘上创建 xfs 文件系统

  • 0

我们需要在磁盘上创建xfs文件系统 kafka

磁盘的特殊之处kafka在于磁盘大小

kafka在我们的例子中磁盘有20TB大小

我不确定以下内容mkfs,但我需要建议以了解以下 cli 是否足以xfs在巨大的磁盘(kafka机器)上创建文件系统

 DISK=sdb
 mkfs.xfs -L kafka  /dev/$DISK -f      

卡夫卡最佳实践

文件系统选择 Kafka 使用磁盘上的常规文件,因此它对特定文件系统没有硬依赖。我们推荐 EXT4 或 XFS。最近对 XFS 文件系统的改进表明它对 Kafka 的工作负载具有更好的性能特征,而不会影响稳定性。注意:不要使用挂载的共享驱动器和任何网络文件系统。根据我们的经验,已知 Kafka 在此类文件系统上存在索引故障。Kafka 使用 MemoryMapped 文件来存储在网络文件系统上存在已知问题的偏移量索引。

hard-drive
  • 1 个回答
  • 479 Views
Martin Hope
shalom
Asked: 2019-12-10 07:08:30 +0800 CST

什么是清除 /var/spool/abrt/ 的正确方法

  • -1

我们希望自动化从/var/spool/abrt/.

我们有 RHEL 机器 - 版本 7.x。

已知的方法是执行以下操作

# systemctl stop abrtd
# systemctl stop abrt-oops

我们可以使用以下 rm 命令删除所有这些目录和文件:

# abrt-cli rm /var/spool/abrt/*

然后启动服务

# systemctl start abrtd
# systemctl start abrt-oops

我们希望将删除过程简化如下——它将删除超过 10 天的目录/var/spool/abrt/

find /var/spool/abrt/  -type d -ctime +10  -exec rm -rf {} \;

/var/spool/abrt/清除目录是一个不错的选择吗?

linux
  • 1 个回答
  • 2763 Views
Martin Hope
shalom
Asked: 2019-11-21 11:48:12 +0800 CST

是否可以在 hadoop 集群中混合不同的 RHEL OS 版本?

  • 0

我们将以下 HDP 集群与 ambari 一起使用,

节点列表及其 RHEL 版本

3 masters machines ( with namenode & resource manager ) , installed on RHEL 7.2

312 DATA-NODES machines , installed on RHEL 7.2

5 kafka machines , installed on RHEL 7.2

现在我们想将以下机器添加到集群中,但使用 RHEL 7.5

85 DATA-NODES machines , should be installed on RHEL 7.5 version

2 kafka brokers machines , should be installed on RHEL 7.5 version

所以我的问题是

我们可以在 HDP 集群 RHEL 7.2 和 RHEL 7.5 版本中混合使用吗?

redhat
  • 1 个回答
  • 173 Views
Martin Hope
shalom
Asked: 2019-11-18 15:53:22 +0800 CST

如何从 linux 机器 + rhel 7.2 检测 vMotion

  • 1

我们有几个 Linux Red Hat 虚拟机在 VMware ESXi 集群上运行。

我们不确定是否配置了 vMotion。

是否可以从来宾 Linux Red Hat 操作系统本身中识别是否配置或激活了 vMotion?

vmware-esxi
  • 1 个回答
  • 451 Views
Martin Hope
shalom
Asked: 2019-11-07 05:04:49 +0800 CST

Linux + 安装到操作系统卷的 docker 容器文件夹 + 如何知道真正的有限大小

  • 2

在里面docker-compose.yml我们配置了以下卷

image: confluentinc/cp-kafka:latest
volumes:
  - /grid/kafka-data:/var/lib/kafka/data

.

docker-compose ps
               Name                           Command            State                     Ports
-------------------------------------------------------------------------------------------------------------------
kafka-node_kafka_1            /etc/confluent/docker/run   Up      0.0.0.0:9092->9092/tcp

据我了解-kafka docker容器路径-/var/lib/kafka/data安装到/var/kafka-data,当(/var/kafka-data,是linux操作系统的路径)

关于 -/var/kafka-data此挂载点文件夹已挂载到 OS 磁盘 - /dev/sdb而磁盘sdb大小为 - 1.8T byte

所以让我们总结一下:

/var/lib/kafka/data是 kafka docker 分区,/var只有100G

/var/kafka-data是挂载到 sdb 磁盘的分区(在 linux 操作系统上)

我想问这个问题是为了安全起见

让我们说在 kafka docker partition - 上/var/lib/kafka/data,大小/var/../data大于100G

是否意味着容器分区/var/lib/kafka/data仅限于100G?


或者/var在 kafka docker 容器上限制为外部卷1.8T byte?

从kafka容器方面我们有:

# df -h /var
Filesystem      Size  Used Avail Use% Mounted on
overlay         101G  7.5G   94G   8% /


df -h  /var/lib/kafka/data/
Filesystem               Size  Used Avail Use% Mounted on
/dev/mapper/os-rhel_root   101G  7.5G   94G   8% /var/lib/kafka/data

在容器之外——在我们拥有的真正的 Linux 操作系统上

df -h

Filesystem                Size  Used Avail Use% Mounted on
/dev/mapper/os-rhel_root  50G  5.3G   45G   11% /
devtmpfs                  12G     0  12G    0% /dev
tmpfs                     12G   156K  12G   1% /dev/shm
/dev/sdb                  1.8T   77M  1.8T   1% /grid/kafka-data
/dev/sda1                 492M  158M  335M  32% /boot
/dev/mapper/os-rhel_var   106G   11G   96G  10% /var
tmpfs                      26G     0   26G   0% /run/user/1005
tmpfs                      26G   20K   26G   1% /run/user/0
overlay                   101G  7.5G   94G   8% /var/lib/docker/overlay2/8411835673dfedd5986093eb771582dac7317d99f431b832f3baea8ea1aa3e4d/merged
shm                        64M     0   64M   0% /var/lib/docker/containers/629aefd21b6042ebfbf1a0a08a882b2f1865137edfb4b2b02f5c9a1681d895e4/mounts/shm
overlay                   101G  7.5G   94G   8% /var/lib/docker/overlay2/b4677bed14050337580958bc903bbb733d9464ca8bfc46124c3c506dc064867d/merged
.
.
.
redhat
  • 1 个回答
  • 405 Views
Martin Hope
shalom
Asked: 2019-09-17 01:55:01 +0800 CST

为什么 /var/log/chrony 文件夹是空的?

  • 1

我们正在使用 chrony 将我们的服务器同步到 ntp 服务器(redhat 7.2)

我们在 chrony.conf 中配置了 logdir /var/log/chrony

并重新启动 chrony ( systemctl restart chronyd ) ,

但仍然是文件夹 - /var/log/chrony 是空的,没有日志

可能是什么原因 ?

linux
  • 1 个回答
  • 4846 Views
Martin Hope
shalom
Asked: 2019-07-23 11:45:38 +0800 CST

sar + 从 sar 获取网络信息

  • 0

此语法提供有关 sa1 文件的网络信息

sar -n DEV -f /var/log/sa/sa1

如何仅从 UDP 协议获取信息?

我们也尝试

sar -n UDP -f /var/log/sa/sa1
Requested activities not available in file /var/log/sa/sa1
linux
  • 1 个回答
  • 539 Views
Martin Hope
shalom
Asked: 2019-05-11 05:30:59 +0800 CST

在 redhat 7.2 上自动挂载 nfs 不起作用

  • 1

我的 linux 客户端(redhat 7.2)上有以下 nfd 共享文件夹

master1:/nfs             41932800 6601728  35331072  16% /nfsshare

我们决定使用服务 auto fs 以防此共享文件夹被卸载

我们创建了以下服务(根据链接 - https://michlstechblog.info/blog/systemd-automount-nfs-export/)

ls -ltr  auto-mnt.service
-rw-r--r-- 1 root root 212 May 10 12:38 auto-mnt.service

会议

 more  auto-mnt.service
[Unit]
  Description=nfs mount script
  Requires=network-online.target
  After=network-online.service

[Mount]
  What=master1:/nfs
  Where=/nfsshare
  Options=
  Type=nfs

[Install]
  WantedBy=multi-user.target

和

systemctl daemon-reload

和

 systemctl start auto-mnt.service
Failed to start auto-mnt.service: Unit auto-mnt.service failed to load: Invalid argument. See system logs and 'systemctl status auto-mnt.service' for details.
[root@ system]# systemctl status auto-mnt.service
● auto-mnt.service - nfs mount script
   Loaded: error (Reason: Invalid argument)
   Active: inactive (dead)

我们不明白为什么服务抱怨 -

[/etc/systemd/system/auto-mnt.service:6] Unknown section 'Mount'. Ignoring.
auto-mnt.service lacks both ExecStart= and ExecStop= setting. Refusing.

Unknown section 'Mount'. Ignoring

服务语法有什么问题?

redhat
  • 1 个回答
  • 118 Views
Martin Hope
shalom
Asked: 2019-04-17 11:20:35 +0800 CST

如何调整 linux 机器以提高 CPU 平均负载和 CPU 利用率

  • 0

我们正在使用巨大的 hadoop 集群。

我们有 736 台数据节点机器,每个节点有 16 核 X 2 线程。

在某些机器上,我们看到 CPU 平均负载(98-128 持续 5 分钟)。

经过深入调查,我们确定:

no HW problem
no Disk proble
no network problem
no infra problem

我们仍然没有检查的是关于调整 linux 参数和调整内核参数。

有哪些参数或任何内核参数可以帮助机器在大多数 CPU 低负载平均情况下获得良好的 CPU 工作。

http://linuxrealtime.org/index.php/Improving_the_Real-Time_Properties

linux
  • 2 个回答
  • 689 Views
Martin Hope
shalom
Asked: 2019-02-08 07:09:42 +0800 CST

集群中的kafka机器和kafka通信

  • 0

我们有带有 3 个 kafka 代理节点和 3 个 zookperes 服务器的 kafka 集群

kafka 版本 - 10.1 ( hortonworks )

据我了解,因为所有元数据都位于 zookeeper 服务器上,并且 kafka 代理正在使用这些数据(kafka 通过端口 2181 与 zookeeper 服务器交谈)

我只是想知道每台 kafka 机器是否与集群中的其他 kafka 通信,或者 kafka 是否仅在 Zookeepers 服务器上/从 Zookeepers 服务器上获取/放置数据?

那么 kafka 服务需要与集群中的其他 kafka 通信吗?, 或者也许 kafka 机器只需要从 zookeepers 服务器获取所有内容?

kafka
  • 1 个回答
  • 62 Views
Martin Hope
shalom
Asked: 2019-01-02 05:28:06 +0800 CST

如何在文件/文件夹权限中添加点递归

  • 1

具有权限的文件示例

-rwxr-xr-x. 1 root root  659 Jan  4  2018 zookeeper-server-initialize
-rwxr-xr-x. 1 root root  649 Jan  4  2018 zookeeper-server-cleanup
-rwxr-xr-x. 1 root root  648 Jan  4  2018 zookeeper-server
-rwxr-xr-x. 1 root root  303 Jan  4  2018 zookeeper-client
-rwxr-xr-x. 1 root root 6822 Jan  4  2018 zkServer.sh
-rwxr-xr-x. 1 root root   12 Jan  4  2018 zkServer-initialize.sh
-rwxr-xr-x. 1 root root 2840 Jan  4  2018 zkEnv.sh
-rwxr-xr-x. 1 root root 1709 Jan  4  2018 zkCli.sh
-rwxr-xr-x. 1 root root 2155 Jan  4  2018 zkCleanup.sh

如果我们只有这个文件,例如:(没有点)

-rwxr-xr-x 1 root root 2155 Jan  4  2018 zkCleanup.sh

那么将这个点添加到文件权限的命令是什么?

第二个如何添加点递归

例如在所有子文件夹下

/usr/hdp/current/zookeeper-server

之前的例子

 pwd
/usr/hdp/current/zookeeper-server


 ls -Z
drwxr-xr-x root root ?                                bin
lrwxrwxrwx root root ?                                conf -> /etc/zookeeper/2.6.4.0-91/0
drwxr-xr-x root root ?                                doc
drwxr-xr-x root root ?                                etc
drwxr-xr-x root root ?                                lib
drwxr-xr-x root root ?                                man
drwxr-xr-x root root ?                                usr
-rw-r--r-- root root ?                                zookeeper-3.4.6.2.6.4.0-91.jar
lrwxrwxrwx root root ?                                zookeeper.jar -> zookeeper-3.4.6.2.6.4.0-91.jar

预期输出:

 pwd
/usr/hdp/current/zookeeper-server

ls -Z
drwxr-xr-x. root root system_u:object_r:bin_t:s0       bin
lrwxrwxrwx. root root unconfined_u:object_r:usr_t:s0   conf -> /etc/zookeeper/2.6.4.0-91/0
drwxr-xr-x. root root system_u:object_r:usr_t:s0       doc
drwxr-xr-x. root root system_u:object_r:usr_t:s0       etc
drwxr-xr-x. root root system_u:object_r:lib_t:s0       lib
drwxr-xr-x. root root system_u:object_r:usr_t:s0       man
drwxr-xr-x. root root system_u:object_r:usr_t:s0       usr
-rw-r--r--. root root system_u:object_r:usr_t:s0       zookeeper-3.4.6.2.6.4.0-91.jar
lrwxrwxrwx. root root system_u:object_r:usr_t:s0       zookeeper.jar -> zookeeper-3.4.6.2.6.4.0-91.jar

我们试着

restorecon -r /usr/hdp
ls -ltr
total 12
drwxr-xr-x. 27 root root 4096 Oct 29 10:05 2.6.0.3-8
drwxr-xr-x  29 root root 4096 Nov  6 11:29 2.6.4.0-91
drwxr-xr-x.  2 root root 4096 Dec 31 13:01 current

但是 2.6.4.0-91 文件夹具有相同的权限(包括 2.6.4.0-91 下的子文件夹)

ls -Z
drwxr-xr-x. root root system_u:object_r:usr_t:s0       2.6.0.3-8
drwxr-xr-x  root root ?                                2.6.4.0-91
drwxr-xr-x. root root unconfined_u:object_r:usr_t:s0   current
linux
  • 1 个回答
  • 1152 Views
Martin Hope
shalom
Asked: 2018-05-16 21:07:15 +0800 CST

清除kafka主题后如何返回原始日志保留

  • 0

我们有 3 台 kafka 机器版本 - 0.10.0.2.6

我们要清除所有 kafka 主题中的所有数据文件(完全清除所有数据)

此操作的 CLI 应该是(应该从动物园服务器运行)

kafka-topics.sh --zookeeper localhost:2181 --alter --topic Topic1 --config retention.ms=1000
kafka-topics.sh --zookeeper localhost:2181 --alter --topic Topic2 --config retention.ms=1000
kafka-topics.sh --zookeeper localhost:2181 --alter --topic Topic3 --config retention.ms=1000
kafka-topics.sh --zookeeper localhost:2181 --alter --topic Topic4 --config retention.ms=1000

由于我们暂时将主题的保留时间更新为一秒(1000 毫秒)

那么如何恢复之前的原始保留!

注意 - log.retention.hours = 168(来自 ambari GUI),这是原始值

那么如何返回所有主题的原始值(168 小时)?清除所有主题后?

linux
  • 1 个回答
  • 189 Views
Martin Hope
shalom
Asked: 2018-05-03 04:16:12 +0800 CST

redhat 6 版本 + xfs_repair 或 fsck.xfs 以修复损坏的文件系统

  • -2

我们有 redhat 机器版本 - 6.x

所有挂载的磁盘都具有 xfs 文件系统:

UUID=198s5364-a29c-429e-b16d-e772acd /data_SA              xfs     rw,noatime,inode64,allocsize=16m 1 2

我们想修复一些磁盘上的文件系统,

什么是正确的使用方法

  1. xfs_repair
  2. fsck.xfs
  3. fsck
linux
  • 2 个回答
  • 2614 Views
Martin Hope
shalom
Asked: 2018-04-26 10:34:32 +0800 CST

linux redhat + 如何解决主机响应包无效的问题

  • 0

我们在/var/log/messages中有数千条以下消息

我们也有奇怪的问题,机器每隔几天就会重启

为了避免这些消息需要做什么?

Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.62.110.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.42.214.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.56.252.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.60.181.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.56.229.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.61.249.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.60.171.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.44.218.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.60.164.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.61.247.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.58.59.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.62.106.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.61.244.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.61.38.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.58.58.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.54.180.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.60.163.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.61.246.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.54.182.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.61.46.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.47.248.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.7.166.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.60.94.
Apr 25 00:08:31 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.46.108.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.58.56.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.34.247.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.60.180.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.36.86.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.27.116.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.62.111.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.45.202.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.48.29.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.48.32.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.61.135.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.47.244.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.58.63.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.48.52.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.62.207.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.58.159.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.56.199.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.42.241.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.60.61.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.35.160.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.22.128.
Apr 25 00:08:32 app_linux02 avahi-daemon[953]: Invalid response packet from host 91.61.56.231.
linux
  • 2 个回答
  • 937 Views
Martin Hope
shalom
Asked: 2018-04-25 00:07:12 +0800 CST

挂载+验证磁盘状态+磁盘不是读/写

  • 1

朋友和同事,

我们检查 sdb 磁盘看这是否是 rw 但我们得到“ew”,这是什么意思?

mount | grep sdb
/dev/sdb on /montoptree/sdb type ext4 (ew,noatime, data=ordered)

我还阅读了有关 mount 的mount手册页

   ro     Mount the filesystem read-only.
   rw     Mount the filesystem read-write.

但看不到“ew”

linux
  • 1 个回答
  • 187 Views
Martin Hope
shalom
Asked: 2018-03-06 21:10:37 +0800 CST

linux redhat上的剂量设置巨型帧影响操作系统性能?

  • 0

我们在所有 linux 机器上将 MTU 设置为 9000(我们有 redhat 机器版本 - 7.3),linux 机器是 hadoop 集群的一部分

我们想知道将 MTU 设置为 9000 是否会对操作系统性能产生负面影响?

剂量将其他巨型帧值设置为 MTU=8000 或更少/更多,关于操作系统性能会更好吗?

linux
  • 1 个回答
  • 309 Views
Martin Hope
shalom
Asked: 2018-02-25 14:57:07 +0800 CST

如何知道我的服务器是否应该使用大页面(内存页面大小)

  • 1

我们在集群中有几台服务器,我们想知道在什么情况下我们需要配置大页面?

我也有几个问题

  1. 剂量“内存页面大小”等于巨大的页面?

在我的 linux 服务器中,我输入了以下命令来验证默认内存页面大小

grep Hugepagesize /proc/meminfo

Hugepagesize: 2048 kB

getconf PAGESIZE

4096
  1. 但正如大家在这里看到的那样,我们得到了不同的结果,为什么?

  2. 使用大页面有什么风险?

  3. 剂量禁用透明大页面 - 意味着禁用大页面选项?

linux
  • 2 个回答
  • 4419 Views
Martin Hope
shalom
Asked: 2018-02-23 21:19:44 +0800 CST

将 MTU 设置为巨型帧后的 linux 微调

  • 0

我们想在我们的 Linux 机器上将 MTU 设置为 9000 字节(发行版是 Redhat 7)

在这种情况下,我将如何根据 9000 字节的 MTU 大小调整内存页面大小?

此外,将 MTU 设置为 9000 字节有哪些风险?会不会有性能问题?对网络性能的可能影响是什么?

linux
  • 1 个回答
  • 573 Views
Martin Hope
shalom
Asked: 2018-01-14 16:46:33 +0800 CST

为什么 ambari 代理坚持要创建另一个存储库文件

  • 0

我们正在ambari - 2.6.0上安装新的 hadoop 版本 - 2.6.3.0

从 ambari 代理日志中,我们看到以下内容:

Writing File['/etc/yum.repos.d/ambari-hdp-51.repo'] because contents don't match

为什么 ambari 创建文件 - ambari-hdp-51.repo ,?是否可以禁用此操作?(我的意思是如何配置 amabri 不创建这个 repo 文件?)

ambari 创建这个 repo 很奇怪,因为在 /etc/yum.trepo.d 下,

我们已经有了 ambari 和 hadoop 的 repo 文件,那么为什么 ambari 坚持要创建文件 - ambari-hdp-51.repo以及如何禁用它?

完整日志:

vi /var/lib/ambari-agent/data/output-370.txt
2018-01-04 14:40:06,895 - Will install packages for repository version 2.6.3.0
2018-01-04 14:40:06,895 - Repository['HDP-2.6-repo-55'] {'append_to_file': False, 'base_url': 'http://master02.sys453.com/HDP/centos7/2.6.3.0-235', 'action': ['create'], 'components': [u'HDP', 'main'], 'repo_template': '[{{repo_id}}]\nname={{repo_id}}\n{% if mirror_list %}mirrorlist={{mirror_list}}{% else %}baseurl={{base_url}}{% endif %}\n\npath=/\nenabled=1\ngpgcheck=0', 'repo_file_name': 'ambari-hdp-55', 'mirror_list': None}
2018-01-04 14:40:06,939 - File['/etc/yum.repos.d/ambari-hdp-55.repo'] {'content': InlineTemplate(...)}
2018-01-04 14:40:06,941 - Writing File['/etc/yum.repos.d/ambari-hdp-55.repo'] because it doesn't exist
2018-01-04 14:40:06,942 - Repository['HDP-UTILS-1.1.0.21-repo-55'] {'append_to_file': True, 'base_url': 'http://master02.sys453.com/', 'action': ['create'], 'components': [u'HDP-UTILS', 'main'], 'repo_template': '[{{repo_id}}]\nname={{repo_id}}\n{% if mirror_list %}mirrorlist={{mirror_list}}{% else %}baseurl={{base_url}}{% endif %}\n\npath=/\nenabled=1\ngpgcheck=0', 'repo_file_name': 'ambari-hdp-55', 'mirror_list': None}
2018-01-04 14:40:06,950 - File['/etc/yum.repos.d/ambari-hdp-51.repo'] {'content': '[HDP-2.6-repo-51]\nname=HDP-2.6-repo-51\nbaseurl=http://master02.ipmassanalyt71.com/HDP/centos7/2.6.3.0-235\n\npath=/\nenabled=1\ngpgcheck=0\n[HDP-UTILS-1.1.0.21-repo-51]\nname=HDP-UTILS-1.1.0.21-repo-51\nbaseurl=http://master02.ipmassanalyt71.com/\n\npath=/\nenabled=1\ngpgcheck=0'}
2018-01-04 14:40:06,951 - Writing File['/etc/yum.repos.d/ambari-hdp-51.repo'] because contents don't match
linux
  • 1 个回答
  • 748 Views
Martin Hope
shalom
Asked: 2017-12-07 02:24:53 +0800 CST

在这种情况下,在 fstab 中配置 UUID 会出现问题

  • 3

我们正在考虑更改所有 Linux fstab 配置以使用 UUID 而不是当前配置

部分磁盘为非 RAID,部分磁盘为 RAID10

我在谷歌搜索并发现抱怨使用 UUID 为 RAID1 :

" 不幸的是,如果您使用软件 RAID1,则不得在 /etc/fstab 中使用 UUID。为什么?因为 RAID 卷本身和镜像的第一个元素似乎具有相同的文件系统 UUID。如果镜像损坏或出于任何其他原因md 设备未在启动时启动,系统将改为挂载任何随机底层磁盘,从而破坏您的镜像。然后您将需要完全重新同步。糟糕的 juju。

所以我只想知道我们是否可以将 UUID 用于 RAID10 ?

以及在哪些情况下(RAID 配置)不使用 UUID?

第二,在几行中使用 UUID 有什么好处?

linux
  • 1 个回答
  • 273 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve