AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • Início
  • system&network
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • Início
  • system&network
    • Recentes
    • Highest score
    • tags
  • Ubuntu
    • Recentes
    • Highest score
    • tags
  • Unix
    • Recentes
    • tags
  • DBA
    • Recentes
    • tags
  • Computer
    • Recentes
    • tags
  • Coding
    • Recentes
    • tags
Início / user-177397

Mat's questions

Martin Hope
Mat
Asked: 2020-08-30 11:47:16 +0800 CST

Windows 2019: não consigo descobrir por que minha unidade está cheia

  • 29

Em um Windows 2019 Server , a unidade D: está 100% cheia (500 Gb usados) :

insira a descrição da imagem aqui

Estou tentando entender por que o disco está cheio, mas não consigo porque tanto o File Explorer quanto o Total Commander relatam não mais que 33 Gb usados :

insira a descrição da imagem aqui

insira a descrição da imagem aqui

Também é estranho que o WinDirStat relate 100% (500 Gb) usado no resumo inicial, mas apenas 33 Gb usados ​​após a análise:

insira a descrição da imagem aqui

insira a descrição da imagem aqui

Observe que:

  • Estou logado como Administrador
  • Eu iniciei o WinDirStat com privilégios de administrador
  • Eu tentei com o administrador local e o administrador de domínio do Active Directory
  • Ativei arquivos ocultos e de sistema no File Explorer e no Total Commander
  • Executei o chkdsk na unidade D: sem encontrar nenhum problema

Encontrei 33 Gb de dados. Onde estão outros 467 Gb?

windows disk-space-utilization windows-server-2019
  • 4 respostas
  • 6347 Views
Martin Hope
Mat
Asked: 2020-08-27 23:13:52 +0800 CST

ZFS: arc_prune está usando 100% da CPU com alta média de carga

  • 1

Eu tenho um servidor de armazenamento de 4 discos com dois pools ZFS raidz1 e, de repente, ontem à noite, ele começou a funcionar com 100% da CPU com uma média de carga alta :

root@stg1:~# w
 07:05:48 up 296 days, 17:19,  1 user,  load average: 27.06, 25.49, 24.74
USER     TTY      FROM             LOGIN@   IDLE   JCPU   PCPU WHAT

Eu tenho muitos processos arc_prune que estão consumindo muita CPU:

arc_prune usando muita CPU

Meu zfs_arc_maxtamanho é padrão (que deve ser 50% da RAM do sistema) e, na verdade, não está usando mais de 16 Gb:

------------------------------------------------------------------------
ZFS Subsystem Report                Thu Aug 27 07:09:34 2020
ARC Summary: (HEALTHY)
    Memory Throttle Count:          0

ARC Misc:
    Deleted:                567.62m
    Mutex Misses:               10.46m
    Evict Skips:                10.46m

ARC Size:               102.63% 15.99   GiB
    Target Size: (Adaptive)     100.00% 15.58   GiB
    Min Size (Hard Limit):      6.25%   996.88  MiB
    Max Size (High Water):      16:1    15.58   GiB

ARC Size Breakdown:
    Recently Used Cache Size:   56.67%  9.06    GiB
    Frequently Used Cache Size: 43.33%  6.93    GiB

ARC Hash Breakdown:
    Elements Max:               1.48m
    Elements Current:       21.99%  325.26k
    Collisions:             62.96m
    Chain Max:              6
    Chains:                 12.66k

ARC Total accesses:                 36.36b
    Cache Hit Ratio:        81.78%  29.74b
    Cache Miss Ratio:       18.22%  6.62b
    Actual Hit Ratio:       81.55%  29.65b

    Data Demand Efficiency:     89.52%  598.92m
    Data Prefetch Efficiency:   22.19%  7.58m

    CACHE HITS BY CACHE LIST:
      Anonymously Used:     0.18%   53.22m
      Most Recently Used:       2.05%   608.89m
      Most Frequently Used:     97.66%  29.04b
      Most Recently Used Ghost: 0.05%   14.79m
      Most Frequently Used Ghost:   0.06%   17.72m

    CACHE HITS BY DATA TYPE:
      Demand Data:          1.80%   536.16m
      Prefetch Data:        0.01%   1.68m
      Demand Metadata:      97.83%  29.09b
      Prefetch Metadata:        0.36%   107.49m

    CACHE MISSES BY DATA TYPE:
      Demand Data:          0.95%   62.77m
      Prefetch Data:        0.09%   5.89m
      Demand Metadata:      97.10%  6.43b
      Prefetch Metadata:        1.87%   123.70m


DMU Prefetch Efficiency:                    12.04b
    Hit Ratio:          1.04%   124.91m
    Miss Ratio:         98.96%  11.92b



ZFS Tunable:
    zfs_arc_p_min_shift                               0
    zfs_checksums_per_second                          20
    zvol_request_sync                                 0
    zfs_object_mutex_size                             64
    spa_slop_shift                                    5
    zfs_sync_taskq_batch_pct                          75
    zfs_vdev_async_write_max_active                   10
    zfs_multilist_num_sublists                        0
    zfs_no_scrub_prefetch                             0
    zfs_vdev_sync_read_min_active                     10
    zfs_dmu_offset_next_sync                          0
    metaslab_debug_load                               0
    zfs_vdev_mirror_rotating_seek_inc                 5
    zfs_vdev_mirror_non_rotating_inc                  0
    zfs_read_history                                  0
    zfs_multihost_history                             0
    zfs_metaslab_switch_threshold                     2
    metaslab_fragmentation_factor_enabled             1
    zfs_admin_snapshot                                1
    zfs_delete_blocks                                 20480
    zfs_arc_meta_prune                                10000
    zfs_free_min_time_ms                              1000
    zfs_dedup_prefetch                                0
    zfs_txg_history                                   0
    zfs_vdev_max_active                               1000
    zfs_vdev_sync_write_min_active                    10
    spa_load_verify_data                              1
    zfs_dirty_data_max_max                            4294967296
    zfs_send_corrupt_data                             0
    zfs_scan_min_time_ms                              1000
    dbuf_cache_lowater_pct                            10
    zfs_send_queue_length                             16777216
    dmu_object_alloc_chunk_shift                      7
    zfs_arc_shrink_shift                              0
    zfs_resilver_min_time_ms                          3000
    zfs_free_bpobj_enabled                            1
    zfs_vdev_mirror_non_rotating_seek_inc             1
    zfs_vdev_cache_max                                16384
    ignore_hole_birth                                 1
    zfs_multihost_fail_intervals                      5
    zfs_arc_sys_free                                  0
    zfs_sync_pass_dont_compress                       5
    zio_taskq_batch_pct                               75
    zfs_arc_meta_limit_percent                        75
    zfs_arc_p_dampener_disable                        1
    spa_load_verify_metadata                          1
    dbuf_cache_hiwater_pct                            10
    zfs_read_chunk_size                               1048576
    zfs_arc_grow_retry                                0
    metaslab_aliquot                                  524288
    zfs_vdev_async_read_min_active                    1
    zfs_vdev_cache_bshift                             16
    metaslab_preload_enabled                          1
    l2arc_feed_min_ms                                 200
    zfs_scrub_delay                                   4
    zfs_read_history_hits                             0
    zfetch_max_distance                               8388608
    send_holes_without_birth_time                     1
    zfs_max_recordsize                                1048576
    zfs_dbuf_state_index                              0
    dbuf_cache_max_bytes                              104857600
    zfs_zevent_cols                                   80
    zfs_no_scrub_io                                   0
    zil_slog_bulk                                     786432
    spa_asize_inflation                               24
    l2arc_write_boost                                 8388608
    zfs_arc_meta_limit                                0
    zfs_deadman_enabled                               1
    zfs_abd_scatter_enabled                           1
    zfs_vdev_async_write_active_min_dirty_percent     30
    zfs_free_leak_on_eio                              0
    zfs_vdev_cache_size                               0
    zfs_vdev_write_gap_limit                          4096
    l2arc_headroom                                    2
    zfs_per_txg_dirty_frees_percent                   30
    zfs_compressed_arc_enabled                        1
    zfs_scan_ignore_errors                            0
    zfs_resilver_delay                                2
    zfs_metaslab_segment_weight_enabled               1
    zfs_dirty_data_max_max_percent                    25
    zio_dva_throttle_enabled                          1
    zfs_vdev_scrub_min_active                         1
    zfs_arc_average_blocksize                         8192
    zfs_vdev_queue_depth_pct                          1000
    zfs_multihost_interval                            1000
    zio_requeue_io_start_cut_in_line                  1
    spa_load_verify_maxinflight                       10000
    zfetch_max_streams                                8
    zfs_multihost_import_intervals                    10
    zfs_mdcomp_disable                                0
    zfs_zevent_console                                0
    zfs_sync_pass_deferred_free                       2
    zfs_nocacheflush                                  0
    zfs_arc_dnode_limit                               0
    zfs_delays_per_second                             20
    zfs_dbgmsg_enable                                 0
    zfs_scan_idle                                     50
    zfs_vdev_raidz_impl                               [fastest] original scalar
    zio_delay_max                                     30000
    zvol_threads                                      32
    zfs_vdev_async_write_min_active                   2
    zfs_vdev_sync_read_max_active                     10
    l2arc_headroom_boost                              200
    zfs_sync_pass_rewrite                             2
    spa_config_path                                   /etc/zfs/zpool.cache
    zfs_pd_bytes_max                                  52428800
    zfs_dirty_data_sync                               67108864
    zfs_flags                                         0
    zfs_deadman_checktime_ms                          5000
    zfs_dirty_data_max_percent                        10
    zfetch_min_sec_reap                               2
    zfs_mg_noalloc_threshold                          0
    zfs_arc_meta_min                                  0
    zvol_prefetch_bytes                               131072
    zfs_deadman_synctime_ms                           1000000
    zfs_autoimport_disable                            1
    zfs_arc_min                                       0
    l2arc_noprefetch                                  1
    zfs_nopwrite_enabled                              1
    l2arc_feed_again                                  1
    zfs_vdev_sync_write_max_active                    10
    zfs_prefetch_disable                              0
    zfetch_array_rd_sz                                1048576
    zfs_metaslab_fragmentation_threshold              70
    l2arc_write_max                                   8388608
    zfs_dbgmsg_maxsize                                4194304
    zfs_vdev_read_gap_limit                           32768
    zfs_delay_min_dirty_percent                       60
    zfs_recv_queue_length                             16777216
    zfs_vdev_async_write_active_max_dirty_percent     60
    metaslabs_per_vdev                                200
    zfs_arc_lotsfree_percent                          10
    zfs_immediate_write_sz                            32768
    zil_replay_disable                                0
    zfs_vdev_mirror_rotating_inc                      0
    zvol_volmode                                      1
    zfs_arc_meta_strategy                             1
    dbuf_cache_max_shift                              5
    metaslab_bias_enabled                             1
    zfs_vdev_async_read_max_active                    3
    l2arc_feed_secs                                   1
    zfs_arc_max                                       0
    zfs_zevent_len_max                                256
    zfs_free_max_blocks                               100000
    zfs_top_maxinflight                               32
    zfs_arc_meta_adjust_restarts                      4096
    l2arc_norw                                        0
    zfs_recover                                       0
    zvol_inhibit_dev                                  0
    zfs_vdev_aggregation_limit                        131072
    zvol_major                                        230
    metaslab_debug_unload                             0
    metaslab_lba_weighting_enabled                    1
    zfs_txg_timeout                                   5
    zfs_arc_min_prefetch_lifespan                     0
    zfs_vdev_scrub_max_active                         2
    zfs_vdev_mirror_rotating_seek_offset              1048576
    zfs_arc_pc_percent                                0
    zfs_vdev_scheduler                                noop
    zvol_max_discard_blocks                           16384
    zfs_arc_dnode_reduce_percent                      10
    zfs_dirty_data_max                                3344961536
    zfs_abd_scatter_max_order                         10
    zfs_expire_snapshot                               300
    zfs_arc_dnode_limit_percent                       10
    zfs_delay_scale                                   500000
    zfs_mg_fragmentation_threshold                    85

Estes são meus pools ZFS:

root@stg1:~# zpool status
  pool: bpool
 state: ONLINE
status: Some supported features are not enabled on the pool. The pool can
    still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(5) for details.
  scan: scrub repaired 0B in 0h0m with 0 errors on Sun Aug  9 00:24:06 2020
config:

    NAME                                         STATE     READ WRITE CKSUM
    bpool                                        ONLINE       0     0     0
      raidz1-0                                   ONLINE       0     0     0
        ata-HGST_HUH721010ALE600_JEJRYJ7N-part3  ONLINE       0     0     0
        ata-HGST_HUH721010ALE600_JEKELZTZ-part3  ONLINE       0     0     0
        ata-HGST_HUH721010ALE600_JEKEW7PZ-part3  ONLINE       0     0     0
        ata-HGST_HUH721010ALE600_JEKG492Z-part3  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
  scan: scrub repaired 0B in 7h34m with 0 errors on Sun Aug  9 07:58:40 2020
config:

    NAME                                         STATE     READ WRITE CKSUM
    rpool                                        ONLINE       0     0     0
      raidz1-0                                   ONLINE       0     0     0
        ata-HGST_HUH721010ALE600_JEJRYJ7N-part4  ONLINE       0     0     0
        ata-HGST_HUH721010ALE600_JEKELZTZ-part4  ONLINE       0     0     0
        ata-HGST_HUH721010ALE600_JEKEW7PZ-part4  ONLINE       0     0     0
        ata-HGST_HUH721010ALE600_JEKG492Z-part4  ONLINE       0     0     0

errors: No known data errors

As unidades são SATA e, infelizmente, não consigo adicionar nenhum dispositivo SSD de armazenamento em cache.

Existe alguma coisa que eu possa fazer para liberar alguma CPU?

zfs cpu-usage load-average
  • 1 respostas
  • 2377 Views
Martin Hope
Mat
Asked: 2019-08-10 08:08:29 +0800 CST

Implante o Minio distribuído em 3 nós com 1 unidade

  • 2

Eu preciso implantar uma infraestrutura MinIO em três nós, onde cada nó tem um único diretório local onde eles podem salvar arquivos.

Li o Guia de início rápido do código de eliminação do MinIO , mas não preciso do MinIO para gerenciar a replicação de dados em unidades locais diferentes porque todos os três nós estão em máquinas virtuais separadas em hardware separado e o armazenamento local já está protegido pelo ZFS.

Por esse motivo eu apenas o MinIO replica dados entre nós criando três réplicas de cada arquivo, mas quando tento iniciá-lo com um único diretório de dados ele falha:

minio@storage3:/usr/local/bin$ export MINIO_ACCESS_KEY=foo
minio@storage3:/usr/local/bin$ export MINIO_SECRET_KEY=bar
minio@storage3:/usr/local/bin$ ./minio server http://storage{1...3}/minio1
ERROR Invalid command line arguments: Invalid total number of endpoints for erasure mode.
      > Please provide correct combination of local/remote paths.
      HELP:
        For more information, please refer to https://docs.min.io/docs/minio-erasure-code-quickstart-guide

Você poderia me ajudar por favor?

storage
  • 2 respostas
  • 7290 Views
Martin Hope
Mat
Asked: 2019-07-07 07:38:07 +0800 CST

Tags não aplicadas na função incluída no Ansible

  • 2

Eu criei um playbook simples do Ansible:

---
- hosts: all

  tasks:
    - name: Install Icinga2 on Windows
      include_role:
        name: my.icinga2.role
        apply:
          tags:
            - install-icinga2

A função contém este arquivo de tarefas:

---
- include_tasks: vars.yml
  tags: ['always']

- include_tasks: install.yml
  tags: ['install-icinga2-stack', 'install-icinga2']

- include_tasks: ido-install.yml
  when: icinga2_ido_enable == true
  tags: ['install-icinga2-stack', 'install-icinga2-ido']  

- include_tasks: configure.yml
  tags: ['install-icinga2-stack']

[...]

Este é o resultado quando executo o playbook:

me@ansible:~/ansible$ ansible-playbook plays/icinga2-client-win.yml -i staging.ini --limit windows


PLAY [all] ***************************************************************************************************

TASK [Gathering Facts] ***********************************************************************************************************
ok: [my.windows.client]

TASK [Include variables for Icinga 2] ********************************************************************************************
ok: [my.windows.client]

TASK [set_fact] ******************************************************************************************************************
skipping: [my.windows.client]

TASK [set_fact] ******************************************************************************************************************
ok: [my.windows.client]

TASK [Install Icinga2 Client and connect it to the master server] ****************************************************************

TASK [my.icinga2.role : include_tasks] ***************************************************************************************
included: /home/me/ansible/roles/internal/my.icinga2.role/tasks/vars.yml for my.windows.client

TASK [my.icinga2.role : Set default fact for mysql command] ******************************************************************
ok: [my.windows.client]

TASK [my.icinga2.role : Set fact for mysql command if auth params are given] *************************************************
skipping: [my.windows.client]

TASK [my.icinga2.role : Set Monitoring Plugins for old Debian Versions] ******************************************************
skipping: [my.windows.client]

TASK [my.icinga2.role : include_tasks] ***************************************************************************************
included: /home/me/ansible/roles/internal/my.icinga2.role/tasks/install.yml for my.windows.client

TASK [my.icinga2.role : include_tasks] ***************************************************************************************
skipping: [my.windows.client]

TASK [my.icinga2.role : include_tasks] ***************************************************************************************
skipping: [my.windows.client]

TASK [my.icinga2.role : include_tasks] ***************************************************************************************
included: /home/me/ansible/roles/internal/my.icinga2.role/tasks/install-Windows.yml for my.windows.client

TASK [my.icinga2.role : set_fact] ********************************************************************************************
ok: [my.windows.client]

TASK [my.icinga2.role : set_fact] ********************************************************************************************
skipping: [my.windows.client]

TASK [my.icinga2.role : Install Icinga 2] ************************************************************************************
changed: [my.windows.client]

TASK [my.icinga2.role : include_tasks] ***************************************************************************************
skipping: [my.windows.client]

TASK [my.icinga2.role : include_tasks] ***************************************************************************************
included: /home/me/ansible/roles/internal/my.icinga2.role/tasks/configure.yml for my.windows.client

TASK [my.icinga2.role : Check if Icinga 2 API are already activated] *********************************************************
[ This should not be included! ]

RUNNING HANDLER [my.icinga2.role : Restart Icinga2 on Windows] ***************************************************************
    to retry, use: --limit @/home/me/ansible/plays/icinga2-client-win.retry

PLAY RECAP ***********************************************************************************************************************
my.windows.client   : ok=10   changed=1    unreachable=0    failed=1 

Por que o arquivo de tarefa de função configure.yml está incluído, pois deve ser incluído somente se eu aplicar a tag install-icinga2-stack e estiver aplicando a tag install-icinga2 ?

Além disso, percebo que o arquivo de tarefa de função ido-install.yml não está incluído apenas porque a variável icinga2_ido_enabletrue não está neste playbook (e seu padrão é false), não porque uma de suas tags não é aplicada (que deve ser o que eu quero) .

Onde estou errado?

ansible
  • 1 respostas
  • 9285 Views
Martin Hope
Mat
Asked: 2019-07-03 08:41:26 +0800 CST

Execução sem fim do Windows Ansible

  • 1

Estou tentando usar o Ansible no meu primeiro nó do Windows, usando winrm em HTTP (vou usar https como segunda etapa) e autenticação ntlm.

Configurei group_vars e a conexão básica com o host do Windows funciona:

me@ansible:~/ansible$ ansible -i staging.ini windows -m setup
windows-server.my.domain.name | SUCCESS => {
    "ansible_facts": {
        "ansible_architecture": "64-bit", 
        "ansible_bios_date": "04/01/2014", 
        "ansible_bios_version": "rel-1.11.1-0-g0551a4be2c-prebuilt.qemu-project.org", 
        "ansible_date_time": {
            [...]
        }, 
        "ansible_distribution": "Microsoft Windows Server 2016 Standard", 
        "ansible_distribution_major_version": "10", 
        "ansible_distribution_version": "10.0.14393.0", 
        "ansible_domain": "my.domain.name", 
        [...]
        "ansible_windows_domain": "my.domain.name, 
        "ansible_windows_domain_member": true, 
        "ansible_windows_domain_role": "Member server", 
        "gather_subset": [
            "all"
        ], 
        "module_setup": true
    }, 
    "changed": false
}

Agora estou tentando instalar um pacote MSI (Icinga 2) com um manual básico:

---
- hosts: all

  tasks:
    - name: Install Icinga 2
      win_package:
        path: "https://packages.icinga.com/windows/Icinga2-v2.10.5-x86_64.msi"
        product_id: "712727BA-156F-466A-9C25-7A6246602664"
        arguments: /install /passive /norestart

Mas quando eu o executo, ele permanece infinitamente travado sem saída:

me@ansible:~/ansible$ ansible-playbook plays/win-test.yml -i staging.ini --limit windows


PLAY [all] *****************************************************************************************************************

TASK [Gathering Facts] *************************************************************************************************************************
ok: [windows-server.my.domain.name]

TASK [Install Icinga 2] ************************************************************************************************************************

(no output after 10 minutes)

Eu já tentei depurar usando -vvvv, mas não gera nenhuma informação útil:

me@ansible:~/ansible$ ansible-playbook plays/win-test.yml -i staging.ini --limit windows -vvvv

TASK [Install Icinga 2] *******************************************************************************************************************
task path: /home/me/ansible/plays/win-test.yml:5
Using module file /home/me/.local/lib/python2.7/site-packages/ansible/modules/windows/win_package.ps1
<windows-server.my.domain.name> ESTABLISH WINRM CONNECTION FOR USER: DOMAIN\me on PORT 5985 TO windows-server.my.domain.name
checking if winrm_host windows-server.my.domain.name is an IPv6 address
EXEC (via pipeline wrapper)

(no output after 10 minutes)

Como posso depurá-lo?

windows
  • 1 respostas
  • 716 Views
Martin Hope
Mat
Asked: 2019-06-11 07:10:40 +0800 CST

Chaves Ansible e de dicionário com variáveis

  • 0

Estou tentando criar uma tarefa de modelo em um playbook Ansible que itera um dicionário que contém algumas variáveis:

- name: Task name
  lineinfile:
    path: /foo/bar
    regexp: "{{ item.regexp }}"
    line: "{{ item.line }}"
    with_items:
      - { regexp: "^(\/\/)?const NodeName", line: "const NodeName = '{{ inventory_hostname }}'" }
      - { regexp: "^(\/\/)?const ZoneName", line: "const ZoneName = '{{ inventory_hostname }}'" }
      - { regexp: "^(\/\/)?const {{ plugins_custom_dir_var_name }} =(.+)", line: "const {{ plugins_custom_dir_var_name }} = '{{ plugins_dest_dir }}'" }

Esta tarefa me dá o seguinte erro de sintaxe:

The offending line appears to be:\n\n    with_items:\n      - { regexp: \"^(\\/\\/)?const NodeName\", line: \"const NodeName = '{{ inventory_hostname }}'\" }\n                     ^ here\nWe could be wrong, but this one looks like it might be an issue with\nmissing quotes.  Always quote template expression brackets when they\nstart a value. For instance:\n\n    with_items:\n      - {{ foo }}\n\nShould be written as:\n\n    with_items:\n      - \"{{ foo }}\"\n"}

Não consigo entender onde estou errado.

ansible
  • 1 respostas
  • 2186 Views
Martin Hope
Mat
Asked: 2018-10-11 07:39:46 +0800 CST

Informações completas nos logs do Postfix

  • 0

Estou usando com sucesso o Postfix no Debian para retransmitir meu e-mail interno e estou enviando logs do arquivo mail.log para uma instância do Logstash, e estou mostrando-os em painéis do Kibana para procurar e-mails não entregues e devolvidos .

O problema que estou tendo é que o Postfix envia informações sobre e-mails entregues em várias linhas de log , por exemplo:

Oct  9 18:19:58 mailserver postfix/smtpd[11513]: 7958440AA2: client=client.fqdn[123.123.123.123]
Oct  9 18:19:59 mailserver postfix/cleanup[11518]: 7958440AA2: message-id=<>
Oct  9 18:19:59 mailserver postfix/qmgr[26050]: 7958440AA2: from=<[email protected]>, size=841, nrcpt=1 (queue active)
Oct  9 18:19:59 mailserver postfix/smtpd[11513]: disconnect from client.fqdn[123.123.123.123] helo=1 mail=1 rcpt=1 data=1 quit=1 commands=5
Oct  9 18:20:10 mailserver postfix/smtp[11519]: 7958440AA2: to=<[email protected]>, relay=relay.fqdn[111.111.111.111]:25, delay=12, delays=1/0.01/10/1.3, dsn=2.0.0, status=sent (250 2.0.0 Ok: queued as 1F2BF9679C4)
Oct  9 18:20:10 mailserver postfix/qmgr[26050]: 7958440AA2: removed

No Kibana estou exibindo logs com a tag status= , para saber se a mensagem foi entregue com sucesso ou não, mas desta forma estou perdendo a informação sobre o remetente, que é exibida em outra linha de log do Postfix.

Existe uma maneira de permitir que o Postfix insira a tag from= também na mesma linha de log com a tag success= ?

Ou existe uma maneira de "mesclar" vários logs no Logstash para ter as tags from= e success= em um painel do Kibana?

postfix
  • 1 respostas
  • 1046 Views
Martin Hope
Mat
Asked: 2018-01-31 09:05:58 +0800 CST

Modo de ligação Linux 802.3ad não ativado

  • 3

em um servidor executando o Debian Stretch , configurei um bond0 com o modo 802.3ad da seguinte forma:

auto bond0
iface bond0 inet manual
        slaves eth0 eth2
        bond_miimon 100
        bond_mode 802.3ad

A interface bond0 está funcionando, mas está funcionando com o modo de balanceamento de carga (round robin) :

root@servir01:~# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 2
Permanent HW addr: e4:1f:13:65:f0:c4
Slave queue ID: 0

Slave Interface: eth2
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 2
Permanent HW addr: e4:1f:13:36:a3:ac
Slave queue ID: 0

No switch, o LAG é criado corretamente com o LACP habilitado e tem ambas as portas em funcionamento:

[Status de LAG[1]

Status da Unidade3/porta1

Status da Unidade4/porta1

A mesma máquina tem outra interface bond (bond1 nas interfaces eth1 e eth3) configurada da mesma forma, conectada nos mesmos switches, e o LACP está funcionando bem:

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

802.3ad info
LACP rate: slow
Min links: 0
Aggregator selection policy (ad_select): stable
System priority: 65535
System MAC address: e4:1f:13:65:f0:c6
Active Aggregator Info:
    Aggregator ID: 1
    Number of ports: 2
    Actor Key: 9
    Partner Key: 1010

Por que a interface bond0 não deseja habilitar o LACP? Onde estou errado?

debian
  • 4 respostas
  • 9455 Views
Martin Hope
Mat
Asked: 2018-01-04 02:45:53 +0800 CST

Ingressando em um servidor Ubuntu como controlador de domínio adicional

  • 0

Estou tentando ingressar em um novo servidor Ubuntu 16.04 LTS como um controlador de domínio adicional, mas estou enfrentando alguns problemas.

O controlador de domínio primário existente é outro servidor Ubuntu 16.04 LTS e a versão do Samba é a mesma em ambos os servidores:

root@server-z1:/# samba -V
Version 4.6.7-Ubuntu

root@server-z2:/# samba -V
Version 4.6.7-Ubuntu

O DNS parece estar funcionando corretamente em server-z2:

root@server-z2:/# nslookup my.domain.name
Server:     192.168.70.201
Address:    192.168.70.201#53

Name:   my.domain.name
Address: 192.168.70.202
Name:   my.domain.name
Address: 192.168.70.201

root@server-z2:/# nslookup server-z1.my.domain.name
Server:     192.168.70.201
Address:    192.168.70.201#53

Name:   server-z1.my.domain.name
Address: 192.168.70.201

O tíquete inicial do Kerberos parece ter sido adquirido corretamente:

root@server-z2:/# kinit me
[email protected]'s Password: 
root@server-z2:/# klist
Credentials cache: FILE:/tmp/krb5cc_0
        Principal: [email protected]

  Issued                Expires               Principal
Jan  3 11:37:55 2018  Jan  3 21:37:53 2018  krbtgt/[email protected]

Mas quando tento entrar no domínio, recebo o seguinte erro:

root@server-z2:/# samba-tool domain join MY.DOMAIN.NAME DC -U"DOMAIN\me" --dns-backend=BIND9_DLZ --server='192.168.70.201'
GENSEC backend 'gssapi_spnego' registered
GENSEC backend 'gssapi_krb5' registered
GENSEC backend 'gssapi_krb5_sasl' registered
GENSEC backend 'spnego' registered
GENSEC backend 'schannel' registered
GENSEC backend 'naclrpc_as_system' registered
GENSEC backend 'sasl-EXTERNAL' registered
GENSEC backend 'ntlmssp' registered
GENSEC backend 'ntlmssp_resume_ccache' registered
GENSEC backend 'http_basic' registered
GENSEC backend 'http_ntlm' registered
GENSEC backend 'krb5' registered
GENSEC backend 'fake_gssapi_krb5' registered
Cannot do GSSAPI to an IP address
Got challenge flags:
Got NTLMSSP neg_flags=0x62898235
Password for [DOMAIN\me]:
NTLMSSP: Set final flags:
Got NTLMSSP neg_flags=0x62088235
NTLMSSP Sign/Seal - Initialising with flags:
Got NTLMSSP neg_flags=0x62088235
NTLMSSP Sign/Seal - Initialising with flags:
Got NTLMSSP neg_flags=0x62088235
workgroup is DOMAIN
realm is my.domain.name
Adding CN=SERVER-Z2,OU=Domain Controllers,DC=my,DC=domain,DC=name
Adding CN=SERVER-Z2,CN=Servers,CN=Default-First-Site-Name,CN=Sites,CN=Configuration,DC=my,DC=domain,DC=name
Adding CN=NTDS Settings,CN=SERVER-Z2,CN=Servers,CN=Default-First-Site-Name,CN=Sites,CN=Configuration,DC=my,DC=domain,DC=name
Using binding ncacn_ip_tcp:192.168.70.201[,seal]
Cannot do GSSAPI to an IP address
Got challenge flags:
Got NTLMSSP neg_flags=0x62898235
NTLMSSP: Set final flags:
Got NTLMSSP neg_flags=0x62088235
NTLMSSP Sign/Seal - Initialising with flags:
Got NTLMSSP neg_flags=0x62088235
NTLMSSP Sign/Seal - Initialising with flags:
Got NTLMSSP neg_flags=0x62088235
Adding SPNs to CN=SERVER-Z2,OU=Domain Controllers,DC=my,DC=domain,DC=name
Setting account password for SERVER-Z2$
Enabling account
Adding DNS account CN=dns-SERVER-Z2,CN=Users,DC=my,DC=domain,DC=name with dns/ SPN
Setting account password for dns-SERVER-Z2
Calling bare provision
lpcfg_load: refreshing parameters from /etc/samba/smb.conf
Looking up IPv4 addresses
Looking up IPv6 addresses
No IPv6 address will be assigned
Setting up secrets.ldb
Setting up the registry
ldb_wrap open of hklm.ldb
Setting up the privileges database
Setting up idmap db
Setting up SAM db
Setting up sam.ldb partitions and settings
Setting up sam.ldb rootDSE
Pre-loading the Samba 4 and AD schema
partition_metadata: Migrating partition metadata: open of metadata.tdb gave: (null)
A Kerberos configuration suitable for Samba AD has been generated at /var/lib/samba/private/krb5.conf
Provision OK for domain DN DC=my,DC=domain,DC=name
Starting replication
Using binding ncacn_ip_tcp:192.168.70.201[,seal]
Cannot do GSSAPI to an IP address
Got challenge flags:
Got NTLMSSP neg_flags=0x62898235
NTLMSSP: Set final flags:
Got NTLMSSP neg_flags=0x62088235
NTLMSSP Sign/Seal - Initialising with flags:
Got NTLMSSP neg_flags=0x62088235
NTLMSSP Sign/Seal - Initialising with flags:
Got NTLMSSP neg_flags=0x62088235
Schema-DN[CN=Schema,CN=Configuration,DC=my,DC=domain,DC=name] objects[402/1610] linked_values[0/0]
Schema-DN[CN=Schema,CN=Configuration,DC=my,DC=domain,DC=name] objects[804/1610] linked_values[0/0]
Schema-DN[CN=Schema,CN=Configuration,DC=my,DC=domain,DC=name] objects[1206/1610] linked_values[0/0]
Schema-DN[CN=Schema,CN=Configuration,DC=my,DC=domain,DC=name] objects[1608/1610] linked_values[0/0]
Schema-DN[CN=Schema,CN=Configuration,DC=my,DC=domain,DC=name] objects[1610/1610] linked_values[0/0]
Analyze and apply schema objects
Replicated 1610 objects (0 linked attributes) for CN=Schema,CN=Configuration,DC=my,DC=domain,DC=name
Partition[CN=Configuration,DC=my,DC=domain,DC=name] objects[402/1686] linked_values[0/1]
Replicated 402 objects (0 linked attributes) for CN=Configuration,DC=my,DC=domain,DC=name
Partition[CN=Configuration,DC=my,DC=domain,DC=name] objects[804/1686] linked_values[0/1]
Replicated 402 objects (0 linked attributes) for CN=Configuration,DC=my,DC=domain,DC=name
Partition[CN=Configuration,DC=my,DC=domain,DC=name] objects[1206/1686] linked_values[0/1]
Replicated 402 objects (0 linked attributes) for CN=Configuration,DC=my,DC=domain,DC=name
Partition[CN=Configuration,DC=my,DC=domain,DC=name] objects[1608/1686] linked_values[0/16]
Replicated 402 objects (0 linked attributes) for CN=Configuration,DC=my,DC=domain,DC=name
Partition[CN=Configuration,DC=my,DC=domain,DC=name] objects[1686/1686] linked_values[48/48]
Replicated 78 objects (48 linked attributes) for CN=Configuration,DC=my,DC=domain,DC=name
Replicating critical objects from the base DN of the domain
Join failed - cleaning up
ldb_wrap open of secrets.ldb
Could not find machine account in secrets database: Failed to fetch machine account password for DOMAIN from both secrets.ldb (Could not find entry to match filter: '(&(flatname=DOMAIN)(objectclass=primaryDomain))' base: 'cn=Primary Domains': No such object: dsdb_search at ../source4/dsdb/common/util.c:4576) and from /var/lib/samba/private/secrets.tdb: NT_STATUS_CANT_ACCESS_DOMAIN_INFO
Deleted CN=SERVER-Z2,OU=Domain Controllers,DC=my,DC=domain,DC=name
Deleted CN=dns-SERVER-Z2,CN=Users,DC=my,DC=domain,DC=name
Deleted CN=NTDS Settings,CN=SERVER-Z2,CN=Servers,CN=Default-First-Site-Name,CN=Sites,CN=Configuration,DC=my,DC=domain,DC=name
Deleted CN=SERVER-Z2,CN=Servers,CN=Default-First-Site-Name,CN=Sites,CN=Configuration,DC=my,DC=domain,DC=name
ERROR(runtime): uncaught exception - (8409, 'WERR_DS_DATABASE_ERROR')
  File "/usr/lib/python2.7/dist-packages/samba/netcmd/__init__.py", line 176, in _run
    return self.run(*args, **kwargs)
  File "/usr/lib/python2.7/dist-packages/samba/netcmd/domain.py", line 661, in run
    machinepass=machinepass, use_ntvfs=use_ntvfs, dns_backend=dns_backend)
  File "/usr/lib/python2.7/dist-packages/samba/join.py", line 1269, in join_DC
    ctx.do_join()
  File "/usr/lib/python2.7/dist-packages/samba/join.py", line 1177, in do_join
    ctx.join_replicate()
  File "/usr/lib/python2.7/dist-packages/samba/join.py", line 903, in join_replicate
    replica_flags=ctx.domain_replica_flags)
  File "/usr/lib/python2.7/dist-packages/samba/drs_utils.py", line 254, in replicate
    (level, ctr) = self.drs.DsGetNCChanges(self.drs_handle, req_level, req)

Eu pesquisei e tentei todas as soluções que encontrei, nada ajudou.

Você poderia me ajudar por favor?

Muito obrigado!

ubuntu
  • 1 respostas
  • 621 Views
Martin Hope
Mat
Asked: 2016-11-19 08:13:30 +0800 CST

Cluster Redis: mínimo de 3 nós principais?

  • 14

Estou avaliando os recursos de cluster do Redis 3 (estou usando o Redis 2 autônomo no momento), então estou lendo as informações em http://redis.io/topics/cluster-tutorial .

Neste documento eu li uma informação muito importante:

Observe que o cluster mínimo que funciona conforme o esperado requer pelo menos três nós principais. Para seus primeiros testes, é altamente recomendável iniciar um cluster de seis nós com três mestres e três escravos.

É realmente verdade? Na minha opinião, isso está correto se eu usar recursos de fragmentação (os dados são compartilhados entre os nós), mas e se eu não precisar e ficaria feliz em ter dados em apenas um nó?

Eu basicamente preciso de um mestre e dois escravos (para que o cluster fique ativo se um nó falhar), posso ter essa configuração em um ambiente de produção? Se sim, quais são as contra-indicações?

Muito obrigado pela sua ajuda!

cluster redis
  • 4 respostas
  • 32581 Views
Martin Hope
Mat
Asked: 2015-11-07 11:27:30 +0800 CST

Escutas alternativas do Nginx

  • 2

Eu tenho alguns servidores Nginx que compartilham sua configuração porque estão em um pool de balanceador de carga.

Portanto, tenho uma configuração exclusiva para todos os servidores e todos os servidores estão atendendo nos endereços *:80 e *:443.

Mas isso está me causando alguns problemas com os certificados SSL em clientes que não suportam SNI (como o Windows XP).

Para resolver isso, devo especificar um endereço IP diferente para cada site SSL, mas isso é diferente de cada servidor no pool, é claro.

Você tem alguns conselhos?

Posso especificar vários IPs no mesmo servidor sem causar um erro caso o Nginx não consiga vincular um deles?

Muito obrigado!

nginx
  • 2 respostas
  • 676 Views
Martin Hope
Mat
Asked: 2015-10-08 09:25:40 +0800 CST

Qual é a quantidade mínima de servidores para um cluster mongoDB de produção?

  • 12

Na documentação do mongoDB para uma arquitetura de cluster de produção , li que a quantidade mínima de servidores para um cluster mongoDB de produção em execução é 7:

arquitetura de cluster mongoDB

É possível compartilhar os roteadores, servidores de configuração e shards nos mesmos servidores (com 3 servidores no total, cada um com um serviço de roteador, configuração e shard)?

cluster
  • 1 respostas
  • 9055 Views
Martin Hope
Mat
Asked: 2015-06-27 11:03:22 +0800 CST

Certificado inválido do Windows XP no Nginx

  • 1

Migrei meus sites e certificados SSL de Apache para Nginx e a partir desse momento todos os clientes Windows XP não reconhecem o certificado SSL (é um certificado curinga emitido pela Trustico).

A configuração antiga nos servidores Apache anteriores era esta:

SSLEngine on
SSLCertificateFile /etc/apache2/ssl/*_mysite.com.crt
SSLCertificateKeyFile /etc/apache2/ssl/*_mysite.com.key
SSLCertificateChainFile /etc/apache2/ssl/*_mysite.com.ca-bundle

E a nova configuração nos servidores Nginx é esta:

ssl on;
ssl_certificate /etc/nginx/ssl/*_mysite.com.crt
ssl_certificate_key /etc/nginx/ssl/*_mysite.com.key;
ssl_session_timeout 5m;
ssl_protocols SSLv3 TLSv1;
ssl_ciphers ALL:!ADH:!EXPORT56:RC4+RSA:+HIGH:+MEDIUM:+LOW:+SSLv3:+EXP;
ssl_prefer_server_ciphers on;

O Nginx não suporta o parâmetro SSLCertificateChainFile, então li que preciso anexar o arquivo *_mysite.com.ca-bundle abaixo do arquivo *_mysite.com.crt.

Depois disso, outros sistemas operacionais além do Windows XP estão funcionando bem, mas o Windows XP ainda está reconhecendo um certificado errado (ele retorna a mensagem "erro de certificado").

Eu não consigo resolver esse problema, você poderia me ajudar por favor?

nginx
  • 2 respostas
  • 1030 Views
Martin Hope
Mat
Asked: 2015-05-30 06:12:19 +0800 CST

descrição do servidor phpMyAdmin em vez do nome do host

  • 1

Instalei o phpMyAdmin 4.4.8 (versão mais recente) e configurei algum host MySQL ao qual posso me conectar.

Os servidores estão listados com o valor $cfg['Servers'][$i]['host'] na lista de servidores e não consigo descobrir uma maneira de configurar uma "string de descrição" no arquivo de configuração do phpMyAdmin.

Sei que poderia configurar um DNS ou uma entrada /etc/hosts para atribuir um nome personalizado aos servidores, mas desejo usar uma descrição mais compreensível (como "servidor de teste" ou "servidor de produção").

Você conhece uma maneira de configurar isso no phpMyAdmin?

Muito obrigado!

Tchau

phpmyadmin
  • 1 respostas
  • 1818 Views
Martin Hope
Mat
Asked: 2015-04-30 23:21:46 +0800 CST

Redis alta disponibilidade e balanceamento de carga

  • 8

Estou usando o Redis há algum tempo e agora queremos mudar para um cluster redundante que seja tolerante a falhas, altamente disponível e com balanceamento de carga.

Eu uso principalmente o Redis para algum aplicativo da Web PHP que armazena algumas informações de status do processo (estou usando PHPRedis para isso) e gostaria de usá-lo também para armazenamento de sessão PHP em um cluster com balanceamento de carga.

Já tenho um Balanceamento de Carga que uso para Nginx e MySQL (baseado em pfSense).

Vi que o Redis Cluster existe para o Redis 3, mas também li alguns comentários sobre o fato de não estar pronto para produção, outros que dizem que o Redis não pode fazer uma configuração master/master cluster completa.

Qual é o seu conselho?

  • Experimente o Cluster Redis
  • Mover para outro mecanismo de chave=valor (CouchDB? Memcached? Outros?)
  • Não se preocupe com o balanceamento de carga e use apenas um nó do cluster por vez e faça um failover manual, pois não uso persistência
  • Outras ideias?

Muito obrigado pela sua ajuda!

load-balancing
  • 2 respostas
  • 29855 Views

Sidebar

Stats

  • Perguntas 205573
  • respostas 270741
  • best respostas 135370
  • utilizador 68524
  • Highest score
  • respostas
  • Marko Smith

    Você pode passar usuário/passar para autenticação básica HTTP em parâmetros de URL?

    • 5 respostas
  • Marko Smith

    Ping uma porta específica

    • 18 respostas
  • Marko Smith

    Verifique se a porta está aberta ou fechada em um servidor Linux?

    • 7 respostas
  • Marko Smith

    Como automatizar o login SSH com senha?

    • 10 respostas
  • Marko Smith

    Como posso dizer ao Git para Windows onde encontrar minha chave RSA privada?

    • 30 respostas
  • Marko Smith

    Qual é o nome de usuário/senha de superusuário padrão para postgres após uma nova instalação?

    • 5 respostas
  • Marko Smith

    Qual porta o SFTP usa?

    • 6 respostas
  • Marko Smith

    Linha de comando para listar usuários em um grupo do Windows Active Directory?

    • 9 respostas
  • Marko Smith

    O que é um arquivo Pem e como ele difere de outros formatos de arquivo de chave gerada pelo OpenSSL?

    • 3 respostas
  • Marko Smith

    Como determinar se uma variável bash está vazia?

    • 15 respostas
  • Martin Hope
    Davie Ping uma porta específica 2009-10-09 01:57:50 +0800 CST
  • Martin Hope
    kernel O scp pode copiar diretórios recursivamente? 2011-04-29 20:24:45 +0800 CST
  • Martin Hope
    Robert ssh retorna "Proprietário incorreto ou permissões em ~/.ssh/config" 2011-03-30 10:15:48 +0800 CST
  • Martin Hope
    Eonil Como automatizar o login SSH com senha? 2011-03-02 03:07:12 +0800 CST
  • Martin Hope
    gunwin Como lidar com um servidor comprometido? 2011-01-03 13:31:27 +0800 CST
  • Martin Hope
    Tom Feiner Como posso classificar a saída du -h por tamanho 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich O que é um arquivo Pem e como ele difere de outros formatos de arquivo de chave gerada pelo OpenSSL? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent Como determinar se uma variável bash está vazia? 2009-05-13 09:54:48 +0800 CST

Hot tag

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • Início
  • Perguntas
    • Recentes
    • Highest score
  • tag
  • help

Footer

AskOverflow.Dev

About Us

  • About Us
  • Contact Us

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve