AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • Início
  • system&network
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • Início
  • system&network
    • Recentes
    • Highest score
    • tags
  • Ubuntu
    • Recentes
    • Highest score
    • tags
  • Unix
    • Recentes
    • tags
  • DBA
    • Recentes
    • tags
  • Computer
    • Recentes
    • tags
  • Coding
    • Recentes
    • tags
Início / unix / Perguntas / 411286
Accepted
Goff
Goff
Asked: 2017-12-17 09:41:35 +0800 CST2017-12-17 09:41:35 +0800 CST 2017-12-17 09:41:35 +0800 CST

A invasão do Linux desaparece após a reinicialização

  • 772

Minha capacidade de solução de problemas no Linux não é impressionante, só para você saber. Por outro lado, posso seguir instruções muito bem. Eu tenho um servidor Linux com RAID Linux. Ele estava funcionando bem sem problemas por cerca de meio ano, mas depois tive uma queda de energia e tenho tido o mesmo problema desde então. Depois de reconstruir o ataque, todos os meus arquivos ainda estão lá, então isso é bom. Quando reinicio o servidor, o dispositivo raid md0 desaparece.

pi@pinas:~ $ cat /proc/mdstat 
Personalities : 
unused devices: <none>

pi@pinas:~ $ ls /dev/md*
pi@pinas:~ $ 

Encontrei um problema aqui que parece ter ajudado outras pessoas, mas tentei e não ajudou. Eu também olhei para vários outros sites, todos dizendo coisas semelhantes. Eu uso o webmin para criar o raid e o mdadm.conf "parece" ok. Não sei se estou procurando na internet as coisas certas ou mesmo se estou procurando nos arquivos de log certos. Alguém tem alguma idéia?

Obrigado antecipadamente.

***Editar 1

root@pinas:/home/pi# service mdadm start
Failed to start mdadm.service: Unit mdadm.service is masked.

Estou me perguntando se o serviço mdadm está em execução. O processo não está ativo no sistema no momento e não tenho ideia de como saber se ele está configurado para iniciar na inicialização, como iniciá-lo ou configurá-lo para iniciar na inicialização.

***Editar 2

systemctl list-unit-files
[email protected]           static  
[email protected]             static  
mdadm-waitidle.service                 masked  
mdadm.service                          masked  
[email protected]                         static  
mdmonitor.service                      static  

Eu achei isto. Não sei exatamente se isso é ruim, mas parece suspeito. é assim que deveria ser? Nenhum deles diz habilitado e eu acho que deveriam. Alguma ideia?

***Editar 3

systemctl list-unit-files
[email protected]           static  
[email protected]             static  
mdadm-waitidle.service                 masked  
mdadm.service                          masked  
[email protected]                         static  
mdmonitor.service                      static  

dpkg-reconfigure mdadm
update-initramfs: deferring update (trigger activated)
update-rc.d: warning: start and stop actions are no longer supported; falling back to defaults
update-rc.d: warning: start and stop actions are no longer supported; falling back to defaults
Processing triggers for initramfs-tools (0.120+deb8u3) ...

Executei os comandos sugeridos pelo @telcoM e esta é a saída. Eu também tentei reinstalar esses comandos, mas ainda assim a saída é a mesma.

Eu tentei olhar para vários outros degraus com nomes semelhantes na net, mas até agora não encontrei nada que parecesse útil. Acho que o problema está relacionado ao serviço não iniciar na inicialização, mas não tenho experiência suficiente com serviços Linux para saber como corrigi-lo. @roaima sugeriu que era um problema com initramfs mas não sei como verificar ou corrigir isso. Alguém tem alguma idéia?

***Editar 4

CREATE owner=root group=disk mode=0660 auto=yes
HOMEHOST <system>
MAILADDR root
ARRAY /dev/md/0  metadata=1.2 UUID=d3434dfc:2fb4792e:0b64f806:67e35ee3 name=raspberrypi:0
ARRAY /dev/md/0  metadata=1.2 UUID=40fb937f:870c7c13:46774666:87445bc5 name=pinas:0

Aqui está o resultado do meu arquivo mdadm.conf. o que é interessante porque o primeiro array listado não tem o nome correto...

linux raid
  • 4 4 respostas
  • 20669 Views

4 respostas

  • Voted
  1. Ellison
    2018-11-22T21:30:28+08:002018-11-22T21:30:28+08:00

    Esta receita funcionou para mim depois de ter o mesmo problema. Procurei por toda a rede tentando encontrar a resposta e, finalmente, encontrei isso, e ainda sem ajuda.

    O problema, a meu ver, é múltiplo.

    1. O mdadm reatribui os arquivos do dispositivo /dev/md0para algo como /dev/md127na próxima reinicialização. Portanto, você não pode simplesmente usar o arquivo do dispositivo no fstab. Acabei usando o UUID, do sistema de arquivos criado.

    2. Quase todos os tutoriais de configuração de unidade RAID na web mostram a criação do dispositivo RAID usando os arquivos de dispositivo de driver como este:

      mdadm --create --verbose /dev/md0 --level=0 --raid-devices=4 /dev/sda /dev/sdb /dev/sdc /dev/sdd
      

      Em vez disso, usei os arquivos do dispositivo de partição, assim:

      mdadm --create --verbose /dev/md0 --level=0 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
      

      A segunda forma requer a criação adequada de partições em cada disco usando gdiskou fdisk. Eu usei gdiske atribuí como type fd00, que é uma partição raid.

    3. Há muita conversa sobre a necessidade de atualização /etc/mdadm/mdadm.conf. Isto está errado. Eu propositalmente apaguei esse arquivo. Não é necessário. (Veja abaixo)

    Isso é realmente tudo o que existe. Segue receita completa...


    Particione cada unidade com uma partição do tipo fd00, Linux RAID:

    root@teamelchan:~# gdisk /dev/sda
    Command (? for help): n
    Partition number (1-128, default 1):
    First sector (2048-3907029134, default = 2048) or {+-}size{KMGTP}:
    Last sector (2048-3907029134, default = 3907029134) or {+-}size{KMGTP}:
    Current type is 'Linux filesystem'
    Hex code or GUID (L to show codes, Enter = 8300): fd00
    Changed type of partition to 'Linux RAID'
    
    Command (? for help): p
    Disk /dev/sda: 3907029168 sectors, 1.8 TiB
    Model: ST2000DM001-1ER1
    Sector size (logical/physical): 512/4096 bytes
    Disk identifier (GUID): F81E265F-2D02-864D-AF62-CEA1471CFF39
    Partition table holds up to 128 entries
    Main partition table begins at sector 2 and ends at sector 33
    First usable sector is 2048, last usable sector is 3907029134
    Partitions will be aligned on 2048-sector boundaries
    Total free space is 0 sectors (0 bytes)
    
    Number Start (sector) End (sector) Size Code Name
    1
    2048 3907029134 1.8 TiB FD00 Linux RAID
    
    Command (? for help): w
    
    Final checks complete. About to write GPT data. THIS WILL OVERWRITE EXISTING
    PARTITIONS!!
    
    Do you want to proceed? (Y/N): y
    OK; writing new GUID partition table (GPT) to /dev/sda.
    The operation has completed successfully.
    

    Agora você deve ver os dispositivos de disco e os dispositivos de partição em /dev

    root@teamelchan:~# ls /dev/sd[a-d]*
    /dev/sda /dev/sda1 /dev/sdb /dev/sdb1 /dev/sdc /dev/sdc1 /dev/sdd /dev/sdd1
    

    Agora crie o RAID de sua escolha com o mdadm usando os arquivos do dispositivo de partição, não os dispositivos de disco

    root@teamelchan:~# mdadm --create --verbose /dev/md0 --level=0 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
    mdadm: chunk size defaults to 512K
    mdadm: /dev/sda1 appears to contain an ext2fs file system
    size=471724032K mtime=Sun Nov 18 19:42:02 2018
    mdadm: /dev/sda1 appears to be part of a raid array:
    level=raid0 devices=4 ctime=Thu Nov 22 04:00:11 2018
    mdadm: /dev/sdb1 appears to be part of a raid array:
    level=raid0 devices=4 ctime=Thu Nov 22 04:00:11 2018
    mdadm: /dev/sdc1 appears to be part of a raid array:
    level=raid0 devices=4 ctime=Thu Nov 22 04:00:11 2018
    mdadm: /dev/sdd1 appears to contain an ext2fs file system
    size=2930265540K mtime=Sun Nov 18 23:58:02 2018
    mdadm: /dev/sdd1 appears to be part of a raid array:
    level=raid0 devices=4 ctime=Thu Nov 22 04:00:11 2018
    Continue creating array? y
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md0 started.
    

    Agora verifique /dev/diskse há algum UUID associado ao seu novo /dev/md0RAID. Não deve haver nenhum.

    root@teamelchan:~# ls -l /dev/disk/by-uuid
    total 0
    lrwxrwxrwx 1 root root 10 Nov 22 04:24 4777-FB10 -> ../../sdf1
    lrwxrwxrwx 1 root root 10 Nov 22 04:24 D616BDCE16BDAFBB -> ../../sde1
    lrwxrwxrwx 1 root root 10 Nov 22 04:24 e79571b6-eb75-11e8-acb0-e0d55e117fa5 -> ../../sdf2
    

    Crie o novo sistema de arquivos e, depois disso, você deve ter um UUID com/dev/md0

    root@teamelchan:~# mkfs.ext4 -F /dev/md0
    mke2fs 1.44.1 (24-Mar-2018)
    Creating filesystem with 2685945088 4k blocks and 335745024 inodes
    Filesystem UUID: 7bd945b4-ded9-4ef0-a075-be4c7ea246fb
    Superblock backups stored on blocks:
    32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
    4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
    102400000, 214990848, 512000000, 550731776, 644972544, 1934917632,
    2560000000
    
    Allocating group tables: done
    Writing inode tables: done
    Creating journal (262144 blocks): done
    Writing superblocks and filesystem accounting information: done
    

    Voilá, aí está.

    root@teamelchan:~# ls -l /dev/disk/by-uuid
    total 0
    lrwxrwxrwx 1 root root 10 Nov 22 04:24 4777-FB10 -> ../../sdf1
    lrwxrwxrwx 1 root root 9 Nov 22 04:43 7bd945b4-ded9-4ef0-a075-be4c7ea246fb -> ../../md0
    lrwxrwxrwx 1 root root 10 Nov 22 04:24 D616BDCE16BDAFBB -> ../../sde1
    lrwxrwxrwx 1 root root 10 Nov 22 04:24 e79571b6-eb75-11e8-acb0-e0d55e117fa5 -> ../../sdf2
    

    Modifique seu /etc/fstab e adicione a montagem para seu novo RAID Certifique-se de usar o UUID, e não o arquivo do dispositivo.

    root@teamelchan:~# cat /etc/fstab
    UUID=e79571b6-eb75-11e8-acb0-e0d55e117fa5 / ext4 defaults 0 0
    UUID=4777-FB10 /boot/efi vfat defaults 0 0
    /swap.img none
    swap sw 0 0
    UUID=7bd945b4-ded9-4ef0-a075-be4c7ea246fb /md0/tweets ext4 auto 0 0
    

    Aqui, olhe não /etc/mdadm/mdadm.conf . Não é necessário.

    root@teamelchan:~# ls -l /etc/mdadm
    total 0
    

    Reinício

    root@teamelchan:~# reboot
    Connection to 192.168.0.131 closed by remote host.
    Connection to 192.168.0.131 closed.
    

    O RAID está montado, mas o mdadm renomeou o arquivo do dispositivo de md0paramd127

    Ainda bem que usamos o UUID e não o arquivo de dispositivo real.

    root@teamelchan:~# df /md0/tweets
    Filesystem 1K-blocks Used Available Use% Mounted on
    /dev/md127 10658016696 73660 10120737636 1% /md0/tweets
    

    Veja md0 sumiu de /dev

    root@teamelchan:~# ls /dev/md*
    /dev/md127
    
    /dev/md:
    

    É isso. Agora estou aproveitando meu RAID0 de 10 Terabytes que opera a mais de 600 MB/s

    root@teamelchan:~# hdparm -tT /dev/md127
    
    /dev/md127:
    Timing cached reads: 26176 MB in 1.99 seconds = 13137.47 MB/sec
    Timing buffered disk reads: 1878 MB in 3.00 seconds = 625.13 MB/sec
    
    • 8
  2. telcoM
    2017-12-17T11:28:12+08:002017-12-17T11:28:12+08:00

    Seu /proc/mdstatindica que nenhuma das personalidades RAID (ou seja, RAID1, RAID5, etc.) foi carregada, portanto, nenhuma tentativa é feita para tentar ativar um conjunto RAID.

    Failed to start mdadm.service: Unit mdadm.service is masked.
    

    Esta mensagem indica mdadm.serviceque foi desativado da maneira mais forte possível: nenhuma tentativa explícita será feita para iniciar o serviço e, mesmo que algo mais dependa deste serviço, ele não será iniciado.

    Como na pergunta vinculada por roaima , tente executar estes comandos como root:

    dpkg-reconfigure mdadm    # Choose "all" disks to start at boot
    update-initramfs -u       # Updates the existing initramfs
    

    O primeiro reconfigurará o mdadmpacote e deverá detectar todos os conjuntos de RAID e permitir que você escolha quais conjuntos de RAID serão ativados automaticamente na inicialização: geralmente "todos" é uma boa resposta. Isso também deve cuidar do mdadm.servicemascaramento, se bem entendi.

    Feito isso, o segundo comando atualizará seu initramfs, para que os arquivos de configuração atualizados também sejam atualizados em seu initramfs, e os scripts que serão executados nas primeiras fases da inicialização obterão a informação de que existe um conjunto RAID que deve ser ativado.

    • 3
  3. roaima
    2017-12-20T13:54:04+08:002017-12-20T13:54:04+08:00

    Pelo menos parte do problema é que você tem duas definições para o mesmo dispositivo RAID /dev/md/0em seu arquivo mdadm conf. Você precisa consertar isso primeiro.

    Em seguida, coloque sua matriz em execução e, finalmente, você pode seguir as instruções em Nova matriz RAID não será montada automaticamente, levando a problemas de inicialização -

    dpkg-reconfigure mdadm # Choose "all" disks to start at boot
    update-initramfs -u # Updates the existing initramfs 
    
    • 0
  4. Best Answer
    Goff
    2019-06-03T16:21:21+08:002019-06-03T16:21:21+08:00

    O serviço não estava iniciando porque estava mascarado. aqui está como eu descobri como desmascará-lo. o próximo problema era que o serviço mdadm-raid não estava iniciando o ataque. foi assim que consegui que o ataque começasse na inicialização. Procure "Mon Jul 31, 2017 7:49 pm" para encontrar a postagem relevante. Esta pode não ser a melhor solução, mas após 10 reinicializações, o ataque ainda está iniciando todas as vezes. Agradeço os esforços das pessoas que tentaram responder a este tópico. Agora só preciso resolver os outros serviços prestados. mas isso é problema para outro dia.

    • 0

relate perguntas

  • Inicie/pare o serviço systemd usando o atalho de teclado [fechado]

  • Necessidade de algumas chamadas de sistema

  • Links físicos (Phys) e slot de HDD

  • astyle não altera a formatação do arquivo de origem

  • Passe o sistema de arquivos raiz por rótulo para o kernel do Linux

Sidebar

Stats

  • Perguntas 205573
  • respostas 270741
  • best respostas 135370
  • utilizador 68524
  • Highest score
  • respostas
  • Marko Smith

    Matriz JSON para bash variáveis ​​usando jq

    • 4 respostas
  • Marko Smith

    A data pode formatar a hora atual para o fuso horário GMT? [duplicado]

    • 2 respostas
  • Marko Smith

    bash + lê variáveis ​​e valores do arquivo pelo script bash

    • 4 respostas
  • Marko Smith

    Como posso copiar um diretório e renomeá-lo no mesmo comando?

    • 4 respostas
  • Marko Smith

    conexão ssh. Conexão X11 rejeitada devido a autenticação incorreta

    • 3 respostas
  • Marko Smith

    Como baixar o pacote não instalá-lo com o comando apt-get?

    • 7 respostas
  • Marko Smith

    comando systemctl não funciona no RHEL 6

    • 3 respostas
  • Marko Smith

    rsync porta 22 e 873 uso

    • 2 respostas
  • Marko Smith

    snap /dev/loop em 100% de utilização -- sem espaço livre

    • 1 respostas
  • Marko Smith

    chave de impressão jq e valor para todos no subobjeto

    • 2 respostas
  • Martin Hope
    EHerman Matriz JSON para bash variáveis ​​usando jq 2017-12-31 14:50:58 +0800 CST
  • Martin Hope
    Christos Baziotis Substitua a string em um arquivo de texto enorme (70 GB), uma linha 2017-12-30 06:58:33 +0800 CST
  • Martin Hope
    Drux A data pode formatar a hora atual para o fuso horário GMT? [duplicado] 2017-12-26 11:35:07 +0800 CST
  • Martin Hope
    AllisonC Como posso copiar um diretório e renomeá-lo no mesmo comando? 2017-12-22 05:28:06 +0800 CST
  • Martin Hope
    Steve Como as permissões de arquivo funcionam para o usuário "root"? 2017-12-22 02:46:01 +0800 CST
  • Martin Hope
    Bagas Sanjaya Por que o Linux usa LF como caractere de nova linha? 2017-12-20 05:48:21 +0800 CST
  • Martin Hope
    Cbhihe Altere o editor padrão para vim para _ sudo systemctl edit [unit-file] _ 2017-12-03 10:11:38 +0800 CST
  • Martin Hope
    showkey Como baixar o pacote não instalá-lo com o comando apt-get? 2017-12-03 02:15:02 +0800 CST
  • Martin Hope
    youxiao Por que os diretórios /home, /usr, /var, etc. têm o mesmo número de inode (2)? 2017-12-02 05:33:41 +0800 CST
  • Martin Hope
    user223600 gpg — o comando list-keys gera uid [ desconhecido ] depois de importar a chave privada para uma instalação limpa 2017-11-26 18:26:02 +0800 CST

Hot tag

linux bash debian shell-script text-processing ubuntu centos shell awk ssh

Explore

  • Início
  • Perguntas
    • Recentes
    • Highest score
  • tag
  • help

Footer

AskOverflow.Dev

About Us

  • About Us
  • Contact Us

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve