AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • Início
  • system&network
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • Início
  • system&network
    • Recentes
    • Highest score
    • tags
  • Ubuntu
    • Recentes
    • Highest score
    • tags
  • Unix
    • Recentes
    • tags
  • DBA
    • Recentes
    • tags
  • Computer
    • Recentes
    • tags
  • Coding
    • Recentes
    • tags
Início / unix / Perguntas / 765336
Accepted
Franck Dernoncourt
Franck Dernoncourt
Asked: 2023-12-22 06:22:57 +0800 CST2023-12-22 06:22:57 +0800 CST 2023-12-22 06:22:57 +0800 CST

Como posso baixar uma lista muito grande de URLs para que os arquivos baixados sejam divididos em subpastas contendo a primeira letra dos nomes dos arquivos?

  • 772

Quero baixar muitos arquivos (> dezenas de milhões). Eu tenho o URL de cada arquivo. Eu tenho a lista de URLs em um arquivo URLs.txt:

http://mydomain.com/0wd.pdf
http://mydomain.com/asz.pdf
http://mydomain.com/axz.pdf
http://mydomain.com/b00.pdf
http://mydomain.com/bb0.pdf
etc.

Posso baixá-los via wget -i URLs.txt, porém ultrapassaria o número máximo de arquivos que podem ser colocados em uma pasta.

Como posso baixar esta grande lista de URLs para que os arquivos baixados sejam divididos em subpastas contendo a primeira letra dos nomes dos arquivos? Por exemplo,:

0/0wd.pdf
a/asz.pdf
a/axz.pdf
b/b00.pdf
b/bb0.pdf
etc.

Se isso importa, eu uso o Ubuntu.

wget
  • 2 2 respostas
  • 45 Views

2 respostas

  • Voted
  1. Best Answer
    larsks
    2023-12-22T10:19:29+08:002023-12-22T10:19:29+08:00

    Talvez algo como:

    awk -F/ '{print substr($NF, 1, 1), $0}' urls.txt |
      xargs -L1 bash -c 'mkdir -p -- "$0" && curl -sSF -O --output-dir "$0" "$1"'
    

    O awkprefixo de cada linha com o primeiro caractere do nome do arquivo, que é então usado para selecionar um diretório de saída no curlcomando. Você poderia usar a -Popção de implementação GNU xargspara executar múltiplas buscas em paralelo.

    Isso pressupõe que os URLs não contenham espaços em branco, aspas ou barras invertidas, mas os URLs não devem conter outros que não sejam codificados por URI (mesmo que curlseja capaz de lidar com eles e fazer a codificação de URI por si só).

    Dada a sua entrada de amostra, executar o procedimento acima produz:

    .
    ├── 0
    │   └── 0wd.pdf
    ├── a
    │   ├── asz.pdf
    │   └── axz.pdf
    └── b
        ├── b00.pdf
        └── bb0.pdf
    
    • 1
  2. Franck Dernoncourt
    2023-12-24T07:34:52+08:002023-12-24T07:34:52+08:00

    ChatGPT forneceu alguns códigos funcionais em Python (confirmo que funciona com Python 3.11):

    import os import requests
    
    def download_files_with_subfolders(url_file):
        with open(url_file, 'r') as file:
            for url in file:
                url = url.strip()
                filename = os.path.basename(url)
                first_letter = filename[0]
    
                # Create subfolder if it doesn't exist
                subfolder = os.path.join(first_letter, '')
                os.makedirs(subfolder, exist_ok=True)
    
                # Download the file
                response = requests.get(url)
                if response.status_code == 200:
                    file_path = os.path.join(subfolder, filename)
                    with open(file_path, 'wb') as file:
                        file.write(response.content)
                    print(f"Downloaded: {url} -> {file_path}")
                else:
                    print(f"Failed to download: {url} (Status code: {response.status_code})")
    
    if __name__ == "__main__":
        urls_file = "somefile.txt"
        download_files_with_subfolders(urls_file) 
    

    com somefile.txtcontendo:

    http://mydomain.com/0wd.pdf
    http://mydomain.com/asz.pdf
    http://mydomain.com/axz.pdf
    http://mydomain.com/b00.pdf
    http://mydomain.com/bb0.pdf
    etc.
    

    Variantes mais avançadas:

    1. Mantenha a data da última modificação nos cabeçalhos de resposta (o código também vem principalmente do ChatGPT):
    import requests
    import os
    from datetime import datetime
    
    def download_file(url, local_filename):
        # Send a GET request to the server
        response = requests.get(url, stream=True)
    
        # Check if the request was successful (status code 200)
        if response.status_code == 200:
            # Get the last modified date from the response headers
            last_modified_header = response.headers.get('Last-Modified')
            last_modified_date = datetime.strptime(last_modified_header, '%a, %d %b %Y %H:%M:%S %Z')
    
            # Save the content to a local file while preserving the original date
            with open(local_filename, 'wb') as f:
                for chunk in response.iter_content(chunk_size=128):
                    f.write(chunk)
    
            # Set the local file's last modified date to match the original date
            os.utime(local_filename, (last_modified_date.timestamp(), last_modified_date.timestamp()))
    
            print(f"Downloaded {local_filename} with the original date {last_modified_date}")
        else:
            print(f"Failed to download file. Status code: {response.status_code}")
    
    
    def download_files_with_subfolders(url_file):
        with open(url_file, 'r') as file:
            for url in file:
                url = url.strip()
                filename = os.path.basename(url)
                first_letter = filename[0]
    
                # Create subfolder if it doesn't exist
                subfolder = os.path.join(first_letter, '')
                os.makedirs(subfolder, exist_ok=True)
    
                file_path = os.path.join(subfolder, filename)
                download_file(url, file_path)
    
    if __name__ == "__main__":
        urls_file = "somefile.txt"
        download_files_with_subfolders(urls_file)
    
    1. Download multithread:
    import requests
    import os
    from datetime import datetime
    
    from multiprocessing.dummy import Pool as ThreadPool
    
    def download_file(url, local_filename):
        # Send a GET request to the server
        response = requests.get(url, stream=True)
    
        # Check if the request was successful (status code 200)
        if response.status_code == 200:
            # Get the last modified date from the response headers
            last_modified_header = response.headers.get('Last-Modified')
            last_modified_date = datetime.strptime(last_modified_header, '%a, %d %b %Y %H:%M:%S %Z')
    
            # Save the content to a local file while preserving the original date
            with open(local_filename, 'wb') as f:
                for chunk in response.iter_content(chunk_size=128):
                    f.write(chunk)
    
            # Set the local file's last modified date to match the original date
            os.utime(local_filename, (last_modified_date.timestamp(), last_modified_date.timestamp()))
    
            print(f"Downloaded {local_filename} with the original date {last_modified_date}")
        else:
            print(f"Failed to download file. Status code: {response.status_code}")
    
    
    def download_files_with_subfolders(url_file, num_threads=4):
        download_arguments = []
        with open(url_file, 'r') as file:
            for url in file:
                url = url.strip()
                filename = os.path.basename(url)
                first_letter = filename[0]
    
                # Create subfolder if it doesn't exist
                subfolder = os.path.join(first_letter, '')
                os.makedirs(subfolder, exist_ok=True)
    
                file_path = os.path.join(subfolder, filename)
                download_arguments.append((url, file_path))
    
        pool = ThreadPool(num_threads)
        results = pool.starmap(download_file, download_arguments)
    
    
    if __name__ == "__main__":
        urls_file = "somefile.txt"
        download_files_with_subfolders(urls_file, num_threads=10)
    
    1. Crie uma pasta para a primeira letra e uma subpasta para a segunda letra. Por exemplo,:
    0/w/0wd.pdf
    a/s/asz.pdf
    a/x/axz.pdf
    b/0/b00.pdf
    b/b/bb0.pdf
    etc.
    

    Código:

    import requests
    import os
    from datetime import datetime
    
    from multiprocessing.dummy import Pool as ThreadPool
    
    def download_file(url, local_filename):
        # Send a GET request to the server
        response = requests.get(url, stream=True)
    
        # Check if the request was successful (status code 200)
        if response.status_code == 200:
            # Get the last modified date from the response headers
            last_modified_header = response.headers.get('Last-Modified')
            last_modified_date = datetime.strptime(last_modified_header, '%a, %d %b %Y %H:%M:%S %Z')
    
            # Save the content to a local file while preserving the original date
            with open(local_filename, 'wb') as f:
                for chunk in response.iter_content(chunk_size=128):
                    f.write(chunk)
    
            # Set the local file's last modified date to match the original date
            os.utime(local_filename, (last_modified_date.timestamp(), last_modified_date.timestamp()))
    
            print(f"Downloaded {local_filename} with the original date {last_modified_date}")
        else:
            print(f"Failed to download file. Status code: {response.status_code}")
    
    
    def download_files_with_subfolders(url_file, num_threads=4):
        download_arguments = []
        with open(url_file, 'r') as file:
            for url in file:
                url = url.strip()
                filename = os.path.basename(url)
                first_letter = filename[0]
                second_letter = filename[1]
    
                # Create subfolder if it doesn't exist
                subfolder = os.path.join(first_letter, '')
                os.makedirs(subfolder, exist_ok=True)
                subsubfolder = os.path.join(first_letter, second_letter)
                os.makedirs(subsubfolder, exist_ok=True)
    
                file_path = os.path.join(subsubfolder, filename)
                download_arguments.append((url, file_path))
    
        pool = ThreadPool(num_threads)
        results = pool.starmap(download_file, download_arguments)
    
    
    if __name__ == "__main__":
        urls_file = "somefile.txt"
        download_files_with_subfolders(urls_file, num_threads=10)
    
    • -1

relate perguntas

  • Debian testando wget segfaulting

  • Fazendo um espelho da dúvida do repositório do Ubuntu Server

  • Nenhum arquivo obtido com "wget ​​-r"

  • wget não funciona no modo recursivo

  • Como baixar um arquivo no terminal cujo link redireciona e parece funcionar apenas na GUI?

Sidebar

Stats

  • Perguntas 205573
  • respostas 270741
  • best respostas 135370
  • utilizador 68524
  • Highest score
  • respostas
  • Marko Smith

    Possível firmware ausente /lib/firmware/i915/* para o módulo i915

    • 3 respostas
  • Marko Smith

    Falha ao buscar o repositório de backports jessie

    • 4 respostas
  • Marko Smith

    Como exportar uma chave privada GPG e uma chave pública para um arquivo

    • 4 respostas
  • Marko Smith

    Como podemos executar um comando armazenado em uma variável?

    • 5 respostas
  • Marko Smith

    Como configurar o systemd-resolved e o systemd-networkd para usar o servidor DNS local para resolver domínios locais e o servidor DNS remoto para domínios remotos?

    • 3 respostas
  • Marko Smith

    apt-get update error no Kali Linux após a atualização do dist [duplicado]

    • 2 respostas
  • Marko Smith

    Como ver as últimas linhas x do log de serviço systemctl

    • 5 respostas
  • Marko Smith

    Nano - pule para o final do arquivo

    • 8 respostas
  • Marko Smith

    erro grub: você precisa carregar o kernel primeiro

    • 4 respostas
  • Marko Smith

    Como baixar o pacote não instalá-lo com o comando apt-get?

    • 7 respostas
  • Martin Hope
    user12345 Falha ao buscar o repositório de backports jessie 2019-03-27 04:39:28 +0800 CST
  • Martin Hope
    Carl Por que a maioria dos exemplos do systemd contém WantedBy=multi-user.target? 2019-03-15 11:49:25 +0800 CST
  • Martin Hope
    rocky Como exportar uma chave privada GPG e uma chave pública para um arquivo 2018-11-16 05:36:15 +0800 CST
  • Martin Hope
    Evan Carroll status systemctl mostra: "Estado: degradado" 2018-06-03 18:48:17 +0800 CST
  • Martin Hope
    Tim Como podemos executar um comando armazenado em uma variável? 2018-05-21 04:46:29 +0800 CST
  • Martin Hope
    Ankur S Por que /dev/null é um arquivo? Por que sua função não é implementada como um programa simples? 2018-04-17 07:28:04 +0800 CST
  • Martin Hope
    user3191334 Como ver as últimas linhas x do log de serviço systemctl 2018-02-07 00:14:16 +0800 CST
  • Martin Hope
    Marko Pacak Nano - pule para o final do arquivo 2018-02-01 01:53:03 +0800 CST
  • Martin Hope
    Kidburla Por que verdadeiro e falso são tão grandes? 2018-01-26 12:14:47 +0800 CST
  • Martin Hope
    Christos Baziotis Substitua a string em um arquivo de texto enorme (70 GB), uma linha 2017-12-30 06:58:33 +0800 CST

Hot tag

linux bash debian shell-script text-processing ubuntu centos shell awk ssh

Explore

  • Início
  • Perguntas
    • Recentes
    • Highest score
  • tag
  • help

Footer

AskOverflow.Dev

About Us

  • About Us
  • Contact Us

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve