AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • Início
  • system&network
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • Início
  • system&network
    • Recentes
    • Highest score
    • tags
  • Ubuntu
    • Recentes
    • Highest score
    • tags
  • Unix
    • Recentes
    • tags
  • DBA
    • Recentes
    • tags
  • Computer
    • Recentes
    • tags
  • Coding
    • Recentes
    • tags
Início / coding / Perguntas / 79592459
Accepted
KBriggs
KBriggs
Asked: 2025-04-25 19:51:20 +0800 CST2025-04-25 19:51:20 +0800 CST 2025-04-25 19:51:20 +0800 CST

Evitando o cache desnecessário de dados ao usar o memmap numpy

  • 772

Tenho um programa que lê arquivos binários muito grandes (~100 GB-TB) em blocos usando numpy memmap. O programa faz uma única passagem pelos dados, então não há necessidade de armazenar nada em cache, já que nunca há necessidade de voltar e reler, mas, np.memmappor padrão, armazena os dados em cache. Como resultado, o uso de RAM satura rapidamente, mesmo sem haver necessidade real disso.

Existe alguma maneira de desativar o cache de dados ou, caso contrário, limpar o cache manualmente? Encontrei alguns outros tópicos sobre o assunto que sugerem que a única maneira é excluir todas as referências a flushele memmap, executar o coletor de lixo e recriar o arquivo memmapdo zero, o que funciona, mas obviamente não é o ideal. Posso fazer melhor?

Aqui está um MWE que demonstra o problema (observe que ele criará 2 GB de lixo aleatório no seu HDD se você executá-lo). Como você pode ver, o uso de RAM reflete a quantidade cumulativa de dados carregados, mesmo que seja chunk_sizepequena. Idealmente, o uso de RAM seria limitado à quantidade de dados contidos em um único bloco.

import numpy as np
import os
import psutil
import gc
import time

# Parameters
filename = 'test_memmap.bin'
file_size_gb = 2  # Change this if needed
dtype = np.float32
element_size = np.dtype(dtype).itemsize
num_elements = (file_size_gb * 1024**3) // element_size
chunk_size = 1_000_000  # Number of elements to read at once

# Step 1: Create a large binary file
if not os.path.exists(filename):
    print("Creating file...")
    with open(filename, 'wb') as f:
        f.write(np.random.rand(num_elements).astype(dtype).tobytes())

# Step 2: Process file using memmap in chunks
print("Processing with memmap...")
mm = np.memmap(filename, dtype=dtype, mode='r')
process = psutil.Process(os.getpid())

for i in range(0, len(mm), chunk_size):
    chunk = mm[i:i+chunk_size]
    # Simulate processing
    chunk.sum()
    
    # Monitor RAM usage
    mem = process.memory_info().rss / (1024 ** 2)  # in MB
    print(f"Step {i // chunk_size + 1}, RAM usage: {mem:.2f} MB")
del mm
gc.collect()
time.sleep(5) #os takes a second to catch up
mem = process.memory_info().rss / (1024 ** 2)  # in MB
print(f"Final RAM usage after deleting memmap: {mem:.2f} MB")
python-3.x
  • 1 1 respostas
  • 38 Views

1 respostas

  • Voted
  1. Best Answer
    LMC
    2025-04-25T21:15:31+08:002025-04-25T21:15:31+08:00

    O ideal seria que o uso de RAM fosse limitado à quantidade de dados contidos em um único bloco.

    E parece ser verdade. Usar psutilpara imprimir a memória do sistema mostra que a memória disponível é semelhante à memória em cache durante todo o processo. Essa memória em cache do sistema está disponível para outros processos.

    Testando com um tamanho de arquivo semelhante à memória total e imprimindo as últimas 2 passagens

    
    import numpy as np
    import os
    import psutil
    import gc
    
    # Parameters
    filename = '/home/lmc/tmp/test_memmap.bin'
    file_size_gb = 8  # Change this if needed
    dtype = np.float32
    element_size = np.dtype(dtype).itemsize
    num_elements = (1024**3) // element_size
    chunk_size = 1_000_000  # Number of elements to read at once
    
    # Step 1: Create a large binary file
    if not os.path.exists(filename):
        print("Creating file...")
        with open(filename, 'wb') as f:
            for i in range(file_size_gb):
                f.write(np.random.rand(num_elements).astype(dtype).tobytes())
    
    # Step 2: Process file using memmap in chunks
    print("Processing with memmap...")
    mm = np.memmap(filename, dtype=dtype, mode='r')
    process = psutil.Process(os.getpid())
    
    smem0 = psutil.virtual_memory()
    print(f"\t mem0 - free: {smem0.free/(1024 ** 2):.2f}, available: {smem0.available/(1024 ** 2):.2f}, cached: {smem0.cached/(1024 ** 2):.2f}")
    
    for i in range(0, len(mm), chunk_size):
        chunk = mm[i:i+chunk_size]
        # Simulate processing
        chunk.sum()
        
        # mem = process.memory_info().rss / (1024 ** 2)  # in MB
        # print(f"Step {i // chunk_size + 1} ({i}), RAM usage: {mem:.2f} MB")
        if i >= len(mm) - chunk_size * 2:
            # Monitor RAM usage
            mem = process.memory_info().rss / (1024 ** 2)  # in MB
            print(f"Step {i // chunk_size + 1}, RAM usage: {mem:.2f} MB, shared: {shr:.2f}")
            smem1 = psutil.virtual_memory()
            print(f"\t mem1 - free: {smem0.free/(1024 ** 2):.2f}, available: {smem1.available/(1024 ** 2):.2f}, cached: {smem1.cached/(1024 ** 2):.2f}")
    

    Resultado

    
    Processing with memmap...
             mem0 - free: 172.61, available: 5421.77, cached: 5867.20
    Step 2147, RAM usage: 5304.29 MB, shared: 5289.00
             mem1 - free: 172.61, available: 5450.10, cached: 5872.30
    Step 2148, RAM usage: 5303.04 MB, shared: 5287.75
             mem1 - free: 172.61, available: 5442.97, cached: 5878.12
    

    Use offset + forma para controlar o uso de memória

    Recrie o mapa lendo o arquivo em pedaços com parâmetros offsete shape(precisa de cálculos cuidadosos de deslocamento e forma) Referência

    import numpy as np
    import os
    import psutil
    import gc
    
    def monitor():
        # Monitor RAM usage
        mem = process.memory_info().rss / (1024 ** 2)  # in MB
        shr = process.memory_info().shared / (1024 ** 2)  # in MB
        print(f"Step {i // chunk_size + 1}, RAM usage: {mem:.2f} MB, shared: {shr:.2f}, offset: {offset}")
        smem1 = psutil.virtual_memory()
        print(f"\t mem1 - free: {smem0.free/(1024 ** 2):.2f}, available: {smem1.available/(1024 ** 2):.2f}, cached: {smem1.cached/(1024 ** 2):.2f}")
    
    
    # Parameters
    filename = '/home/lmc/tmp/test_memmap.bin'
    file_size_gb = 8  # Change this if needed
    dtype = np.float32
    element_size = np.dtype(dtype).itemsize
    num_elements = (1024**3) // element_size
    chunk_size = 1_000_000  # Number of elements to read at once
    
    # Step 1: Create a large binary file
    if not os.path.exists(filename):
        print("Creating file...")
        with open(filename, 'wb') as f:
            for i in range(file_size_gb):
                f.write(np.random.rand(num_elements).astype(dtype).tobytes())
    
    # Step 2: Process file using memmap in chunks
    print("Processing with memmap...")
    process = psutil.Process(os.getpid())
    
    smem0 = psutil.virtual_memory()
    print(f"\t mem0 - free: {smem0.free/(1024 ** 2):.2f}, available: {smem0.available/(1024 ** 2):.2f}, cached: {smem0.cached/(1024 ** 2):.2f}")
    
    offset = 0
    for i in range(0, file_size_gb * num_elements, chunk_size):
        if i // chunk_size  ==  int((file_size_gb * num_elements // chunk_size)) - 1:
            # last offset, do not pass a shape but read all remaining
            chunk = np.memmap(filename, dtype=dtype, mode='r', offset= offset)
            monitor()
            break
        else:
            chunk = np.memmap(filename, dtype=dtype, mode='r', shape=(chunk_size,), offset= offset)
        # Simulate processing
        chunk.sum()
    
        if i < chunk_size * 2 or i >= file_size_gb * num_elements - chunk_size * 3:
            monitor()
        offset = int((i + chunk_size) * 32/8)
    
    
    Processing with memmap...
             mem0 - free: 128.48, available: 5284.02, cached: 5815.98
    Step 1, RAM usage: 31.30 MB, shared: 17.75, offset: 0
             mem1 - free: 258.95, available: 5397.76, cached: 5824.90
    Step 2, RAM usage: 31.33 MB, shared: 17.78, offset: 4000000
             mem1 - free: 258.95, available: 5397.76, cached: 5824.90
    
    
    Step 2145, RAM usage: 24.31 MB, shared: 10.97, offset: 8580000000
             mem1 - free: 128.48, available: 5290.66, cached: 5822.28
    Step 2146, RAM usage: 24.31 MB, shared: 10.97, offset: 8584000000
             mem1 - free: 128.48, available: 5296.34, cached: 5796.22
    Step 2147, RAM usage: 20.59 MB, shared: 7.24, offset: 8588000000
             mem1 - free: 128.48, available: 5296.43, cached: 5796.22
    ``
    
    • 1

relate perguntas

  • Preenchendo valores ausentes no dataframe do Pandas usando outro dataframe

  • Comparando e classificando valores em duas colunas de um DataFrame e classificando na mesma linha em python

  • Esta versão do ChromeDriver suporta apenas 114

  • Por que lista vazia para funcionar?

  • A configuração do Python-Django Multi-Index of Pandas DataFrame não agrupa/mescla o último índice

Sidebar

Stats

  • Perguntas 205573
  • respostas 270741
  • best respostas 135370
  • utilizador 68524
  • Highest score
  • respostas
  • Marko Smith

    Reformatar números, inserindo separadores em posições fixas

    • 6 respostas
  • Marko Smith

    Por que os conceitos do C++20 causam erros de restrição cíclica, enquanto o SFINAE antigo não?

    • 2 respostas
  • Marko Smith

    Problema com extensão desinstalada automaticamente do VScode (tema Material)

    • 2 respostas
  • Marko Smith

    Vue 3: Erro na criação "Identificador esperado, mas encontrado 'import'" [duplicado]

    • 1 respostas
  • Marko Smith

    Qual é o propósito de `enum class` com um tipo subjacente especificado, mas sem enumeradores?

    • 1 respostas
  • Marko Smith

    Como faço para corrigir um erro MODULE_NOT_FOUND para um módulo que não importei manualmente?

    • 6 respostas
  • Marko Smith

    `(expression, lvalue) = rvalue` é uma atribuição válida em C ou C++? Por que alguns compiladores aceitam/rejeitam isso?

    • 3 respostas
  • Marko Smith

    Um programa vazio que não faz nada em C++ precisa de um heap de 204 KB, mas não em C

    • 1 respostas
  • Marko Smith

    PowerBI atualmente quebrado com BigQuery: problema de driver Simba com atualização do Windows

    • 2 respostas
  • Marko Smith

    AdMob: MobileAds.initialize() - "java.lang.Integer não pode ser convertido em java.lang.String" para alguns dispositivos

    • 1 respostas
  • Martin Hope
    Fantastic Mr Fox Somente o tipo copiável não é aceito na implementação std::vector do MSVC 2025-04-23 06:40:49 +0800 CST
  • Martin Hope
    Howard Hinnant Encontre o próximo dia da semana usando o cronógrafo 2025-04-21 08:30:25 +0800 CST
  • Martin Hope
    Fedor O inicializador de membro do construtor pode incluir a inicialização de outro membro? 2025-04-15 01:01:44 +0800 CST
  • Martin Hope
    Petr Filipský Por que os conceitos do C++20 causam erros de restrição cíclica, enquanto o SFINAE antigo não? 2025-03-23 21:39:40 +0800 CST
  • Martin Hope
    Catskul O C++20 mudou para permitir a conversão de `type(&)[N]` de matriz de limites conhecidos para `type(&)[]` de matriz de limites desconhecidos? 2025-03-04 06:57:53 +0800 CST
  • Martin Hope
    Stefan Pochmann Como/por que {2,3,10} e {x,3,10} com x=2 são ordenados de forma diferente? 2025-01-13 23:24:07 +0800 CST
  • Martin Hope
    Chad Feller O ponto e vírgula agora é opcional em condicionais bash com [[ .. ]] na versão 5.2? 2024-10-21 05:50:33 +0800 CST
  • Martin Hope
    Wrench Por que um traço duplo (--) faz com que esta cláusula MariaDB seja avaliada como verdadeira? 2024-05-05 13:37:20 +0800 CST
  • Martin Hope
    Waket Zheng Por que `dict(id=1, **{'id': 2})` às vezes gera `KeyError: 'id'` em vez de um TypeError? 2024-05-04 14:19:19 +0800 CST
  • Martin Hope
    user924 AdMob: MobileAds.initialize() - "java.lang.Integer não pode ser convertido em java.lang.String" para alguns dispositivos 2024-03-20 03:12:31 +0800 CST

Hot tag

python javascript c++ c# java typescript sql reactjs html

Explore

  • Início
  • Perguntas
    • Recentes
    • Highest score
  • tag
  • help

Footer

AskOverflow.Dev

About Us

  • About Us
  • Contact Us

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve