Eu preciso de algo como Cloud Storage for Firebase: baixe metadados de todos os arquivos , não apenas em Angular, mas em Python e apenas para um arquivo escolhido.
O objetivo é retornar essas informações quando o Cloud Function terminar com a return
instrução ou apenas registrá-lo durante a execução do Cloud Function assim que o arquivo for salvo no bucket do Google Storage. Com essas informações em mãos, outro trabalho pode ser iniciado após o carimbo de data/hora fornecido. O pipeline é síncrono.
Encontrei perguntas e respostas sobre como carregar um arquivo ou seus dados na Função do Cloud
- usando
/tmp
diretório como em Lendo dados do Cloud Storage por meio do Cloud Functions - ou carregue os dados (e não o arquivo) usando storage.Client() ou pandas df.read_csv() como em Como carregar um arquivo do armazenamento em nuvem do google para a função de nuvem do google
para extrair estatísticas de dados para o Cloud Function em execução a partir do arquivo externo.
Como não quero salvar o arquivo grande ou seus dados na memória a qualquer momento apenas para obter alguns metadados, quero baixar apenas os metadados desse arquivo que está armazenado em um bucket no Google Storage, ou seja, timestamp e tamanho.
Como posso buscar apenas os metadados de um arquivo csv em um bucket do Google Cloud Storage para o Google Cloud Function?
Existe um documento do Google presente , que mostra como obter metadados semelhantes ao link do GitHub que eu forneci no comentário. Você pode ver a biblioteca aqui
Ele apenas obtém os metadados e não recupera os dados do objeto até que você chame download_to_filename()
Caso contrário , você pode dar uma olhada na documentação API:get onde mostra que só recupera os metadados se
alt = media
não for especificado e tente.