Me deparei com um exemplo que simula o acesso a um banco de dados lento para obter um fluxo de identificadores de usuários associados a um perfil que pode ser acessado por meio de um recurso de rede ainda mais lento:
fun getAllUserIds():Flow<Int>{
return flow{
repeat(3){
delay(200.milliseconds)
log("Emitting!")
emit(it)
}
}
}
suspend fun getProfileFromNetwork(id:Int):String{
delay(2.seconds)
return "Profile[$id]"
}
fun main(){
val ids = getAllUserIds()
runBlocking{
ids
.map{getProfileFromNetwork(it)}
.collect{log("Got $it")}
}
}
a emissão dos IDs e a solicitação de perfis estão interligadas. Como eu otimizaria isso gerando novas coroutines para o processamento de cada elemento no fluxo?
Se quiser obter o resultado como um todo, você pode usar
flatMapMerge
, que foi projetado para esse cenário exato: mapear simultaneamente cada elemento no fluxo para um novo fluxo e mesclar os resultados.Mas eu penso em uma abordagem melhor; mostrar o máximo de dados buscados para o usuário e ter um efeito visual, indicando que algum pedaço de dados ainda está para carregar usando, por exemplo, ShimmerEffect ou qualquer outra alternativa. Tente carregá-lo preguiçosamente para cada item da lista.
Tente disparar uma corrotina independente para buscar o Perfil quando o UserID tiver sido buscado do banco de dados dentro da lógica do item RecyclerView/List (não se esqueça de ter uma política de cache para minimizar a carga da rede).
Acho que você confundiu o que o fluxo do banco de dados retorna. Se você consultar todos os IDs de usuário, você obterá um
List<Int>
. Quando os fluxos são suportados, então você também pode ter a opção de obter umFlow<List<Int>>
. O fluxo emitirá um novo valor sempre que algo mudar no banco de dados. Quando isso acontece, a consulta é executada automaticamente novamente e uma nova lista de todos os IDs de usuário é retornada. O fluxo é apenas uma maneira conveniente de observar o banco de dados ao longo do tempo para alterações. Ele não emite cada ID de usuário um de cada vez.Com isso em mente, sua função fictícia
getAllUserIds()
deve ser parecida com esta:Este código emula que a cada 200 ms um novo usuário é inserido no banco de dados. O fluxo agora emitirá três listas diferentes de usuários:
Sua função principal deve então iterar a lista para recuperar o perfil de cada id:
flowOfIds.map
substitui cada valor de fluxo (ou seja, o fluxo agora contém umList<String>
em vez de umList<Int>
).listOfIds.map
substitui cada entrada da lista (ou seja, a lista agora contémString
s em vez deInt
s).Voltando à pergunta original.
Como está agora,
getProfileFromNetwork()
é chamado sequentially . Se você quiser que isso aconteça concorrentemente , você precisa lançar uma nova coroutine para cada:async
lança uma nova coroutine no escopo fornecido porrunBlocking
, eawaitAll()
espera que todas as coroutines terminem. Ele retorna uma lista de perfis, ou seja, umList<String>
.Isso é repetido para cada novo valor de fluxo, então o perfil para o ID do usuário
0
é recuperado três vezes no total. O perfil para o ID do usuário2
é recuperado apenas uma vez porque ocorre apenas na última emissão de fluxo.Como
getProfileFromNetwork
é mais lento do que novos valores de fluxo são emitidos, você pode querer alternar deflowOfIds.map
paraflowOfIds.mapLatest
. Este cancela a transformação de fluxo anterior quando um novo valor de fluxo chega, então você não precisa esperar a transformação anterior terminar antes de iniciar a nova.Além disso, você deve considerar seriamente armazenar em cache os resultados de
getProfileFromNetwork()
, para não fazer repetidamente as mesmas solicitações de rede (como buscar0
o perfil do id do usuário três vezes). Isso é algo que deve ser feito dentro degetProfileFromNetwork()
. Você provavelmente deve mover essa função para uma classe de repositório ou algo semelhante, para poder construir seu cache lá.