Eu posso entender porque escalas 100%, 200%, 300%... são tecnicamente mais fáceis. Mas quando se trata de dimensionamento fracionário, por que ele é limitado a 125%, 150% e 175%? É mais difícil implementar, por exemplo, 110% do que implementar 125%?
relate perguntas
-
Como testar o Linux no suporte hidpi sem hardware real?
-
Parábola (semelhante ao Arch) - A atualização do ICU fez com que alguns programas exigissem duas versões diferentes da biblioteca do ICU. Ambos falham ao iniciar. Não pode se reproduzir
-
Debian Stretch: gnome-software segfault em libgs_plugin_systemd-updates.so
-
Como digitar ü no Pinyin IME?
-
Desativar a maximização automática de janelas no Gnome3
Não sabendo como isso é realmente implementado em sistemas diferentes, só posso adivinhar:
Na verdade, é mais eficiente implementar uma escala de bitmap por esses valores. Pense em uma escala de 150%:
Pixel 1' será igual ao pixel 1, pixel 2' será (pixel 1 + pixel 2) / 2, pixel 3' será igual ao pixel 2 e assim por diante. Então você precisa de uma simples operação add+shift, que é feita de forma eficiente em hardware em qualquer GPU ou motor de vetor. Da mesma forma, o turno duplo que você precisa para escala de 125%, enquanto outras relações como 110% exigem uma operação de divisão real.