由于 Google Cloud SQL 是 MySQL 的托管实例,在 100GB RAM 的第二代机器上限制为绝对最大值,我应该压缩我的一些表和索引数据吗?我正在设计一个全局系统,因此最终工作集可能会超过 100GB。
以前,我通过压缩受内存限制的 SQL Server 和 Oracle 系统中的表和索引实现了性能改进。
我是 GCP 的新手,因此也是 MySQL 的新手。在这种情况下,压缩的使用仍然适用吗?是否有任何此类函数或过程(如 SQL Server 中的 compression_estimate)我可以运行以评估表或索引是否会从压缩中受益?
你真的需要压缩吗?多 TB 的数据集可以愉快地存在于 100G-RAM 的机器上。你的数据是什么样的?文本?斑点?很多行?愿意分享
CREATE TABLEs
吗?我没有关于 Cloud SQL 的任何详细信息。但...
在考虑缩放时,压缩通常不是第一个要看的地方。它有开销(通常是 CPU,有时是复杂的)。
“缩放”通常涉及分片或其他一些“分布式”技术。
RAM 通常不是缩放的限制因素;它是磁盘空间。或者它可以是几个指标中的任何一个——IOP、网络带宽等。
缩放...