John W. Nesk Asked: 2017-02-09 13:45:41 +0800 CST2017-02-09 13:45:41 +0800 CST 2017-02-09 13:45:41 +0800 CST 大型mysql转储管道到s3 772 使用大量数据执行此操作有什么问题吗? mysqldump ... | gzip | s3cmd put - s3://bucket/file.sql.gz MySQL 转储的大小约为 100GB。如果 gzip 或 s3cmd 不能足够快地处理转储会发生什么?它会溢出管道缓冲区吗? backup mysql amazon-s3 gzip pipe 2 个回答 Voted Best Answer Michael Hampton 2017-02-09T13:53:18+08:002017-02-09T13:53:18+08:00 作家将阻止等待读者准备好。 你真正应该担心的是如果 s3cmd 失败会发生什么。然后你必须从头开始。 rnix 2017-02-10T11:47:06+08:002017-02-10T11:47:06+08:00 我正在分两个单独的步骤进行物理备份并上传到 s3 存储桶,没有任何问题。数据约为 250 GB,.gz 文件约为 80 GB
作家将阻止等待读者准备好。
你真正应该担心的是如果 s3cmd 失败会发生什么。然后你必须从头开始。
我正在分两个单独的步骤进行物理备份并上传到 s3 存储桶,没有任何问题。数据约为 250 GB,.gz 文件约为 80 GB