postgresql - 如何在网络中备份 20TB 的数据库?
问题描述
我有一个大小为 20TB 的 postgres 数据库,我需要自定义格式的 pg_dump。我尝试通过网络备份,但它总是以断开连接结束。有没有办法我可以备份这些数据,每 1TB 它会创建一个转储文件。
解决方案
我建议如下:
仅备份数据库的一部分,例如架构或表
使用压缩转储
pg_dump dbname | gzip > filename.gz
使用拆分。split 命令允许您将输出拆分为较小的文件,这些文件的大小对于底层文件系统来说是可以接受的。例如,制作 1 兆字节的块
pg_dump dbname | split -b 1m - filename
备份:1TB 大小的压缩分割文件中的数据库。
pg_dump -d dbname | gzip | split -b 1000000m – filename
推荐阅读
- vuejs2 - 如何避免 Vue 的 mixin 中的共享变量
- testing - 如何调试 SAP ATC(ABAP 测试座舱)测试运行?
- javascript - 等待异步firebase foreach?
- python - 如何在数据框的两列的值之间进行查询
- javascript - 为什么 Express 重定向会无限重定向我?
- selenium - 如何通过eclipse在Nox Player中启动应用程序
- python-3.x - 如何在 Open CV Python 中从文本文件中提供视频源
- html - 我的网站在其他分辨率下看起来不同
- python - python找到排列映射
- python - 如何在pytorch中为transforms.Compose标准化-1和1之间的PIL图像?