cassandra - Datastax DSBulk 实用程序在将 CSV 数据加载到 Astra 时出现错误
问题描述
我正在使用 DSBulk 实用程序将数据从 EC2 Cassandra 节点迁移到 DataStax Astra(高级帐户)。
使用的命令:
dsbulk load -url folder_created_during_unload -header true -k keyspace -t table -b "secure-connect-file.zip" -u username -p password
该命令在几秒钟后给出错误。在检查文档时,我发现我可以添加--executor.maxPerSecond
这个命令来限制加载。
在此之后,加载命令执行没有任何错误。但是如果我输入一个超过 15,000 的值,加载命令会再次开始给出错误。
现在,如果一个表有超过 100M 的条目,并且每秒迁移 15,000 个条目,那么完成一个表的迁移需要数小时和数小时。迁移完整的数据库需要几天时间。
我想了解导致此错误的原因以及是否有办法以更高的速度加载数据。
解决方案
推荐阅读
- php - PHP5 zval 容器与 PHP7 zval 容器。现在如何存储引用和变量?
- python - 只允许在 Django Rest Framework 中编辑和不写入字段
- r - 在 table1 包中创建一列 p 值
- html - dangerouslySetInnerHTML html 与发送的 html 不匹配
- sorting - 如何对指数形式数值等数字进行排序
- postgresql - Knex 不返回连接 SQL 查询
- c++ - 如何在 C++ 中自动选择 return/co_return
- c++ - 访问类中的成员向量和访问在另一个成员函数中创建的向量有什么区别?
- python - 单击鼠标后停止画布形状跟随光标
- python - 如何通过为每列选择特定范围来消除数据框中的行?- 熊猫