scala - 优化 Spark Couchbase 连接器上的提取大小
问题描述
我使用 Spark 使用 Spark 的数据集将表与其他数据库和 couchbase 连接起来。
val couchbaseTable = session.read.couchbase(StructType(StructField("name",StringType) ::Nil))
在 Couchbase 控制台上,我可以看到 ops 上升到 500 上限,然后在几秒钟后变为 0。我使用 java api 和 reactivex 进行了负载测试,并且能够达到 20k ops。
如何增加获取大小(批量,批量),以便所有文档立即被 spark 获取以进行处理,就像我可以使用 cassandra 连接器一样?
解决方案
推荐阅读
- angular - Angular 路由器 - 使用 [routerLink] 在组件上导航
- amazon-web-services - GoLang 中的 AWS4 签名
- curl - 使用 cURL 获取资源时得到空响应
- java - javax servlet 过滤器不适用于 Mono 反应器
- xquery - 通过 URI 从 BaseX 数据库中选择文档作为根上下文
- android - 如何关闭某些无障碍服务的触摸探索
- python - 理解 __delete__ 在描述符中的行为,在一行上进行多变量赋值
- typescript - 反转打字稿通用工厂
- webpack - Webpack 删除生产构建中的 HTML 注释
- wordpress - “无法重新声明 post_redirect_by_custom_filters()”的任何解决方案?