apache-spark - Cassandra 上的 Spark:有没有办法通过分区键删除数据?
问题描述
spark Cassandra 连接器有RDD.deleteFromCassandra(keyspaceName, tableName)
方法。
RDD 中的值被解释为主键约束。
我有一张这样的桌子:
CREATE TABLE table (a int, b int, c int, PRIMARY KEY (a,b));
如您所见,a
是partition key
和b
。clustering key
我需要一个spark app
有效地删除 by partition_key
,而不是 by primary key
。
事实上,我的目标是始终将整个分区删除partition keys
,而不是为每个分区创建一个 thombstones primary key
。
如何用火花连接器做到这一点?
谢谢
解决方案
推荐阅读
- java - Java 新手,需要帮助将文本字段中的元素存储到自定义类型对象中并将对象存储到 ArrayList 中
- javascript - 尝试根据带有按钮的标题/描述按字母顺序对挑战进行排序
- php - 在获取的 URL 中查找单词时 PHP PREG 匹配错误
- c++ - 有没有办法可以禁用 CodeSonar 生成的特定行上的警告
- snmp - 如何使用自定义 Bash 脚本、自定义企业 OID 和自定义 MIB 扩展 SNMP 代理
- python - Azure ML 探查器在哪里运行?
- node.js - 此请求已被阻止;从 S3 向 EC2 节点端点发出请求时,必须通过 HTTPS 错误提供内容
- r - 如何在列表列表上运行 lapply 以为每个列表生成报告表
- python - Pandas 日期转换:TypeError:列表索引必须是整数或切片,而不是 str
- r - 如何将 Leaflet choropleth 图例设置为始终具有相同的刻度数