scala - 如何使用 spark scala 将数据帧转换为 RDD 并将其存储在 cassandra
问题描述
如何将数据帧转换为 RDD 并将其存储在 Spark Scala 中的 Cassandra 中。考虑如下示例,
emp_id| emp_city|emp_name
1|Hyderabad| ram
4| Banglore| deeksha
这里我仅使用 3 列作为示例,但实际上我需要处理 18 列。
解决方案
您可以直接保存DF,无需转换为RDD。
df.write.format("org.apache.spark.sql.cassandra").options(Map( "table" -> "employee", "keyspace" -> "emp_data")).save()
谢谢。
推荐阅读
- express - ES6 Router.use() 需要一个中间件函数但得到一个对象
- mongodb - docker-compose mongodb phoenix,[错误] 连接失败:**(Mongo.Error)tcp 连接:连接被拒绝 - :econnrefused
- python - 在同一个控制台中连续多次执行程序
- reactjs - 导出 react-styleguidist 文档
- dart - 如何使用现有的应用程序密钥库获取签名的 apk?
- java - 设置错误:java.lang.UnsupportedOperationException:此功能在 JAXB RI 2.0 中不可用
- r - DescTools::XLGetRange() 失败并出现 sel$Cells() 错误:尝试应用非函数
- java - 无法使用 selenium 在文本框中插入文本
- hibernate - 休眠后无法关闭或重新启动甚至再次休眠(ubuntu 18.04 LTS)
- php - 如何在 Laravel 5.6 中将第三方 API 数据转换为集合资源?