首页 > 解决方案 > 如何使用 spark scala 将数据帧转换为 RDD 并将其存储在 cassandra

问题描述

如何将数据帧转换为 RDD 并将其存储在 Spark Scala 中的 Cassandra 中。考虑如下示例,

emp_id| emp_city|emp_name

 1|Hyderabad| ram
 4| Banglore| deeksha

这里我仅使用 3 列作为示例,但实际上我需要处理 18 列。

标签: scalaapache-sparkcassandra

解决方案


您可以直接保存DF,无需转换为RDD。

df.write.format("org.apache.spark.sql.cassandra").options(Map( "table" -> "employee", "keyspace" -> "emp_data")).save()

谢谢。


推荐阅读