scala - 如何在 scala 中设置 spark.sql.pivotMaxValues?
问题描述
这可能是一个愚蠢的问题,但我如何设置 spark.sql.pivotMaxValues 在数据块中尝试 pivit 时?我得到了这个巨大的错误'org.apache.spark.sql.AnalysisException: The pivot column census_block_group has more than 10000 distinct values, this could indicate an error. If this was intended, set spark.sql.pivotMaxValues to at least the number of distinct values of the pivot column.;
所以有人知道我该如何解决这个问题吗?
import org.apache.spark.sql.SQLContext
val df = censusBlocks.toDF
df.groupBy("B08007e1").pivot("census_block_group").sum("B08008e4")
df.show()
解决方案
你可以设置它
spark.conf.set("spark.sql.pivotMaxValues", 10000)
推荐阅读
- python-3.x - 输入名称的连接
- angular - 如何在 Angular 8 的选择选项列表中本地化 WeekDay 枚举
- angularjs - ng-if 放置在控制器之外并使用范围进行 $compile 时不起作用,但 ng-show 可以
- java - 注册屏幕永远不会导致成功的任务
- angular - http.post 返回 res.headers 未定义
- python - Matlab / Python中两个图像之间的精细百分比(%)相似度指数
- regex - 整个文本匹配,但不能在命名组中分组
- flutter - 无法在新设置上编译颤振应用程序
- rss-reader - qt上写rss阅读器的教程
- python-3.x - 在评估人口时,我应该使用对象还是多值字典?