pyspark - 如何在本地 pyspark 会话中启用 hive 动态分区
问题描述
我正在尝试在本地 spark 会话中启用动态分区(不在应用程序模式下)
我在我的 pyspark shell 中运行以下命令(使用 spark 2.4)
spark.sqlContext.setConf("hive.exec.dynamic.partition", "true") spark.sqlContext.setConf("hive.exec.dynamic.partition.mode", "nonstrict")
低于错误 AttributeError:“SparkSession”对象没有属性“sqlContext”
解决方案
您可以尝试获取上下文吗
from pyspark.sql import SQLContext
sqlContext = SQLContext(spark.sparkContext)
sqlContext.setConf("hive.exec.dynamic.partition", "true")
sqlContext.setConf("hive.exec.dynamic.partition.mode", "nonstrict")
推荐阅读
- asp.net - 实体框架 dbcontext 中的一对多关系
- azure - Azure Data Bricks 群集列表,其中包含有关群集大小的有用信息
- arrays - Gatling:如何从数组中提取一个对象?
- c# - 使用使用 TFS 令牌连接到 TFS 服务器的 Windows 服务时出错
- c# - Xamarin 表单修改从代码创建的 NavigationPage
- javascript - 如何确保使用 Jest 进行快照测试是通过某个时区运行的?
- mpi - 本地主机上没有 MPI 的容器中的 MPI
- python - 重新排列字典,使值成为下一个键
- javascript - 根据之前的选择修改要显示的html内容
- python - 当不是活动应用程序(窗口)时,如何以编程方式引发 Qt 窗口/小部件?