首页 > 解决方案 > 初始化 SparkContext 后是否可以更改 SparkContext.sparkUser()?

问题描述

我初始化 aSparkContext以运行多个 SparkSQL 查询。在这个内部SparkContext,我创建了一堆表,每个表都必须有一个不同的所有者,但是,Spark 使用sparkUser作为表所有者。

所以我想知道是否可以在初始化sparkUser 之后更改?SparkContext

标签: apache-sparkapache-spark-sql

解决方案


不,通过基于此https://forums.databricks.com/questions/21371/how-to-change-the-user-running-the-spark-job.html 对 Databricks 的问题进行简单推断,他们在其中声明您需要在集群创建期间执行此操作。


推荐阅读