apache-spark - 初始化 SparkContext 后是否可以更改 SparkContext.sparkUser()?
问题描述
我初始化 aSparkContext
以运行多个 SparkSQL 查询。在这个内部SparkContext
,我创建了一堆表,每个表都必须有一个不同的所有者,但是,Spark 使用sparkUser
作为表所有者。
所以我想知道是否可以在初始化sparkUser
之后更改?SparkContext
解决方案
不,通过基于此https://forums.databricks.com/questions/21371/how-to-change-the-user-running-the-spark-job.html 对 Databricks 的问题进行简单推断,他们在其中声明您需要在集群创建期间执行此操作。
推荐阅读
- python - 如何使用 reddit API 在树形结构中获取 subreddit 上的所有评论?
- node.js - 发布 req.body 始终是空对象
- yacc - 我在这个问题上遇到错误,有人可以提出他们的答案吗?
- python - 尝试换屏时kivy项目出现黑屏
- oracle - 我只将记录插入到 target_tab 中,但有 3 条记录失败,应该进入拒绝表。这是行不通的
- c++ - 如何将自定义事件/信号从一个进程发送到 MacOS 中的另一个进程
- javascript - 如何重新启动循环 requestAnimationFrame
- sql-server - 错误:属性“\Package.Connections[Excel Connection Manager] 上的表达式“@[User::folder]+ @[User::sale]”的结果
- javascript - 为什么有些进口是大写的,而有些不是?
- python - 如何从python中的验证码图像中提取数字?