python - 将密码存储在 pyspark 脚本中的文件中
问题描述
我有 45 个 pyspark 脚本可以运行,每个脚本中都存储了密码。我想使用放置在 HDFS 中的文件,我可以在其中存储密码并将其用于所有脚本。
我不会更改密码,而是在文件中进行(请参阅下面的脚本)。
from pyspark.context import SparkContext
from pyspark.sql import HiveContext
from pyspark.sql.functions import *
from pyspark.sql.types import *
sc = SparkContext()
sqlContext = HiveContext(sc)
sqlContext.setConf("spark.sql.tungsten.enabled", "false")
CSKU_query = """ (select * from CSKU) a """
CSKU = sqlContext.read.format("jdbc").options(url="jdbc:sap://myip:port",currentschema="SAPABAP1",user="username",password="mypassword",dbtable=CSKU_query).load()
CSKU.write.format("parquet").save("/user/admin/sqoop/base/sap/CSKU/")
它应该从我可以参考的文件中获取,而不是在每个脚本中指定密码。
提前致谢
解决方案
推荐阅读
- connection-pooling - 在 Heroku PostgreSQL 中使用 connect-pg-simple 尝试在没有 SSL 的情况下进行连接
- reactjs - 如何在前端存储socket.IO id?
- sql - 此表达式键入不正确,或者它太复杂而无法计算。SQL 访问
- typescript - 是否可以将 Set 的值用作类型或接口中的允许值?
- sql - 检查特定整数是偶数
- android - resConfigs 如何在 android (gradle) 中工作?
- sql - 使用触发器删除后更新表
- haskell - chr 232 不返回字符 è
- outlook - Outlook.com 的添加到日历链接未在移动设备上保持正确的开始时间
- typescript - 从 TypeScript 静态方法访问实例类型