airflow - 在与 Databricks 的 Airflow 集成中使用 spark_submit_task 时未定义名称“dbutils”
问题描述
我正在尝试调用一个执行某些操作并导入其他 python 文件的 python 文件。当我从 UI 运行代码时,代码运行良好但是当我尝试创建新集群并使用气流运行代码时显示 dbutils 未定义。这就是我试图这样做的方式:
spark_submit_task_json = {
'new_cluster': new_cluster,
'spark_submit_task': {
'parameters': [
"--class","org.apache.spark.examples.SparkPi",
"--py-files",
"dbfs:/FileStore/tables/CC/Codes_Required.zip","dbfs:/FileStore/tables/CC/Code.py"
]
}}
Function = DatabricksSubmitRunOperator(
task_id='Function',
databricks_conn_id='Connection_ID',
json = spark_submit_task_json,
dag=dag)
解决方案
推荐阅读
- go - crypto/autocert 包停止工作,永远挂起等待 acme 挑战
- android - 如何在 Flutter 中创建这种布局?
- json - 如何在将数据保存到实时数据库时修复firebase json解析错误?
- django - Django REST 框架:如何使用 get_queryset() 响应有用的错误消息
- c# - 如何在没有站点重定向的情况下返回部分视图
- react-native - 发送道具获取子组件中的空对象
- android - 如何对arraylist中的数字进行排序?
- javascript - 模态窗口变得不合理地模糊
- javascript - 如何从 react.js 中的主组件调用实用程序组件
- reactjs - React 功能组件:如何从外部 useEffect() 访问变量