python - 将python模块导入databricks中的python脚本
问题描述
我正在处理 Azure DataFactory 中的一个项目,并且我有一个运行 Databricks python 脚本的管道。此特定脚本位于 Databricks 文件系统中并由 ADF 管道运行,它从位于同一文件夹中的另一个 python 脚本导入模块(两个脚本都位于 中dbfs:/FileStore/code
)。
下面的代码可以将 python 模块导入 Databricks 笔记本,但在导入 python 脚本时不起作用。
sys.path.insert(0,'dbfs:/FileStore/code/')
import conn_config as Connect
在集群日志中,我得到: Import Error: No module named conn_config
我猜这个问题与python文件无法识别Databricks环境有关。有什么帮助吗?
解决方案
你不能dbfs:
在其中使用 path with - Python 对这个文件系统一无所知。你有两个选择:
- 替换
dbfs:/
为/dbfs/
(不适用于社区版) - 使用 将文件从 DBFS 复制到本地文件系统
dbutils.fs.cp("dbfs:/FileStore/code", "file:/tmp/code", True)
,并引用该本地文件名:/tmp/code
推荐阅读
- c# - 将复杂的 Json 转换为 Object
- android - 如何让 Recyclerview 显示 Retrofit 的结果?
- r - 如何根据组内的子字符串匹配两个数据帧
- c# - 使用 MVVM 模板 WPF 应用程序导航
- c# - 如何使用文本框值作为参数?
- javascript - 没有保留对 css 的 JavaScript 更改
- node.js - 多次/循环请求 REST API 时处理连接丢失(客户端)
- opengl - 如何显示 utf8 编码的字体
- jmeter - 如何使用 Jmeter 将响应标头传递给授权的 api?
- c# - 如何修复 asp.net mvc 中的“不允许加载本地资源”