azure - Azure Synapse:上传 Spark 作业参考文件中的 py 文件目录
问题描述
我正在尝试传递在 Azure Synapse Spark 作业定义中的主 python 文件中引用的 python 文件的整个目录,但这些文件没有出现在该位置,并且我得到 Module Not Found 错误。尝试像这样上传:
abfss://[数据湖中的目录路径]/*
解决方案
在 Synapse 上实现此目的的方法是将您的 python 文件打包到一个 wheel 包中,并将 wheel 包上传到 Azure Data Lake Storage 的特定位置,您的 Spark 池将在每次启动时从该位置加载它们。这将使自定义 python 包可用于使用该火花池的所有作业和笔记本。
您可以在官方文档中找到更多详细信息:https ://docs.microsoft.com/en-us/azure/synapse-analytics/spark/apache-spark-manage-python-packages#install-wheel-files
推荐阅读
- r - 如何让 Shiny 的 updateSelectionInput 使用值列表进行更新
- java - Java SSL 握手失败
- javascript - 全局属性“未定义”的阴影
- objective-c - 在 Objective-C 中以编程方式创建 Mojave Cocoa 窗口
- r - 带有 Shiny 模块的 updateTabsetPanel
- python - 如何在 python 中使用不同的 SQL 字符串行而不在我的代码中出现错误?
- html - 当视图差异太大时,是否可以将 display:none 用于响应式网站?
- html - 如何使用量角器 - Angular 在第三方包中对数据进行 E2E 测试
- rxjs - 完成之前的可观察对象后,如何强制 RxJs 处理我的可观察对象?
- c# - 如何更改asp.net核心视图