azure - 作业终止后如何将生成的文件从 Azure Databricks 导出到 Azure DevOps?
问题描述
我们正在使用 Azure DevOps 向 Databricks 提交训练作业。训练作业使用笔记本来训练机器学习模型。我们正在使用databricks
CLI 从 ADO 提交作业。
在笔记本中的步骤中,我们创建了一个.pkl
文件,我们希望将其下载到构建代理并将其作为工件发布到 Azure DevOps 中。我们如何做到这一点?
解决方案
这实际上取决于该文件的存储方式:
- 如果它只是保存在 DBFS 上,您可以使用
databrics fs cp 'dbfs:/....' local-path
- 如果文件存储在本地文件系统上,则将其复制到DBFS(例如,通过使用
dbutils.fs.cp
),然后使用上一项 - 如果模型由 MLflow 跟踪,那么您可以通过MLflow API(或REST API)显式将模型导出到 DBFS(您也可以直接对 DevOps 执行此操作,只需要具有正确的凭据等)或使用此工具将模型/实验/运行导出到本地磁盘
推荐阅读
- javascript - 在反应状态下存储派生变量不起作用
- jquery - 如何确定是否选择了可选列表
- apache-kafka - kafka-connect 分布式工作者是否可以使用配置“cleanup.policy=compact,delete”的主题“connect-offset”工作
- python - 在 Jupyter Lab 单元格中显示 Pyvis HTML 时出错
- javascript - 如何将混淆代码放在 wordpress 帖子中?
- python - 无法切换帧 Selenium Python(不是 iframe)
- sql - 在sql Select语句中搜索包含空格的文本
- javascript - 有谁知道为什么这个函数没有循环运行?只有一个 Youtube 视频正在渲染
- c# - C# Selenium ChromeWebDriver 构造函数永远不会返回
- javascript - 如何从数组中删除数值和空值?