首页 > 解决方案 > 我们可以使用 Azure DevOps 在 Databricks 上进行持续集成和交付吗

问题描述

我的要求是按计划的时间间隔自动备份 Databricks Notebooks 并将其推送到 Azure DevOps Repository。我需要从大约 10 个 Databricks 工作区中获取数据并将其推送到单个 Azure DevOps 存储库。有什么方法可以实现相同的!此外,在浏览 Databricks 支持文档时,我遇到了以下提到的材料。是否可以使用一个脚本将多个工作区备份到 Azure DevOps Repos 中!

https://docs.databricks.com/dev-tools/ci-cd.html

标签: azure-devopsdatabricksazure-databricks

解决方案


对于此问题,您可以尝试将工作簿与存储库链接,并通过以下步骤直接提交到存储库:

1.打开你的笔记本,注意屏幕右上角的修订历史。单击修订历史以调出版本历史侧面板。

2.点击Git: Not Linked更新Git Preferences。将您的工作簿链接到 Azure DevOps Repo,这应该是您的 git 存储库的 URL,并将 Git Repo 中的路径设置为您希望 Databricks 将您的笔记本保存在存储库中的位置。

在此处输入图像描述

在此处输入图像描述

有关详细信息,请参阅本文档的 Step3 部分。另外,我觉得你提到的链接中的脚本也是可行的,你也可以试试。


推荐阅读