apache-spark - 将 Azure Databricks 增量表迁移到 Azure Synapse SQL 池
问题描述
我在 scala databricks 笔记本中编写了计算逻辑,该笔记本由 ADF 执行,以通过从 ADLS Gen2 容器读取原始增量文件来创建增量文件。
现在,我需要将所有 databricks 增量表从 Azure databricks 工作区迁移到 Azure Synapse 分析。
你能列出完成这项任务我需要采取的分步方法吗?
解决方案
以下是使用 azure 数据工厂将数据从 Azure 数据块增量表复制到 Azure Synapse 的步骤
- 步骤 1:使用“Azure 数据砖 delta Lake”连接器创建一个数据集以指向您的 delta 表
- 第 2 步:使用“Azure Synapse Analytics”连接器创建一个数据集以指向您的 Synapse Analytics
- 第三步:使用复制活动。在复制活动中,使用 step1 数据集作为源,使用 step2 数据集作为接收器
Azure Databricks 中的 Delta 文件是源数据集,只需创建管道以对数据集执行复制活动,以反映将成为 Azure Synapse SQL 池的接收器数据集。
请参阅此链接:复制活动在 Azure 数据工厂中的工作原理的基本方案
推荐阅读
- asp.net - ng serve -o 显示空白浏览器屏幕
- python - 合并单元格在 Python PPTx 中不起作用
- mysql - SQL 尝试在同一选择结果列中使用文本和日期
- scala - 有没有办法省略对 Spark 中元素很少的 RDD 分区的处理?
- mfc - 所有者绘制具有 CBS_DROPDOWNLIST 样式的 ComboxBox 不保留 aero 样式
- docker - 重建泊坞窗图像
- sql - 从一个表列中获取数据,其名称是另一个表的值
- karate - 空手道:如何使用 sudo 为 linux 使用实现 --no-sandbox 标头
- java - 在方法参数中使用 setter 传递新对象
- r - 如何使用 biglm 函数处理有关 ffdf 对象的内存限制的错误