首页 > 解决方案 > 如何将 Spark 数据帧写入现有的 SQL Server 表?

问题描述

我想使用 spark 作业从 hive 表中提取数据,然后将其插入到现有的 SQL Server 表中,刷新和填充样式。

我打算使用df.write.jdbc(),但是似乎这种方法无法传入SaveMode.Overwrite参数。目前,SaveMode 是ErrorIfExists.

我怎样才能解决这个问题?

标签: sql-serverscalaapache-sparkjdbc

解决方案


你可以试试这个

df.write.mode("overwrite").jdbc()

推荐阅读