首页 > 解决方案 > 使用 pyspark 覆盖或附加集合正在删除所有索引

问题描述

下面是正在使用的代码

情况1

df.write.format("com.mongodb.spark.sql.DefaultSource").mode("append").option(
    "uri", input_uri
).save()

案例2

df.write.format("com.mongodb.spark.sql.DefaultSource").mode("overwrite").option(
    "uri", input_uri
).save()

在这两种情况下,mongo 集合中的索引都会被删除,这会导致我们最终出现问题。
有没有办法在火花结束时避免这种情况?

标签: mongodbapache-sparkpyspark

解决方案


推荐阅读