mongodb - 使用 pyspark 覆盖或附加集合正在删除所有索引
问题描述
下面是正在使用的代码
情况1
df.write.format("com.mongodb.spark.sql.DefaultSource").mode("append").option(
"uri", input_uri
).save()
案例2
df.write.format("com.mongodb.spark.sql.DefaultSource").mode("overwrite").option(
"uri", input_uri
).save()
在这两种情况下,mongo 集合中的索引都会被删除,这会导致我们最终出现问题。
有没有办法在火花结束时避免这种情况?
解决方案
推荐阅读
- uri - 如何在发布时检索 API Gateway URI
- javascript - Tinymce 模板:按 ENTER 后如何将光标保持在 div 内
- hyperledger-fabric - 如何在 Hyperledger Fabric GO 中执行注销操作?
- mysql - 如何使用 mysql-client 从 mac 连接到 mysql url
- python - 如何有效地将功能应用于大熊猫数据框的行?
- django - 如何为 Django 单例模型修复“名称‘自我’未定义”
- reactjs - this.setState 不会触发组件中的重新渲染
- solr - 在云模式下运行 Solr 自定义过滤器
- c# - dc.BeginDialogAsync:“值不能为空。\n参数名称:选项”
- python - 无法用 seaborn 地块来评估斧头对象