elasticsearch - Elasticsearch 双引号处理
问题描述
在我的 scala 数据框中,当我尝试将此列写入 elasticsearch 值时,有一个值如“prak”、[“prak”、“aga”] 已成功插入。但喜欢
prak,[\"prak\",\"aga\"]
df.write.format("org.elasticsearch.spark.sql")
.mode("overwrite")
.option("es.resource","companydatabase2/employees").save()
在向 elasticsearch 写入值时如何忽略这些 \
解决方案
推荐阅读
- ansible - 用 cisco ios 运行 ansible 只能看到一部分输出
- javascript - 在重叠的 div 周围环绕文本
- visual-studio-code - Flutter 找不到模拟器所需的文件
- javascript - 用 Python 加密和用 Javascript 解密的问题
- visual-studio - 断点是纯红色的,但永远不会被命中。调用 Debugger.Launch() 要求在新的 VS2019 窗口中以管理员身份运行 Just In Time Debugger
- ios - navigationBarTitle 与 SwiftUI 中的列表标题重叠
- python - 有没有办法让不和谐的机器人自动做某事(没有消息)?
- c++ - 声明没有大小的 c++ 数组
- android - Flutter 相机插件不保存在 DCIM 文件夹中
- eclipse - 在 sts 3.6.0 中启动新的 spring starter 项目时出错