apache-spark - 如何在 spark 中编写编码指定的 csv 文件?
问题描述
我想从 DataFrame 中编写一个 GBK 编码 csv 文件。我找到了该选项"encoding"
,当我在本地环境中CSVOptions
读取 GBK 编码文件时,它运行良好。option("encoding", "GBK")
但是当我使用如下write
功能时
df.repartition(1).write.option("header", value = true).option("encoding", "GBK").csv("F:\\project\\test1")
我得到的 csv 文件总是 UTF8 编码。我尝试将编码选项值更改为 ISO-8859-1 或其他编码格式,它不会更改输出 csv 文件编码。
解决方案
推荐阅读
- reactjs - 在 webpack 中拆分块后无法运行应用程序
- javascript - select2 和 select2 full 有什么区别?
- apache - JSS7 - 无法执行目标 org.apache.maven.plugins:maven-compiler-plugin
- serialization - protobuf 消息的分隔符是什么?
- linux - 有多少行包含字符串“int”且不包含“integer”.h 文件?
- amazon-web-services - 有没有办法为 Redshift 表创建别名?
- google-apps-script - 搜索和匹配
- javascript - Mousemove 事件:鼠标相对于父元素的位置
- jenkins - Jenkins stash 没有隐藏所有文件和文件夹
- ubuntu - 颤振医生无法识别Android Studio颤振和飞镖插件,但已安装插件