apache-spark - 保存到 csv 后 Pyspark 时间戳格式更改
问题描述
我有一个包含时间戳列的数据框。当我显示 df 我看到的值是:
但是当我将 df 保存到 csv 时,我看到的值为:
我已经尝试了这两种选择timestampFormat
,dateformat
但仍然相同。
q.coalesce(1).write.format("csv").option("dateFormat", "yyyy-MM-dd HH:mm:ss").save("/test_dhs/")
q.coalesce(1).write.format("csv").option("timestampFormat", "yyyy-MM-dd HH:mm:ss").save("/test_dhs/")
背景:
q=spark.read.parquet("/eureka/dhs_aco_ovrvw_000.parquet")
解决方案
推荐阅读
- python - 如何在 Python 中对外部索引上的数据框元素进行排序
- netsuite - 如何搜索与引用该客户记录的自定义记录实例结合的客户记录
- git - 两个功能分支。在哪里进行修改?
- cassandra - Cassandra DB 使用哪个依赖项(反应式)
- python - 在 for 循环后返回
- python - 在服务器上持久运行 Python 脚本
- python - 我可以在嵌入式 Python 块中有多个输入吗?
- java-8 - 使用 Stream 从列表中获取最高价值的不同元素
- sql - 如何对 PostgresQL 中 2 个不同查询的结果求和
- python - 在 python 中使用 split with strip 的最有效方法