apache-spark - Spark sql - Pyspark 字符串到日期的转换
问题描述
我有一列包含20180501
字符串格式的数据,我想将其转换为日期格式,尝试使用
to_date(cast(unix_timestamp('20180501', 'YYYYMMDD') as timestamp))'
但它仍然没有奏效。我正在使用带有数据框的 Spark SQL
解决方案
格式应为yyyyMMdd
:
spark.sql("SELECT to_date(cast(unix_timestamp('20180501', 'yyyyMMdd') as timestamp))").show()
# +------------------------------------------------------------------+
# |to_date(CAST(unix_timestamp('20180501', 'yyyyMMdd') AS TIMESTAMP))|
# +------------------------------------------------------------------+
# | 2018-05-01|
# +------------------------------------------------------------------+
推荐阅读
- python - Pandas:如何在 GROUPBY 之后使用 MELT
- python - 数据类对象属性别名
- python - 在 Python 中使用 opencv 加速自定义自适应平滑滤波器
- javascript - 开玩笑:从自己的包导入时无法读取未定义的属性
- javascript - 符合 ES6 标准的 JavaScript 代码优化
- html - HTML - 文本位置,如平方数
- hive - 表或数据库名称不得包含点 (.) 字符
- php - Arduino 无法将数据发布到 PHP
- javascript - d3 v6 围绕中心而不是光标缩放
- postgresql - Postgresql 驱动程序声称在将环境传递给 DOCKER 的应用程序属性时不接受 JDBC URL