pyspark - 使用 pyspark 将 unix_timestamp 列转换为字符串
问题描述
我有一列代表 unix_timestamp 并希望将其转换为具有这种格式的字符串,' yyyy-MM-dd HH:mm:ss.SSS '。
unix_timestamp | time_string
1578569683753 | 2020-01-09 11:34:43.753
1578569581793 | 2020-01-09 11:33:01.793
1578569581993 | 2020-01-09 11:33:01.993
是否有任何内置函数或它是如何工作的?谢谢。
解决方案
df1 = df1.withColumn('utc_stamp', F.from_unixtime('Timestamp', format="YYYY-MM-dd HH:mm:ss"))
df1.show(truncate=False)
from_unixtime 仅转换为秒,对于毫秒,我只需要将它们从原始列连接到新列。
推荐阅读
- angular - Angular:根据另一个日期输入的选择验证日期输入
- pact - 如何在 Java 中为新手开始 PACT 合同测试
- android - Android中的FaceAware Imageview
- javascript - 如何在 JavaScript 中使用跨域获取的 xml 文档?
- c# - 计算机不活动时计时器启动
- excel - Laravel Excel 多表primary_id 保存到另一个表作为foreign_id
- jquery - npm 安装后如何在我的 html 中使用 jQuery?
- excel - 如何处理用户状态返回错误的日期格式
- ruby - 在 Ruby 中加入两个 CSV 文件而不使用表
- c# - 在 AutoMapper 中避免两个等于 for 循环的正确方法