pyspark-dataframes - 在pyspark中将字符串转换为日期
问题描述
我正在尝试将 20-NOV-2019 转换为 pyspark 中的日期。我一直在尝试各种方法,但没有运气。我尝试的一些方法如下
df= df.select(from_unixtime(unix_timestamp(d1.field_dt, 'yyyy-MM-dd')).alias('field_dt'))
df = df.select(F.to_date('field_dt')).alias('field_dt')
除了上述两个之外,我还尝试了其他stackoverflow问题的各种方法,但没有任何运气。任何有关如何解决此问题的建议都会有所帮助。
解决方案
推荐阅读
- c# - Linq 中的 Join 链
- javascript - 如何使用切换滑块js
- xcode - 当我尝试将 CollectionView 拖到情节提要时,Xcode 崩溃了
- image-processing - 如何将楔形文字图像(黑白)转换为彩色渐变图像(从白色到黑色)?
- aws-api-gateway - JSON Schema 4 仅验证一个定义
- docker - Docker 无法在 Jenkins 中提取指定的 .NET SDK(未找到 SDK 错误)
- python - 是否可以从本网站的地图中抓取数据?
- c++ - 为另一个函数设置一个“调用者”函数是否相关(如变量的设置器)
- css - 使用 fop-2.2 将 svg 转换为 pdf 时,stroke-opacity 对 svg:text 没有影响
- c++ - 在 Visual Studio 中解决忽略的 constexpr?