首页 > 解决方案 > databricks python在数据框中获取一周的结束日期

问题描述

假设我有以下数据框年周 2019 1 2019 2

我想得到第 1 周和第 2 周的星期日

年 周 星期日
2019 1 20190106 2019 2 20190113

如何做到这一点?

标签: pythondatabricks

解决方案


pyspark.sql.functions有一个非常方便的函数next_day,它可以完全满足您的需求。它需要您想要找到的日期和工作日。为这个函数创建一个正确的参考日期可能有点棘手,我是这样做的:

df.withColumn("firstDayOfYear",  to_date(concat(col("year"), lit("-1-1"))))\
    .withColumn("realtiveWeekDay", expr("date_add(firstDayOfYear, (week - 1) * 7)"))\
    .withColumn("Sunday", next_day("realtiveWeekDay", "Sun")).show()

我在这里做的是首先创建一年中的第一天,然后在所需的一周中找到对应的一天,然后运行next_day到下周日。这种方法存在一个问题 - 边缘情况,如下所示。

+----+----+--------------+---------------+----------+
|year|week|firstDayOfYear|realtiveWeekDay|    Sunday|
+----+----+--------------+---------------+----------+
|2019|   1|    2019-01-01|     2019-01-01|2019-01-06|
|2019|   2|    2019-01-01|     2019-01-08|2019-01-13|
|2019|  53|    2019-01-01|     2019-12-31|2020-01-05|
|2018|   1|    2018-01-01|     2018-01-01|2018-01-07|
|2017|   1|    2017-01-01|     2017-01-01|2017-01-08|
|2017|   2|    2017-01-01|     2017-01-08|2017-01-15|
+----+----+--------------+---------------+----------+

2017 年 1 月 1 日是星期日 - 所以我知道您想要找到的第一周的星期日实际上是 2017.1.1。当我们将它传递给我们时,我们将在当前一个之后next_day的下周日获得。为了解决这个问题,我们可以添加一些额外的逻辑:

df.withColumn("firstDayOfYear",  to_date(concat(col("year"), lit("-1-1"))))\
    .withColumn("realtiveWeekDay", expr("date_add(firstDayOfYear, (week - 1) * 7)"))\
    .withColumn("AdjustedSunday", when(dayofweek("realtiveWeekDay") == 1, col("realtiveWeekDay")).otherwise(next_day("realtiveWeekDay", "Sun")))\
    .select("year", "week", "AdjustedSunday").show()

这会给你正确的结果:


+----+----+--------------+
|year|week|AdjustedSunday|
+----+----+--------------+
|2019|   1|    2019-01-06|
|2019|   2|    2019-01-13|
|2019|  53|    2020-01-05|
|2018|   1|    2018-01-07|
|2017|   1|    2017-01-01|
|2017|   2|    2017-01-08|
+----+----+--------------+

需要注意的一点是,在年底,上周的周日可能会在明年。您可能希望以特殊方式处理这种情况。

上面的代码假设您从中导入了所有使用过的函数,pyspark.sql.functions因此您可能想要这样做

from pyspark.sql.functions import *

推荐阅读