apache-spark-sql - Spark时间戳列值比较
问题描述
示例数据我想过滤掉date_time_begin
小于开始日期的行,我已经尝试过了,但我没有得到任何输出。我使用的是 spark 1.6.2 版本
filterddata = joindedf.filter(joindedf("date_time_begin").gt(lit("str_date")))
filterddata.show()
解决方案
如果两者columns
都相同,datatype
这应该可以。
val filterddata = joindedf.filter(joindedf("date_time_begin").gt(joindedf("str_date")))
lit
用于将文字值转换为column
.
我希望这有帮助!
推荐阅读
- python - Pygame精灵在跳跃时不动
- android - 禁用 Gradle“离线模式”并同步项目
- c# - 无论起点如何,我都想按顺序保持圆上的点
- react-native - 离线使用 i18next 进行本机反应
- mysql - WordPress 服务器分析
- javascript - 如何将一系列重复的行简化为数组(或任何可能的方式)
- azure - 如何重构使用 azure static web 应用程序部署的 azure functions 项目?
- javascript - 仅在点击一定数量的页面链接后才启用按钮链接
- python - 隔离森林 - TypeError:无效的类型提升
- reactjs - Redux Toolkit 历史 API 推送