sql - 从 Spark SQL 中的字符串日期时间获取年份
问题描述
我试图通过使用文档中的year()函数来获取 spark SQL 的年份。
调用的日期时间字符串dt
的格式类似于dd/MM/yyyy
.
我尝试进行如下查询以获取 2018 年和 2019 年的所有记录:
SELECT * FROM T1
WHERE year(dt) == 2018 AND year(dt=='2019');
但似乎有些不对劲。有什么建议么?
解决方案
我相信你在问一些不可能的事情。您是在告诉程序同时获得 2018 年和 2019 年。尝试以下操作:
SELECT * FROM T1
WHERE year([dt]) in (2018, 2019)
我希望它可以帮助 BR
推荐阅读
- c# - 如何在 C# 中不使用 using 编写语句
- context-free-grammar - 这个流氓语法有什么问题?
- node.js - 如何在 ftp 服务器上运行 node.js 脚本?
- php - 随机化两个团队 PHP Mysql
- mongodb - Scala Mongo 查询查找过滤器生成的日期为 Long
- google-apps-script - Google App 脚本在 30 分钟后超时
- highcharts - 使用 JSON 的基本 Highcharts 多系列图表
- java - 当列重新排列时,对 JTable 列的编辑将数据放置在错误的列中
- django - 过滤日志条目
- r - 根据单元格中的值数量在 R 中重塑数据框