apache-spark - 'YYYY-MM-dd' 和 'yyyy-MM-dd' 日期格式之间的 Spark-sql 区别
问题描述
我有一个用例向时间戳列添加一些值并从中派生日期。我正在尝试使用 from_unix 和 unix_timestamp 函数。但它以不同的格式显示不同的值。
select from_unixtime('1577582583', 'YYYY-MM-dd'), from_unixtime('1577582583', 'yyyy-MM-dd');
from_unixtime(CAST(1577582583 AS BIGINT), YYYY-MM-dd) from_unixtime(CAST(1577582583 AS BIGINT), yyyy-MM-dd)
2020-12-29 2019-12-29
有人能说出“YYYY-MM-dd”格式和“yyyy-MM-dd”格式之间的区别吗?
解决方案
YYYY
是一个星期的日期,yyyy
是一个普通的日期。您可以在那里查看:
https ://docs.oracle.com/javase/7/docs/api/java/text/SimpleDateFormat.html
https://en.wikipedia.org/wiki/ISO_week_date
推荐阅读
- python - 我正在尝试使用以下代码获取数据,但它给出了错误是否有任何其他方法
- windows - 如何在 Windows 启动时添加 mongoDB 服务?
- ffmpeg - 每秒生成一个 .m4s 文件的选项
- python-3.x - 如何使用 python 替换命令中的源和目标属性名称。有超过 500 种不同的属性可以替换
- php - Codeigniter Ajax Dependent Dropdown 在 foreach 语句中不起作用
- bash - Postgres 函数创建中 $$ 双美元的语法错误
- android - Mac 上没有 Android Studio 的 AVD Manager GUI
- javascript - Grid组件的嵌套单文件组件问题
- javascript - 角度反应形式在另一个 FormGroup 中的另一个 FormArray 中的嵌套 FormGroup 中添加 FormArray
- css - 如何使用 webpack 缩小单个 css 文件?