apache-spark - row_number over ... 无界前行和无界后行之间的行在 spark 中不兼容
问题描述
我有一个类似的查询row_number over partition by column name order by column name rows between unbounded preceding and unbounded following
。
该查询在 hive 中运行,但在 Spark-SQL 和 spark(在 spark 1.6 和 2.0 中)中不起作用。
我想知道如何在火花代码中实现这个逻辑。
这个查询是否有效,在带有 row_number 函数的帧之间有行?
解决方案
- 窗口函数调用的正确语法需要在框架定义周围加上括号。
row_number
需要ROWS BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW
框架,在这种情况下它是默认的,所以可以省略。
结合:
row_number() OVER (PARTITION BY foo ORDER BY bar)
推荐阅读
- python - 在 Lambda / Python 上保存图像时丢失字节
- go - 如何使用 Go-Kit 在 GoLang 中调用其他基于 HTTP 的微服务
- python - Python 应用程序无法重定向到另一个页面
- python - 拆分具有缺失范围作为分隔符的 Numpy 数组
- django - 检索每个客户的最后一个订单
- python - 从混合 4 到混合 10 获取初始 v3 层
- google-chrome - 使用 Tomcat 时,是否可以自动重新加载客户端文件(js、css、html)而无需在 Google Chrome 中手动刷新页面?
- python - 如何在 Python 中指定函数的输入类型?
- python - 将嵌套字典转换为 json
- flutter - 未处理的异常:“String”类型不是“Uri”类型的子类型