apache-spark - Spark SQL、pyspark中可以使用SQL递归吗?
问题描述
我们可以在 Spark SQL 中使用递归公用表表达式 (CTE) 并在 pyspark 中进行递归吗?
如果没有,我们有没有办法在 Spark 的分布式存储环境中使用 Python(即 Pandas 或 UDF)来做到这一点?我知道一个递归实现解决方案,但它使用 Scala,我的项目中没有使用它。
解决方案
推荐阅读
- css - 获取每个第一个+第二个孩子通过第三个和第四个等等css
- r - 在函数 R 中粘贴变量名
- php - PHP计算器宽度html表格
- r - 将多个数据帧列表绑定到一个列表中
- wordpress - 无法在 wordpress 上使用具有自定义帖子类型的插件
- wordpress - Woocommerce 订单区在网站迁移后停止工作
- ansible - Ansible playbook 比较 2 个寄存器输出
- html - 如何编写我的 node.js 代码以在浏览器上显示图像
- python-sphinx - 在 sphinx 中使用 apalike 书目风格
- reactjs - 使用 Hasura 为 Apollo 客户端实现订阅时帧头无效