apache-spark - 如何在 Spark sql 中使用外部应用
问题描述
我是火花 sql 的新手。我处于将现有 sql 查询转换为 spark sql 的情况。我现有的 sql 查询包含需要在 spark sql 中工作的外部应用函数。Spark sql中外部应用的替代方案是什么?
非常感谢任何帮助。
提前致谢。
解决方案
OUTER APPLY
只是一个LEFT OUTER JOIN
推荐阅读
- flutter - 在为我的应用添加图标时在 pubspec.yaml 中获取此异常
- c# - 如何以另一种形式将我的数据网格视图项显示到文本框?
- prometheus - 使用流入数据库的 grafana+prometheus
- jquery - 无法在 jQuery AJAX 500 中保存关系数据(内部服务器错误)
- bash - 让 certbot 等待另一个实例
- css - css flex布局中有空格
- kubernetes - 从集群内访问主机时,Kubernetes ingress-nginx 失败
- docker - GCP 上的 Docker 持久卷
- java - 使用 Java 6 和 lombok 注释在 Intellij 中运行 junit 测试
- typescript - 在 Aurelia 中显示值和绑定对象