apache-spark - spark'join with condition'与'join with filter',哪个更好?
问题描述
我想根据某些条件加入两个数据框。这两种方法中哪一种具有更好的性能特征?
第一种方法
df1.join(df2, (df1("numer") === df2("numer")), "full")
第二种方法
df1.join(df2, how="full").filter(df1("numer") === df2("numer"))
解决方案
推荐阅读
- html - 如何在输入标签中使用 runat = "server"?
- laravel - Laravel 护照刷新令牌
- java - Jersey 2.27 - 使用 ExceptionMapper 处理错误时不接收 JSON
- angular - 在 Angular 7 单元测试中测试变换
- git - 从现有项目创建一个 git repo,并运行 `git diff`
- android - 应用程序不显示 Android Pie
- flutter - Flutter 动画在第一次渲染时不流畅
- fiware - 关于FIWARE 7.5版本中各个组件的版本
- c# - 如何在后端asp.net mvc中控制图像的大小
- azure - 使用 ODATA 从 Application Insights REST API 获取最旧的记录