scala - 我们如何加入 Spark 中的选项列?
问题描述
如果我用这样的表达式加入两个 ds 怎么办:
ds1.join(ds2, ds1("OptionCol") === ds2("NonOptionCol"))
由于 OptionCol 的类型为:Option[Int] 而 NonOptionCol 的类型为:Int?
我在本地进行了测试,它似乎可以正常工作,但是建议这样做吗?
我应该总是加入具有相同数据类型的列吗?
解决方案
推荐阅读
- c++ - 如何使代码输出为“工资减税”
- java - Android NFC 阅读器给出“avc: denied”
- regex - 通过从多个列中删除匹配的电子邮件域来过滤 Pandas 数据框
- php - Xdebug(在 Vagrant 上)不适用于 VSCode
- javascript - 每次更改博客条目时,`gatsby develop` 都会崩溃
- flutter - 使 sliverAppBar 在扩展模式下隐藏标题
- javascript - 在加载时未定义
- python - 在 Python 中输出绘图时迭代线性回归(SciPy 和 MatPlotLib)
- unity3d - 围绕游戏地图问题导航头像:头像隐藏在瓷砖和点击动画中
- http - 如何使用 Haskell 的 Network.HTTP.Req 库执行 GET?