scala - Spark 1.6 和 Spark 2.2 中不同的类似行为
问题描述
我将一些过滤器应用于 Spark 1.6 和 Spark 2.2 中的数据框,我得到了完全不同的行为。我正在执行的代码是:
val df = Seq(
(1, 2),
(3, 4),
(5, 6),
(7, 8)
).toDF("col1", "col2")
val filter = "col1 rlike '[\\x00-\\x1F\\x7F]'"
df.filter(filter).count
// This gives me 0 in Spark 1.6 and 4 in Spark 2.2
val filter2 = "col1 rlike '[\\\\x00-\\\\x1F\\\\x7F]'"
df.filter(filter2).count
// This gives me 4 in Spark 1.6 and 0 in Spark 2.2
以防万一,Spark 1.6 与 Scala 2.10.5 一起执行,Spark 2.2 与 2.11.8 一起执行。
知道为什么会发生这种情况吗?
解决方案
推荐阅读
- javascript - 响应式导航栏(vanilla javascript)不起作用
- c# - 使用没有 VBA 的 OpenXML 库 VS2017 在 Office Excel 中自动插入自定义功能区
- python - Python:熊猫中的行到列
- angular - 删除参数时不会触发路由 paramMap
- android - 获取空值作为响应
- java - 对 ArrayList 进行排序时发生 Collections.sort() 错误
- vue.js - 如何在生成的 index.html 文件中加载 css 文件?
- r - R tinytex 执行失败,错误代码 127
- android - 无法为 org.gradle.api.Project 类型的根项目“RoomWordSample”获取未知属性“roomVersion”
- javascript - 云功能部署失败