首页 > 解决方案 > 使用 UDF 及其性能的 Spark Scala 数据集验证

问题描述

我是 Spark Scala 的新手。我已经实现了一个使用 UDF 对多个列进行数据集验证的解决方案,而不是在 for 循环中遍历各个列。但我不知道这是如何更快地工作,我必须解释它是更好的解决方案。

数据验证的列将在运行时接收,因此我们不能在代码中硬编码列名。当列值验证失败时,还需要使用列名更新注释列。

旧代码,

def doValidate(data: Dataset[Row], columnArray: Array[String], validValueArrays: Array[String]): Dataset[Row] = {
var ValidDF: Dataset[Row] = data
var i:Int = 0
for (s <- columnArray) {
        var list = validValueArrays(i).split(",")
    ValidDF = ValidDF.withColumn("comments",when(ValidDF.col(s).isin(list: _*),concat(lit(col("comments")),lit(" Error: Invalid Records in: ") ,lit(s))).otherwise(col("comments")))
    i = i + 1  
}  

return ValidDF;

}

新代码,

def validateColumnValues(data: Dataset[Row], columnArray: Array[String], validValueArrays: Array[String]): Dataset[Row] = {
 var ValidDF: Dataset[Row] = data
 var checkValues = udf((row: Row, comment: String) => {
  var newComment = comment
  for (s: Int  <- 0 to row.length-1) {
    var value = row.get(s)
    var list = validValueArrays(s).split(",")

     if(!list.contains(value))
      {

       newComment = newComment + " Error:Invalid Records in: " + columnArray(s) +";"
      }
    }
     newComment
  });
ValidDF = ValidDF.withColumn("comments",checkValues(struct(columnArray.head, columnArray.tail: _*),col("comments")))

return ValidDF;
} 

columnArray --> 将有列列表

validValueArrays --> 将具有对应于列数组位置的有效值。多个有效值将以 , 分隔。

我想知道哪一种更好或任何其他更好的方法来做到这一点。当我测试新代码时看起来更好。当我阅读 UDF 时,这两个逻辑之间的区别是 Spark 的黑盒。在这种情况下,UDF 无论如何都会影响性能?

标签: scalaapache-sparkhiveuser-defined-functionsapache-spark-dataset

解决方案


在运行它之前,我需要更正一些封闭的括号。返回 validDF 时要删除一个“}”。我仍然收到运行时分析错误。

最好避免 UDF,因为 UDF 意味着反序列化以处理经典 Scala 中的数据,然后重新序列化它。但是,如果您的需求无法使用构建 SQL 函数归档,那么您必须使用 UDF,但您必须确保查看 SparkUI 的性能和执行计划。


推荐阅读