首页 > 解决方案 > 不支持 Unit 类型的 Spark Scala 模式

问题描述

我是 Spark Scala 的新手。

我有一个 udf,它在线程“main”java.lang.UnsupportedOperationException 中运行失败返回异常:不支持 Unit 类型的架构

代码:

  val stay_dates = udf( (ci: Date, co: Date) => {
    val miliseconds_per_day = 24*60*60*1000
    println(miliseconds_per_day + " miliseconds_per_day!!!")
    val nDays = ( co.getTime() - ci.getTime() ) / miliseconds_per_day
    (0L until nDays).map(i => new Date(ci.getTime() + i * miliseconds_per_day) )
    println(nDays + " nDays!!!")
  }
  )

标签: scalaapache-spark

解决方案


推荐阅读