scala - 不支持 Unit 类型的 Spark Scala 模式
问题描述
我是 Spark Scala 的新手。
我有一个 udf,它在线程“main”java.lang.UnsupportedOperationException 中运行失败返回异常:不支持 Unit 类型的架构
代码:
val stay_dates = udf( (ci: Date, co: Date) => {
val miliseconds_per_day = 24*60*60*1000
println(miliseconds_per_day + " miliseconds_per_day!!!")
val nDays = ( co.getTime() - ci.getTime() ) / miliseconds_per_day
(0L until nDays).map(i => new Date(ci.getTime() + i * miliseconds_per_day) )
println(nDays + " nDays!!!")
}
)
解决方案
推荐阅读
- git - git 试图将一个旧的 master 合并到我的分支中
- performance - JDBC 批处理执行保证
- r - 使用优势比比较亚组荟萃分析的比例
- python - Jinja2 模板用新格式查找和替换字符串
- php-7 - 如何在 PHP7 中使用方法链并进行正确的错误处理
- azure-application-insights - 从 AI/Kusto 查询中引用外部数据源?
- logstash - 如果我对 Logstash 进行任何配置更改,是否应该重新索引 Elastic Search
- c# - 使用继承接口的类型约束会导致隐式引用转换错误
- plsql - 如何为列中的值创建一个增量触发器?
- azure-devops - 通过 API 发布 Nuget 包后更新视图时出错