apache-spark - 在不安装 Spark 的情况下编写 Spark 单元测试
问题描述
我正在尝试为 spark 代码编写单元测试。我知道我们可以安装 Spark,然后使用 SparkConf 和 SparkContext 来编写测试。
但是,我想检查是否有任何方法可以在不安装 Spark 的情况下编写单元测试,因为我的客户不想在 Jenkins 服务器上安装 Spark,我们打算在其中作为自动化过程的一部分运行测试。
解决方案
您可以通过代码将 Spark 设置为在本地集群中运行:
val conf = new SparkConf().setAppName(appName).setMaster("local")
val context = new SparkContext(conf)
然后,您可以使用context
创建RDDs
数据进行测试:
context.makeRDD
推荐阅读
- c# - 使组件上的脚本仅适用于一个游戏对象?统一
- ajax - Hangfire 仪表板更改刷新周期
- symfony - SonataBlock - 添加输入 ModelListType
- google-calendar-api - 如何在 integromat 中格式化来自谷歌日历和 Dialogflow 的“开始日期”?
- javascript - 如何在javascript中选择和切换div内的元素
- python - 如果一个数据帧中的值与另一个数据帧匹配,则更改它的值
- c# - System.IO.FileNotFoundException:无法加载文件或程序集'Microsoft.Extensions.DependencyInjection
- pandas - 如何将列转换为数字?
- sql - 创建递归查询SQLite3从孩子获取父母
- django - 如何在Django的ManyToMany字段中执行if语句