apache-spark - Apache-spark 错误:将行写入 sequenceFile 时任务失败
问题描述
我正在创建一个 javaPairRDD 并使用 apache-spark 将其保存到 sequenceFileFormat。Spark 版本是 2.3。我在普通的 4 节点集群上运行它,路径也是普通的 hdfs 路径。我正在使用火花代码(Java)来做这件事:
JavaSparkContext sc = new JavaSparkContext(conf);
JavaRDD <Integer> jr = sc.parallelize(Arrays.asList(1,2,3,4,5));
JavaPairRDD<NullWritable, Integer> outputData = jr.mapToPair( p -> {
return new Tuple2<>(NullWritable.get(), p);
});
outputData.saveAsHadoopFile("hdfs://master:54310/user/output12",
NullWritable.class, IntWritable.class, SequenceFileOutputFormat.class);
sc.close();
但是当我尝试运行代码时,我得到以下异常
org.apache.spark.SparkException: Task failed while writing rows
解决方案
推荐阅读
- laravel - Lumen 在安装软件包时因照明/控制台错误而变得令人满意
- redux - jquery中的promise从不执行catch块
- spring-boot - @JmsListener 并持久化到数据库
- python - Doc2Vec 最相似的向量与输入向量不匹配
- image - 如何找到单个图像实例的分类?(法泰)
- reactjs - 我的 web3 代码中的 Solidity 溢出,但适用于 oneclickdapp [Final Year Project]
- database - 如何在postgres中检索包含多个类别的所有行?
- c++ - "" + number 的行为是什么,为什么 c++ 编译它?
- android - AltBeacon getDistance() 函数与信标定位距离估计
- typescript - 嵌套 TypeScript 函数中的泛型