首页 > 解决方案 > java中带有spark文件流的检查点

问题描述

如果在任何情况下我的火花流应用程序停止/终止,我想使用火花文件流应用程序实现检查点以处理来自 hadoop 的所有未处理文件。我正在关注这个:流式编程指南,但没有找到 JavaStreamingContextFactory。请帮助我该怎么办。

我的代码是

public class StartAppWithCheckPoint {

    public static void main(String[] args) {
        
        try {
            
            String filePath = "hdfs://Master:9000/mmi_traffic/listenerTransaction/2020/*/*/*/"; 
            String checkpointDirectory = "hdfs://Mongo1:9000/probeAnalysis/checkpoint";
            SparkSession sparkSession = JavaSparkSessionSingleton.getInstance();

            JavaStreamingContextFactory contextFactory = new JavaStreamingContextFactory() {
                  @Override public JavaStreamingContext create() {
                      
                    SparkConf sparkConf = new SparkConf().setAppName("ProbeAnalysis");
                    JavaSparkContext sc = new JavaSparkContext(sparkConf);  
                    JavaStreamingContext jssc = new JavaStreamingContext(sc, Durations.seconds(300));
                    JavaDStream<String> lines = jssc.textFileStream(filePath).cache();
                    
                    jssc.checkpoint(checkpointDirectory);
                    return jssc;
                  }
                };
                
            JavaStreamingContext context = JavaStreamingContext.getOrCreate(checkpointDirectory, contextFactory);
            
            context.start();
            context.awaitTermination();
            context.close();
            sparkSession.close();
            
        } catch(Exception e) {
            e.printStackTrace();
        }   
    }
}

标签: javahadoopspark-streaming

解决方案


您必须使用检查点

对于检查点,请使用有状态转换updateStateByKeyreduceByKeyAndWindowspark-examples中有很多示例,以及 git-hub 中的预构建 spark 和 spark 源。对于您的具体情况,请参阅JavaStatefulNetworkWordCount.java


推荐阅读