首页 > 解决方案 > 为什么 Apache Spark 编程指南一直使用 SparkContext?

问题描述

我想写一个新的 Spark 2 程序。根据 Apache Spark RDD-programming-guide,我应该首先创建一个 SparkContext。 https://spark.apache.org/docs/latest/rdd-programming-guide.html#initializing-spark。但是,我知道 SparkSession 是通往 Spark 2 中所有上下文的网关。是否有理由不将 SparkSession 用于我未来的任何 Spark 2 程序?

标签: apache-spark

解决方案


推荐阅读