apache-spark - 为什么 Apache Spark 编程指南一直使用 SparkContext?
问题描述
我想写一个新的 Spark 2 程序。根据 Apache Spark RDD-programming-guide,我应该首先创建一个 SparkContext。 https://spark.apache.org/docs/latest/rdd-programming-guide.html#initializing-spark。但是,我知道 SparkSession 是通往 Spark 2 中所有上下文的网关。是否有理由不将 SparkSession 用于我未来的任何 Spark 2 程序?
解决方案
推荐阅读
- docker-compose - Traefik 2.4:根据 IP/Header 将 http 重定向到 https
- javascript - 让用户为调度系统选择时区:今天在服务器上返回的问题
- kubernetes - 创建新命名空间时,serviceaccout 和 secret 不会自动创建
- java - 尝试在coldfusion中编写一个java函数
- delphi - 如何在 Delphi 10.3.3 Pro 中使用 Indy 获取域名的到期日期?
- php - 在php中读取文本文件,变量和数据记录为多行
- phpstorm - 从 PhpStorm 自动完成中隐藏某些类/子目录
- python - 如何在python中将大小设置为texture_size
- laravel-5 - 使用 Laravel eloquent 获取匹配月份和年份的记录
- amazon-web-services - 为什么“除非您使用直写,否则 TTL(生存时间)通常不是一个坏主意?”