apache-spark - 既然 SparkSession 是唯一的入口点,为什么 SparkContext 仍然可用?
问题描述
既然 SparkSession 是唯一的入口点,为什么 SparkContext 仍然可用?SparkContext 将来会被弃用吗?
解决方案
如果是一个问题“SparkContext 将来会被弃用吗?” ,那么我的回答是,这取决于Spark
进一步的发展。
如果您的问题是“为什么它不被弃用并且在 a 中可用spark-shell
?” ,那么我的回答是不是每个人都使用Dataframes
/ Datasets
。此外,在引擎盖下Datasets
使用RDDs
。看看这个用于为源构建 a的TableScan 接口:您会注意到它返回,并且此时可能需要使用 s 的操作。Relation
Dataframe
RDD
RDD
SparkContext
您的帖子中的“由于 SparkSession 是唯一的入口点”这句话是错误的。除了SparkSession
and之外SparkContext
,还有一个StreamingContext
forSpark Streaming
用法。
我不确定我的回答有多清楚,但我试图向您澄清此时的不同情况contexts
:Spark
它们都有不同的目的,并且没有任何内容被弃用。
推荐阅读
- html - 如何修复 Rails RuntimeError 当前 ExectJ 不支持 ES5?
- docker - 错误:在文件 './docker-compose.yml' 中,服务名称 True 必须是带引号的字符串,即 'True'
- c# - C# - 有没有办法将两个类型参数限制为必然不同?
- java - 小数据的选择排序与快速排序
- excel - 按条件删除单元格:代码不起作用
- c - 在具有多个 malloc() 的二维数组的指针上使用 free()?
- sql-server - 通过 REST API 传递“Windows 身份验证”?
- excel - 如何转换成百分比
- vue.js - vue-cli-service 构建:新的 workbox-webpack-plugin 选项的验证错误
- android - 活动在最小化后不保持与其服务的连接