apache-spark-sql - 如何在pyspark中设置setCheckpoint
问题描述
解决方案
为然后创建一个对象SparkContext
,您不需要指定self
参数。另外,删除不需要的参数的名称。
如下代码有效:
from pyspark import SparkConf
from pyspark.context import SparkContext
sc = SparkContext.getOrCreate(SparkConf())
sc.setCheckpointDir(‘path/to/checkpoint/dir’)
推荐阅读
- dataframe - Pyspark - 使用列表中的startswith创建一个新列
- f# - 如何将复杂的 Application Insights 引入 Farmer 部署?
- python - SqlAlchemy 函数元素。如何在课堂上放方法?
- .net - 具有强名称签名项目的批处理构建中的 dotnet build 命令
- android - StreamBuilder 没有从 FireStore 获取数据 | 扑
- django - 在 Django Rest Framework 上获取国外序列化的 ReadOnlyField
- azure - AD B2C 测试用户流不允许选择应用注册
- mongodb - 允许自定义 CRDT 合并的分布式数据库
- python - 优化计算文档频率
- python - django admin覆盖delete_model不适用于批量删除