python-2.7 - 为 pyspark 烧瓶应用程序中的每个请求创建 Spark 上下文
问题描述
我是 apace spark 的新手,我们如何为基于 web 的应用程序创建 spark 上下文。
下面我用过,
from pyspark.context import SparkContext
from pyspark.conf import SparkConf
conf = SparkConf().setAppName('Test App').setMaster('spark://localhost:7077')
app = Flask(__name__)
@app.route('/find_possible_events', methods=['POST'])
def find_possible_events():
sc=SparkContext.getOrCreate(conf=conf)
data=sc.parallelize([20,30,40,50])
d=data.collect()
sc.stop
return d
当我们同时有单个请求时,上述工作正常,但如果我们有多个请求,则意味着出错。
线程“dispatcher-event-loop-8”java.lang.OutOfMemoryError 中的异常:超出 GC 开销限制
当我查看 spark worker 日志时,它说 spark 上下文不可用。
提前致谢
解决方案
推荐阅读
- amazon-web-services - 与 CRON 不兼容的计划 Lambda
- node.js - 更换费用太低
- java - 创建圣诞树 - Java
- java - 程序在需要时不要求输入。爪哇
- python - 循环时向前验证问题
- asp.net-mvc - 调整剑道多选的高度
- pandas - Statmodel OLS 在具有多个单词的列名处失败-线性回归
- php - 无法在 YII2 中使用 SocketIO 获取 CURL 数据?
- javascript - 我想用量角器测试反应应用程序,但想通过组件名称而不是 css 选择器进行测试
- c++ - 与指向继承方法的模板函数指针一起使用的模板方法的问题