apache-spark - 如何提交 python SnappyData 作业
问题描述
SnappyData 文档 (docs/programming_guide/using_the_spark_shell_and_spark-submit.md) 表明可以向 Spark(主默认端口 7077)提交一个可以使用 SnappyData 表的 python 程序:
$ ./bin/spark-submit --class io.snappydata.examples.AirlineDataSparkApp --master spark://masterhost:7077 --conf spark.snappydata.connection=locatorhost:clientPort $SNAPPY_HOME/examples/jars/quickstart.jar
我的问题:Spark 端口 7077 似乎没有在监听。是否必须手动配置?
(假设:我假设端口 7077 属于 SnappyData 自带的 Spark,而不是单独的 Spark 集群。)
解决方案
是的,Snappy 数据服务器 JVM 不能在“内部”运行 Python。但是,您可以使用相同的节点来启动 Spark 主节点和工作节点——它们的重量非常轻。运行与用于运行 SnappyData“数据服务器”的节点并置的工作程序。请注意,作业(例如 Java、scala)是否在数据服务器中运行,它们是否需要类似的资源(CPU、内存)。
推荐阅读
- google-apps-script - 我在这里做错了什么?
- r - R Shiny WebApp & R Shiny Dashboard menuItem - 如何使它们动态链接到其他 URL
- graphql - Query works Mutations fail: Expected non-null value, resolve delegate return null
- logstash - Logstash - 将微秒转换为毫秒
- sql - oracle中的列部分不能有量词
- django - Django:从与我的 Vehicle 模型具有 ForeignKey 关系的 2 个模型中过滤数据的查询
- java - Collection的java泛型
返回列表 或设置 - hbase - 如何在 Nifi 中使用 HBase 2.0.4 版本?
- mongodb - 如何知道聚合组具有上一个/下一个值?
- ios - 通过 wifi 向 Apple Watch 发送远程通知