r - 无法从 R shell 连接到 Spark 1.6.0
问题描述
在我的环境中,我有 2 个不同版本的 Spark(2.2.0 和 1.6.0)。我正在尝试从 R 连接到 Spark 1.6.0,但无法与文档中给出的指南建立连接。
我在用:
spark_connect(
master = "yarn-client",
config = spark_config(), version = "1.6.0",
spark_home = '/opt/cloudera/parcels/CDH-5.12.1-1.cdh5.12.1.p0.3/lib/spark')
但我收到以下错误:
Error in force(code) :
Failed during initialize_connection: Failed to detect version from SPARK_HOME or SPARK_HOME_VERSION. Try passing the spark version explicitly.
Log: /tmp/RtmplCevTH/file1b51126856258_spark.log
我能够毫无问题地连接到 Spark 2.2.0,并且还能够查询数据。
请注意我做错了什么。
解决方案
推荐阅读
- python - 嵌套 URL - Django-Rest-Framework 无法解析超链接关系的 url
- html - 垂直对齐三个段落
- c++ - 努力在方法中使用对象数组
- r - 包开发中的@importFrom 或 package::function
- php - 我如何使用 TinyMCE 编辑器通过 Ajax 加载/填充文本区域内容
- python-3.x - 原始 PCM 的 FFT 图因 python 中的更高频率而出错
- c - 关于hackerrank的数组操作问题
- java - 嵌套对象结构内字段的 HibernateValidator 约束映射
- php - 如何根据文件名前面的字母显示按钮?
- javascript - React Hooks Modal 传递状态?