apache-spark - 如何在rstudio中设置spark,spark_connect()不能工作
问题描述
我在 centOS 中安装了 R-3.4.0 和 rstduio-server 1.1.447。在 rstudio 中,我无法像这样连接火花:
sc <- spark_connect(master = "local")
Error in validate_java_version(master, spark_home) :
Java is required to connect to Spark. Please download and install Java from https://www.java.com/en/
它说需要Java才能连接到Spark。但我安装了JDK1.8:
$ java -version
java version "1.8.0_111"
$ echo $JAVA_HOME
/usr/java/jdk1.8.0_111
我不知道如何连接火花。我想我是否应该在 rstudio 中设置火花?CDH安装在集群中的spark,版本为2.1.0.cloudera1。我在 Renviron 文件中添加“SPARK_HOME=/opt/cloudera/parcels/SPARK2”。
解决方案
now it connect! I use command "Sys.setenv(JAVA_HOME=" ")" .
推荐阅读
- angular - 正确使用 RxJS 的方法
- azure-digital-twins - 如何将 Sensor 遥测数据持久化到大数据存储或 cosmosdb 等冷存储中
- jquery - Javascript:如何传入不带引号的标头令牌?
- node.js - 运行 nodemon 时找不到模块“express”。抛出错误,应用程序崩溃
- tfs - 我们可以动态更改 V-Next 发布代理池吗?
- symfony - 编译“COTerminalBundle.html.twig”中的模板时抛出异常(“Function() 不存在”)
- r - 由于特殊字符而面临更改数据帧结构的问题
- java - OkHttp3 中的 SSLSocketFactory 和 TrustManager 冗余
- html - 如何验证输入字段以仅在 Angular 6 中采用颜色值
- networking - 为什么公司有自己的DNS?