r - R,sparklyr spark_connect 中的 java 版本错误
问题描述
我不明白这个错误或如何绕过它,任何帮助将不胜感激。
library(sparklyr)
spark_install(version = "3.0.0")
sc <- spark_connect(master = 'local')
错误:Java 11 仅支持 Spark 3.0.0+
问题是我有 Java 版本 8 Update 261 并且我已经适当地更新了我的环境变量,所以我不确定到底发生了什么。
解决方案
推荐阅读
- django - ubuntu 16 上的 500 内部服务器错误 django + mod_wsgi + apache2
- c# - 当在特定日期未找到值时用于拆分日期范围的 C# 函数
- asp.net-mvc - ASP.NET MVC 运行同一网页的多个实例
- video - .mov 视频的浏览器支持
- c++ - QT Not Recognizing UTF-8 Encoding,适用于所有其他地方
- jquery - ::before 元素干扰 jQuery 选择器
- python - 在 Python 中使用 iCloud 发送电子邮件
- r - 如何解决线性回归时间序列分析中的“attr(data, "tsp") <- c(start, end, frequency) 中的错误:对象不是矩阵”?
- gpu - 在 IMX8 上测量 Vivante G7200L 的 FLOPS
- c# - 如何从 Gremlin.NET 批量向 gremlin 服务器添加顶点?