r - Azure HDInsight 群集中的 HDFS 路径
问题描述
我在 Spark 2.2 上使用 Java 8 HDI 3.6 预配了 Azure HDInsight 群集类型 ML Services (R Server)、操作系统 Linux、ML Services 9.3 版本。
在 Rstudio Server 中,我试图从我的 Azure blob 存储中读取 csv 文件。
但是,我在 R 中使用的包 (sparklyr) 只允许在 spark_read_csv() 函数中使用 hdfs: 或 file: 的路径,而不是 http: (由 azure blob 提供的路径)。
如果作为 Azure 存储 blob 托管的数据具有 hdfs: 路径,我该如何寻找正确的使用路径?
解决方案
推荐阅读
- apache-spark - 循环 Spark Dataframe,保存结果并使用上一次迭代的结果
- javascript - 如何重构反应中的方法?
- excel - Excel (2010) 将格式化值转换为其等效文本
- awk - 如何用awk跳过两个模式之间的行?
- css - 谷歌自动完成出现在 reactstrap 模式后面
- python - 如何在字典中获取列表值
- go - 有没有办法从 reflect.Func 中提取包路径?
- docker - 如何配置 docker-compose 以便将磁盘挂载到文件夹,而不是本地磁盘
- docker - 无法从主机访问运行 docker 容器(本地主机:8081)
- openssl - HMAC 的 OpenSSL 速度命令