scala - 不能在 intellij 中包含 org.apache.spark
问题描述
将 IntelliJ Idea 项目作为 Maven 打开时。
当我import scala.io.Source
,没有问题。
但是,当我尝试时import org.apache.spark
,它不起作用。
我该如何解决?如果您需要更多信息,请告知。
import scala.io.Source
import org.apache.spark
object main extends App {
val lines = Source.fromFile("C://share_VB/file.csv").getLines.toArray
for (line <- lines){
if (!line.isEmpty){
val testcase = line.split(",").toBuffer
println(testcase.head)
println(testcase(1))
testcase.remove(0, 2)
while (testcase.nonEmpty){
println(testcase.head)
println(testcase(1))
testcase.remove(0, 2)
}
}
}
}
pom.xml 文件
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>seeifthisworks</groupId>
<artifactId>seeifthisworks</artifactId>
<version>1.0-SNAPSHOT</version>
<properties>
<java.version>1.8</java.version>
<scala.version>2.11.8</scala.version>
<scala.compat.version>2.11</scala.compat.version>
<spark.version>2.2.0.cloudera1</spark.version>
<config.version>1.3.2</config.version>
<scalatest.version>3.0.1</scalatest.version>
<spark-testing-base.version>2.2.0_0.8.0</spark-testing-base.version>
</properties>
<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-core -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.3.0-palantir3</version>
</dependency>
</project>
解决方案
修复 Spark 版本后替换2.3.0-palantir3
为${spark.version}
删除cloudera1
无论如何,这里没有火花代码,所以不清楚你想用它做什么
推荐阅读
- java - 如何在 Spring Boot Test 中使用环境变量?
- javascript - 即使在状态更改后,来自状态数组的动态映射组件也不会更新
- java - Payara 5.2021.4---【重启应用服务器实例】杀死DAS服务器实例
- python - OSError:[Errno 107] 传输端点未连接(使用 python 套接字)
- ios - NSManagedObject 属性在初始化时未正确设置
- c - 将找到二阶 LTI 的零输入响应的 C 语言脚本
- dart - 如何在 dart 中实现适用于移动设备和 Web 的 http 客户端?
- c# - C# 在字段存在之前获取它
- r - R:两列并尝试制作密度图或箱线图。我如何堆叠它们
- reactjs - reactjs 点击按钮,会跳转到另外一个页面,ID为data