scala - scala ide中的spark scala代码未显示为scala应用程序运行
问题描述
我是 spark scala 开发人员,但我遇到了一些奇怪的问题。当我尝试使用 main 方法执行 scala 代码时,它没有显示作为 scala 应用程序运行的选项。
我完全一无所知,因为通常情况下,它发生在没有主要方法但问题也是主要方法的情况下。
代码如下。
package org.apache.spark.examples.sql
import org.apache.spark.sql.{Encoder, Encoders, SparkSession}
import org.apache.spark.sql.expressions.Aggregator
// scalastyle:off println
object SimpleTypedAggregator {
def main(args: Array[String]): Unit = {
val spark = SparkSession
.builder
.master("local[*]")
.appName("common typed aggregator implementations")
.getOrCreate()
spark.sparkContext.setLogLevel("ERROR")
import spark.implicits._
val ds = spark.range(20).select(('id % 3).as("key"), 'id).as[(Long, Long)]
println("input data:")
ds.show()
解决方案
你在使用 IntelliJ IDEA 吗?添加 FrameWork Support.. ,然后选中Scala复选框
推荐阅读
- python - 如何加入 2 个熊猫数据框并添加相应数据框的表示列
- reactjs - 在同一屏幕上多次堆叠导航
- node.js - Mongodb:使用 $aggregate 在数组中搜索
- entity-framework - EF 迁移无法将 Datetime(DataType) 列更改为 long(bigint)
- javascript - 模态关闭时如何重置滚动位置
- machine-learning - Keras 加载模型总是训练而不是预测
- android - Android 6 (Marshmallow) 上的 BLE 连接错误 - 无法编组值 BluetoothGattCharacteristic
- r - 对列值(group_by)求和,保持 NA 值,而不是用 R 中的零替换
- amazon-s3 - 将 AWS S3 TransferManager 与 MultipartUpload 和 S3ProgressListener 用于 ResumableTransfer 时打开的进程过多
- reactjs - Typescript React - 使用状态而不是逐个检查变量的条件渲染