scala - Scala、Spark-shell、Groupby 失败
问题描述
我有 Spark 2.4.0 版和 scala 2.11.12 版。我可以使用以下代码成功加载数据框。
val df = spark.read.format("csv").option("header","true").option("delimiter","|").option("mode","DROPMALFORMED").option("maxColumns",60000).load("MAR18.csv")
但是,当我尝试执行 groupby 以下操作时,出现错误。
df.groupby("S0102_gender").agg(sum("Respondent.Serial")).show()
错误信息是:
错误:值 groupby 不是 org.apache.spark.sql.DataFrame 的成员
我错过了什么。一个完整的 Scala 和 Spark Newb。
解决方案
你有一个错字
改变
groupby
至
groupBy
推荐阅读
- ios - 如何在应用程序组中共享重复的方法
- vba - Outlook 中的 VBA 保存由指定地址发送的 .csv 文件 - 由规则调用
- qt - QML 旋转量规针 - 正确旋转
- algorithm - 如何提高我的算法时间复杂度?
- java - 将 Scala 类(非案例类)转换为 json
- sql - 如何将 GLDATE 和 GL_DATE 与 Toad for Oracle 一起使用
- php - get_result() 在本地主机上工作,但不在实时服务器上
- lua - x,y 之间的自动触摸点击位置
- php - 用于在 html 中抓取某些语法的正则表达式替代方案
- r - 如何将脚本从 Excel/VBA 复制/粘贴到 Rstudio