scala - 尝试使用 Spark 聚合函数时无法解析符号
解决方案
您的导入声明应该是import org.apache.spark.sql.functions._
._
通配符导入在哪里。org.apache.spark.sql.functions
object 定义了要使用的内置标准函数。
然后你可以使用这样的函数:
df.groupBy(df("pt")).agg(max("id"), mean("encodedType")).show
您可以在此链接中查看示例
推荐阅读
- ios - Apple 证书和配置文件 - 它们何时到期?
- ruby-on-rails - Errno::ECONNREFUSED(连接被拒绝 - 端口 587 的连接(2)
- django - 可以做更长的加载包django
- python - scikit learn中的GridSearchCV如何为k折挑选最佳参数
- java - 从 RESTful API 检索内容到 java 桌面应用程序中的表
- python - 添加默认值以在熊猫中合并
- javascript - Mozilla FireFox:成功和失败的 AJAX 响应不起作用 Laravel
- java - 是否可以在 JAVA 中编写正确且可移植的控制台输出“hello world”?
- wpf - 如果没有 IValueConverter,我该如何处理重复?
- c# - 如何在另一个项目中分离实体框架