apache-spark - 如何选择数据集的所有列
问题描述
我想选择使用数据集的所有列,而不必在 JAVA 中一一输入列名,如下所示:
dF.select(dF.columns().toString(),"someothercolumn");
但它不起作用,
谢谢
解决方案
我是这样解决的:
dF.select(dF.col("*"),col("someothercolumn"));
谢谢。
推荐阅读
- apache-spark - 用于交互式开发的 SBT 控制台 vs Spark-Shell
- indexing - 如何在 SOLR 中为无模式集合索引空字段?
- javascript - 如何在 React 的渲染函数中不使用 setState
- ajax - 使用无限滚动 AJAX 加载更多带有 URL 搜索参数
- openlayers-5 - OpenLayers 5:平滑移动标记
- oauth-2.0 - 混合流 Web 视图攻击者知道重定向 URL (IdentityServer4)
- javascript - 在滚动上添加和删除类
- python - Django AttributeError:'tuple'对象没有属性'get'
- apache - 从根上下文路径加载资源时 Apache 反向代理 404 错误
- android - 如何使用新的插件 DSL 应用 com.android.application 插件?