python - 在 Spark Dataframe 中选择一系列列
问题描述
假设我有一个 Spark Dataframe df
,我如何选择一系列列,例如从第 100 列到第 200 列?
解决方案
由于df.columns
返回 a list
,您可以对其进行切片并将其传递给select
:
df.select(df.columns[99:200])
这将获得DataFrame
包含第 100 到第 200 列的子集,包括在内。
推荐阅读
- wordpress - 在 wp-head 中获取帖子和链接的特色图片 rel="preload" as="image"
- javascript - 全局保留 try 块内的变量值
- unit-testing - 带有弹出控制器的 ionic 5 单元测试
- javascript - 主机名/IP 与证书的替代名称 Node.js 不匹配
- deep-learning - 我正在尝试使用此基于 mtcnn 的代码进行人脸检测它是正确的,但它不会工作
- javascript - Jquery检查父母复选框
- sql - 加入多个表并从最近的表中选择结果
- python - 更新后使用 pip (SSL WRONG_VERSION_NUMBER) 时出错
- sql-server - Terraform 未检测到导入的 Azure SQL Server administrator_login_password
- reactjs - 如何显示一个数组,其中数组中的每个对象都是 ReactJS 中的新对象