首页 > 解决方案 > 在 pyspark 中使用 col 函数查看所有列

问题描述

我有一个包含多列的数据框,但是当我尝试使用 col 函数迭代这些列时,它会抛出错误

input: df.columns
output: ['Serial No.',
 'GRE Score',
 'TOEFL Score',
 'University Rating',
 'SOP',
 'LOR ',
 'CGPA',
 'Research',
 'Chance of Admit ']

我得到了这些列的名称,但我需要对这些列进行一些更改,我试图对其进行迭代

标签: sqlpyspark

解决方案


只需使用普通的 for 循环

df = ...
for c in df.columns:
  df = df.withColumn(c + '__new', F.col(c) + 1)

推荐阅读