python - 如何在 pyspark 数据帧的一行中找到一组列的平均值并将其作为另一列添加到同一数据帧?
问题描述
我有一个由 500 列组成的 DataFrame,对于每一行,我需要获取以"country_"
.
expr=[F.sum(train_data_df[x])/colCount for x in train_data_df.columns if 'country_' in x]
avg_train_data_df = train_data_df.withColumn('avg', *expr)
我收到以下错误响应:
TypeError: withColumn() takes 3 positional arguments but 212 were given
解决方案
推荐阅读
- mysql - JHipster - 在 Hibernate 中使用现有数据库
- http - 防止jboss中的主机头攻击
- mysql - 我有两个查询,我想同时获得结果表
- php - Laravel 5.6 无法翻译内容
- css - React-Native:百分比值的保证金
- asp.net-mvc - 无法在 IIS 服务器上运行 mvc5 项目
- ms-access - 使用 SAS 触发 MS Access 功能
- javascript - Combining addClass with fadeIn on mouseenter
- image - onenote API 手写图片叠加?
- java - 长的 NumberFormatException