pandas - 在pyspark中转换类别类型的数据框列
问题描述
我有一个数据框 df ,我想将一些列转换为类别类型。使用熊猫我可以这样做:
for col in categorical_collist:
df[col] = df[col].astype('category')
我想在 pyspark 中进行列转换。我该怎么做?
我尝试在 pyspark 中使用以下代码。但它在操作过程中没有给出我预期的输出。
from pyspark.sql.types import StringType
for col in categorical_collist:
df = df.withColumn(col, df[col].cast(StringType()))
解决方案
推荐阅读
- node.js - 获取错误响应,状态为:404 Not Found for URL
- spring - Oauth2、本机应用程序和令牌窃取
- elasticsearch - Elasticsearch 中的 MUST 和 MUST_NOT 查询
- java - 从字符串变量中的休息服务获取异常
- javascript - Javascript Date 对象未显示正确的月份
- c# - EF Core SQLITE - SQLite 错误 19:'UNIQUE 约束失败
- python - 将 Python 添加到 Windows 路径
- javascript - String .replace() does not work with '$' symbol
- ios - 将 alpha 设置为 0.0 后无法点击 UIButton,即使重置为 1.0
- openid - OpenID Connect 授权码字符串的格式是什么?