pyspark - 在pyspark的任何列中删除具有特定值的行
问题描述
我在 pyspark 工作以清理数据集。数据集有“?” 在各个列中的各个行中。我想删除在其中任何位置具有值的任何行。我尝试了以下方法:
df = df.replace("?", "np.Nan") df=df.dropna()
但是,删除这些值不起作用。
我一直在网上寻找,但找不到任何可以理解的答案(我是新手)
解决方案
推荐阅读
- angular - Angular 2(v6)内联,如果其他?
- python - Scrapy 自定义设置
- php - 在一个 foreach 循环中合并 2 个单独的数据库查询或将查询合并为一个
- angular - Angular6按服务打开/显示组件
- r - Azure 上的 R 服务器
- javascript - 为 A-Frame 中的所有对象加载 html 和 js 后调用函数
- java - 如何在 java eclipse 中创建一个新的数据库
- html - 顶部带有按钮的背景图像
- python - 在 python pandas 上使用 np.where 设置多个条件?
- python - 阀门关闭时水力发电厂 (HPP) 中水体的振荡