python - 如何从pyspark的列中删除连字符?
问题描述
我想-
从 pyspark 数据框的列中删除所有元素。
所以我有:
111-345-789
123654980
144-900-888
890890890
....
我想有一列是:
111345789
123654980
144900888
890890890
解决方案
您可以使用regexp_replace
:
df.withColumn("col", F.regexp_replace("col", "-", "")).show()
#+---------+
#| col|
#+---------+
#|111345789|
#|123654980|
#|144900888|
#|890890890|
#+---------+
或者replace
:
df.withColumn("col", F.expr("replace(col, '-', '')")).show()
推荐阅读
- css - Safari 位置固定在溢出内:自动
- angular - 模块 ag-grid-angular/main 没有导出成员 AgGridNg2.ts
- python - 为什么通过 for 循环分配值后我的数据框为空?
- javascript - 如何将点击的视频块打开到弹出模式?
- html - 将自己的样式设置为元素之前的内容
- java - 使用java导出到.csv不输出文件
- java - 如何使用spring cloud stream实现自定义kafka Partition
- javascript - 如何使用特定格式的时区缩写验证日期时间值
- powershell - 查找序列中的下一个数字
- ruby-on-rails-6 - Rails 6 声明命名空间类的约定?zeitwerk 自动加载器