scala - 将 spark scala 中的列拆分为数组类型列和字符串类型列
问题描述
所以我的数据看起来像这样
"my_data,another_data,"[0,1,3,2,4]","[0,1,2,3,4]""
我想要的是
["my_data","another_data","[0,1,3,2,4]","[0,1,2,3,4]"]
到目前为止我尝试过的是: -
df.withColumn("valueSplit",split(col("value"),",\"|\","))
这给了我
["my_data,another_data","[0,1,2,3,2,4]"","[0,1,2,3,4]"]
谢谢是提前!
解决方案
推荐阅读
- django - 交易的django计算问题
- flutter - 错误:flutter/lib/ui/ui_dart_state.cc(199) 未处理的异常:空值检查运算符用于空值
- java - Eclipse RCP:如何使用 Workbench Site 键绑定服务注册 Jface 操作?
- python-3.x - 如何使用 PyPDF2 或任何其他包从旋转的 PDF 中提取文本而不将其从 Web 响应对象中保存?
- reactjs - reactPlayer 无法播放本地破折号(mpd)文件它返回 403 状态代码(禁止错误)
- java - JavaFX 应用程序在 IDE 中运行,带有 .bat,但双击时不运行
- flutter - 不使用google api根据位置查询firebase结果
- python - 我想要同一张图的两个图例。在给出的示例中,我想要红色和蓝色颜色条的两个图例
- python - Python 参数解析器 - 仅从控制台解析
- python - 如何从不明确的 url 中获取文件名?