pyspark - 在pySpark中连接换行符char(13)
问题描述
char(13)
在下面的 pyspark函数中添加下一行时出现错误concat
是示例代码
spark.sql("select CONCAT('Vinay',CHAR(13),'AGARWAL') from tempTable")
pysparkCHAR(13)
的concat函数下不支持吗?
解决方案
我找到了问题和解决方案。它不采用 char(30) 而是采用 \n 添加下一行字符。下面是解决方案。
spark.sql("select CONCAT('Vinay\n','AGARWAL') from tempTable")
推荐阅读
- c# - 如何测试字节数组中的像素是否为白色?
- android - androidx 工作管理器问题 - “java.lang.IllegalStateException:无法解析结果路径字符串:”
- android - 如何在 appium 测试框架中使用 XPath 访问和单击反应原生元素?
- reactjs - setState 只更新一些值
- java - 接口上的显式类与泛型
- javascript - 异步调用后 React Context API 不更新状态
- r - 在每个组的变量上映射摘要
- angular - 是否可以仅重定向未找到路由的查询参数?
- embedded-linux - 尝试为 imx6ul 板移植 android 映像时出现内核恐慌
- r - mutate_ 中的 NSE 与 SE