首页 > 解决方案 > 在pySpark中连接换行符char(13)

问题描述

char(13)在下面的 pyspark函数中添加下一行时出现错误concat是示例代码

spark.sql("select CONCAT('Vinay',CHAR(13),'AGARWAL') from tempTable")

pysparkCHAR(13)的concat函数下不支持吗?

标签: pysparkapache-spark-sqlpyspark-sql

解决方案


我找到了问题和解决方案。它不采用 char(30) 而是采用 \n 添加下一行字符。下面是解决方案。

spark.sql("select CONCAT('Vinay\n','AGARWAL') from tempTable")


推荐阅读