apache-spark - 如何在 Spark 中使用 ASCII 函数
问题描述
我需要通过使用 scala 来使用 Spark 函数 ASCII(sparkSQl 字符串函数)的帮助
import org.apache.spark.sql.SparkSession
import spark.implicits._
import org.apache.spark.sql.functions
val a = sc.parallelize(Array("Santosh","Adithya"))
select ascii('Santosh')
我需要 santosh 的 ascii 值和 rdd a 的 ascii 值
解决方案
ascii是 spark-sql api 的一部分,只能用于 DataFrames/Datasets。
使用 ascii 函数将您的 RDD 转换为数据集
import spark.implicits._
val a = sc.parallelize(Array("Santosh","Adithya"))
case class Person(val fullName: String)
val ds = a.map(Person).toDS.selectExpr("ascii(fullName)")
ds.show
推荐阅读
- angular - 使用 Angular 7 保持屏幕和数据状态
- c# - 无法在 UWP 中使用 FromFile 中的路径加载图像
- mysql - 如何导出从 mysql 查询返回的“结果”?
- oracle - Oracle UTL_FILE 读取 CSV 文件行
- database - 在具有简单桌面 c# 应用程序的单台机器上运行时,如何管理(init\start\restart\create schema)我的 postgreSQL 服务器?
- wordpress - 如何在不影响主题或网站其他部分的情况下将自定义 HTML 文件插入 WordPress
- c++ - 异常后重置 Cuda 上下文
- javafx - 如何从子控制器为父控制器中的元素设置 FXML 属性
- amazon-cloudformation - 在 userdata 脚本中使用 boto3 时出现 MissingServiceIdError
- laravel - Laravel 错误 - 调用未定义的方法 Illuminate\Database\Query\Builder::gets()