java - 将字节数组转换为 Spark 列
问题描述
如何将字节数组转换为org.apache.spark.sql.Column
?
例如:
import org.apache.spark.sql.Column
...
def toColumn(bytes: Array[Byte]): Column = {
// todo
}
解决方案
使用lit
应该做的工作:
def toColumn(bytes: Array[Byte]): Column = {
lit(bytes)
}
val df = spark.range(1)
df.withColumn("byte", toColumn(Array[Byte](1,1,1,1))).show
+---+-------------+
| id| byte|
+---+-------------+
| 0|[01 01 01 01]|
+---+-------------+
推荐阅读
- assembly - 为什么前向引用 ADR 指令在 Thumb 代码中使用偶数偏移进行汇编?
- python - 使用 numpy 的 Python 三维零数组
- c++ - 如何在函数中将字符串和分数存储为(整数或浮点数)
- css - Bootstrap 4 导航栏下拉菜单链接
- c++ - 带模板的 C++ 链表 - 如何创建 pop()?
- tensorflow - 如何按行重塑张量流张量?
- python - 实施追随者和追随者无法正常工作
- java - 使用@RequestParam 时不支持请求方法“POST”
- javascript - 下拉列表没有在 jQuery 中为 .slideDown() 设置动画
- docker - 如何在 docker 中运行 chromedp