java - 如何更改 Spark SQL(在 java 中)DataFrame 中的列类型?
问题描述
我正在尝试使用 java 在 spark sql 中将列数据类型从 long 转换为 int,我在 scala 中看到了一些示例并进行了尝试,但是,它不是 wotking
df.withColumn("is_open", toInt("is_open"));
我需要在哪里改变。提前致谢
解决方案
您可以使用cast功能。
scala> val df = spark.range(10)
df: org.apache.spark.sql.Dataset[Long] = [id: bigint]
scala> import org.apache.spark.sql.functions._
import org.apache.spark.sql.functions._
scala> df.withColumn("new_col", col("id").cast("string"))
res4: org.apache.spark.sql.DataFrame = [id: bigint, new_col: string]
推荐阅读
- python-3.x - 我的代码的哪一部分打印了这个特定的行?
- typescript - 在 Slide ionic 5 上播放视频
- if-statement - 我在 verilog 中的 if 和 else 语句没有给出预期的结果
- android - 导航组件 - 在导航图中访问 BuildConfig
- ios - 未找到模块“firebase_core”颤振示例动态链接测试项目
- c - _findnext() 在有很多文件时返回一个大小为 1 的列表
- python - 我想在输入行中输入x = 499,对吗?,有什么办法吗?
- c# - 派生类上的 C# AllowMultiple 属性
- node.js - 与任何第三方网站的合法登录用户连接/协作
- javascript - 将我的静态代码与我的动态代码结合起来。(避免匹配同名玩家)