python - 无法在 Spark Dataframe 中包含 UTF-8 字符作为列的值
问题描述
我正在尝试将“ID”和“符号”的键值对列表转换为两列 [“id”、“值”] 的数据框。示例列表如下所示,有 4 个值。(Spark 会话是定义为“火花”)
L=[(1,"@"),(2,"#"),(3,"$"),(4,"£")]
df=spark.sparkContext.parallelize(L).toDF(["ID","VALUE"])
df.show()
但在这里它抛出错误
"UnicodeEncodeError: 'ascii' codec can not encode characters in position 66-67:ordinal not in range(128)
我知道它正在发生,因为 £ 不是 ascii 字符。我尝试将 list 中的字符转换为 utf-8 / unicode ,但仍然出现上述错误。
这里可能的解决方案是什么。
解决方案
推荐阅读
- google-cloud-platform - 项目中所有用户的 Cloud Shell 自定义映像
- firebase - 创建 Firebase 登录名和注册表单时出现意外错误
- html - 如何在 HTML 中获取当前用户?
- json - Freemarker 模板解析器或 snakeyaml 未按预期打印 json 字符串
- c++ - 从文件加载 uint64_t 值
- java - Spring Boot 创建类的实例,将参数传递给构造函数
- api - 单击按钮后如何从api获取数据
- sql - 1215 不能在laravel 5中添加外键约束,外键
- sql - 带有内部连接的 vba 更新查询的问题
- c# - 导管选择器选定的项目 = null Xamarin.forms