dataframe - 有没有办法将 Spark 数据帧写入 .dat 文件?
问题描述
我试过这个,但它没有用。据我了解,Spark
不支持.dat
文件格式。我不想将文件写为.csv
or .json
,然后稍后通过 shell 脚本进行转换。
a.write.format("dat").save(outputPath)
解决方案
Spark 格式函数不接受“dat”作为参数。您可以在文档中获得更多信息:https ://spark.apache.org/docs/latest/sql-data-sources-load-save-functions.html
抱歉,您可以做的最简单的事情是创建csv
并将其转换为dat
以后。
推荐阅读
- reverse-proxy - 具有静态内容(尤其是 kubevious UI)的网站的 Istio 配置
- grails - 在 grails 3 中注入数据源会忽略 application.groovy 中设置的其他属性
- angular - JWT 令牌未定义,但它存在于 http 响应中
- sql - Sparksql 针对 3 个表选择某些记录
- javascript - addCustomFilter() 不适用于 BPF,用于在 Microsoft Dynamics 365 CRM 中使用链接实体筛选器进行系统用户查找
- c# - 无法在使用 C# 的 influxdb 中使用 JWT 进行身份验证
- python - 如何在 GitPython 中使用 git pull?
- ruby-on-rails - 将嵌套关联渲染为 json
- openstack - 乌苏里版 Openstack 中的 cpu_util 指标
- mysql - 为什么 express (node.js) 需要参数来删除请求?