java - Spark / Hdfs / Hdfs-客户端兼容性
问题描述
我正在运行基于 hdfs 集群的 hdfs 版本 2.9.1。Spark(针对 hdfs 客户端 2.9.1 构建)和使用 hdfs-client 2.9.1 的独立 scala/java 程序使用此集群。
我想逐步将设置升级到 hdfs 3 。没有破坏太多。我还没有找到关于 hdfs 服务器和 hdfs 客户端之间兼容性的平易近人的指南。
是否可以先升级 hdfs 客户端,然后再升级 hdfs 文件系统?还是反过来?
解决方案
这取决于您使用的 API。Hadoop 类和接口被分类为1,带有注释,或者Stable
, Evolving
, Unstable
, Deprecated
。
Stable
API 可以安全使用,因为预计在 Hadoop 4.0.0 2之前它不会被删除。
推荐阅读
- java - 在 IntelliJ 中运行 ImageJ 脚本
- dm-script - 访问 SI 设置选项
- html - 在引导程序中创建相邻 div 之间的间隙
- android - RecyclerView Endless Scroll不滚动
- c - 打印此模式背后的逻辑
- javascript - 如何在选择后插入节点?
- javascript - Nodejs - 使用 res.redirect() 在标头中发送 JWT 令牌;
- django - uWSGI 未在指定路径创建 Unix 套接字
- javascript - 如何在 gulp 中使用 styledown?
- python - django rest api中从视图到序列化器的数据