首页 > 解决方案 > 在 Kubernetes 上使用 Hadoop

问题描述

我开发了一个基于Hadoop的大数据分析系统。

我想在 Kubernetes 上将系统容器化。现在我使用 helm 上的 stable hadoop chart 来设置 hadoop,但是我分析的数据通常高达 100GB。

并且 kubernetes 只能使用 / 目录的容量。换句话说,我的hadoop作业不能使用其他磁盘的资源。

Kubernetes 是否有其他方法可以将其他磁盘资源用作容器作业(而不是卷)。

或者我可以在非系统磁盘上设置 Kubernetes 的工作节点吗?

标签: hadoopkuberneteskubernetes-helm

解决方案


基于Hadoop

您可以将与 Hadoop兼容的文件系统与任何 Hadoop-API 系统一起使用,包括 Kubernetes 上的 Apache Spark。

不需要Hadoop/YARN/MapReduce “基于 Hadoop”

换句话说,尝试在 Rook 项目 (Ceph) 或 MinIO (S3-like) 这样的环境中正常工作的其他东西

但是,我建议不要将您的数据湖存储放在临时容器中


推荐阅读