apache-spark - 如何在 Apache Spark 独立集群中设置文件路径?
问题描述
我需要一些关于在 Spark 中定义包含大量文件的目录的路径的提示。我已经建立了一个独立集群,其中一台机器作为 Worker,另一台机器作为 Master,驱动程序是我的本地机器。我用python在本地机器上开发我的代码。我已将所有文件复制到 Master 和 Worker,两台机器上的路径相同(如:/data/test/)。我已经设置了一个 SparkSession,但现在我不知道如何在我的脚本中定义目录的路径。所以我的问题是如何说Spark它可以在上面的目录中找到两台机器上的数据?我的另一个问题是如何处理像 .mal 这样的文件格式,我怎样才能读取这些文件?感谢您的任何提示!
解决方案
当 Spark 作业提交给驱动程序(主)时,发生的事情很少
- 驱动程序创建一个执行计划。它创建多个阶段,每个阶段包含多个任务。
- 集群管理器根据提交作业时的参数分配资源并从工作人员启动执行程序。
- 任务被交给执行者执行,驱动程序监控每个任务的执行。
sparkContext
当关闭或应用程序范围完成时,资源被释放并终止执行程序。
提交 spark 作业的驱动程序或 master 需要可访问的数据路径,因为它控制所有执行计划。驱动程序和集群管理器将负责在工作人员中执行不同类型的操作的所有事情。由于 spark 作业是在 master 中提交的,因此提供可以通过 master 机器的 spark 访问的数据路径就足够了。
推荐阅读
- excel - 使用带负数的 IFS
- r - 如何使用 cbind 将 300 列数据集中的 2 行从一个 df 传输到另一个
- r - 如何编辑此函数以便不需要指定迭代次数?
- python-3.x - 雪花无法识别数值
- docker - 在 debian:9-slim 容器下的 PHP 项目中启用 Xdebug
- get - 按 ID 获取 DynamoDB 返回空而不是 404
- python - 如何使用变量结果进行另一个计算python
- flutter - 如何使用 GetX 包管理 Flutter Web URL 路由?
- java - 为什么打印行中的 ahadot+asarot 相加而 ahadot1 和 asarot1 不相加?
- ios - 通过调用层次结构从下到上发出错误