apache-spark - 如何像运行 Python 作业一样运行 pyspark shell 代码
问题描述
我对火花很陌生。
我在 pyspark 中创建了 spark 代码,但它是 repl shell,我怎样才能将它作为脚本运行。
我试过python script.py
但它失败了,因为它无法访问火花库。
解决方案
推荐阅读
- ios - 使用 base64 字符串在烧瓶中上传/显示 iPhone HEIC 图像会产生损坏的图像
- android - xml文件对android有任何限制吗?
- r - 使用 for、if 和 else if 函数的新变量
- javascript - 强制 window.top.location.href 在 iframe 中重新加载
- raku - Perl 6 '^=' 运算符不产生结果,导致程序永远不会终止
- db2 - DB2 - 错误“不允许使用“WITH ISOLATION USE AND KEEP”子句”
- assembly - 特定处理器上的性能监控计数器 (RDPMC)
- vue.js - Vue.js 通过链接在 fb 上分享页面
- c# - 在单个查询中从 CosmosDb 中获取多种类型的实体
- python - 如何在 Python 中对段落列表进行标记?