scala - 如何执行保存在文本文件中的spark scala脚本
问题描述
我已经在文本文件中编写了字数 scala-script 并将其保存在主目录中。如何调用和执行脚本文件“wordcount.txt”?
如果我尝试命令:spark-submit wordcount.txt
,它不起作用。
“wordcount.txt”文件的内容——
val text = sc.textFile("/data/mr/wordcount/big.txt");
val counts = text.flatMap(line => line.split(" ").map(word => (word.toLowerCase(),1)).reduceByKey(+).sortBy(_._2,false).saveAsTextFile(“count_output”);
解决方案
推荐阅读
- python-3.x - python git-submodule 从其他 git-submodule 导入
- c++ - 如何修复已在 C++ 中定义的 -main?
- c++ - 将算术类型转换为 std::array 的最简单方法
在 C++ 中 - javascript - 如何通过 JavaScript/JQuery 查找多维数组中元素的索引
- android - 从recyclerview中手动创建的cardview获取空值
- google-chrome - 在 Chrome 中使用 Dynamics 365 时使用不同的字体类型和大小
- woocommerce - 在 Woocommerce 电子邮件中显示购买说明的功能已弃用
- javascript - Chrome 和 IE 11 之间的 Jasmine spyOn 不同
- javascript - Google Maps Api Key 如何在我的 html 中工作?
- bash - 以逗号分隔的字符串形式查找目录列表,没有尾随逗号