apache-spark - Do spark tasks(per executor) share cache location?
问题描述
Do spark uses same cache location for storing tmp files per each executor
e.g., If I have two task running in one executor and both create a file with the same name, will one gives an error that "file exists"?
解决方案
我从另一个来源得到答案,
它确实使用相同的缓存位置,根据它的 spark local dirs 属性,以及用于 java 东西的 io tmp dir,
如果通过创建文件您的意思是添加文件 (addFile),那么您可以通过将 spark.files.overwrite 设置为 true 来克服这个问题,这仅在当前文件与新添加的文件不同时才有效。
推荐阅读
- html2canvas - html2canvas 截图大小控制
- django - 在 django url 中添加 ?q=search+term
- java - ObjectMapper:如何在蛇案例中获取根元素
- javascript - 跨浏览器鼠标滚轮
- java - 同时来电时如何处理
- google-maps - 离子原生谷歌地图在浏览器中运行良好,但在设备上显示白屏 - Ionic4
- javascript - 为什么默认情况下我无法从网页中的相应 Hex/Dec 代码值(例如:₫)中获取货币符号?
- c++ - c ++ make宏,如何使编译时函数生成
- vb.net - 有没有办法将 gridview 数据导出到 Instagram 友好的图片?
- javascript - 为什么 Array.filter(Number) 在 JavaScript 中过滤零?