pyspark - 我可以要求一个简单的 pyspark 在每个工作节点上调用 .so 库的示例吗?
问题描述
嗨,我想是一名 C 程序员,并且很乐意使用 C 来运行不同的工作和研究。
然而,我的工作(在一家互联网 IT 公司)对 python 有极大的偏好。
我个人不介意学习,慢慢找到自己的路,但是压力很大,需要快速实现调用c函数的方法。
因此,我可以要求一个简单的例子来向我的同事证明 spark 可以使用 pyspark 并行调用 c 库吗?这样我就有了我应该做的事情的骨架,并将深入研究它。
非常感谢您提供任何帮助。很抱歉这个问题。
解决方案
推荐阅读
- amazon-web-services - 如何引用`AWS::CodeDeploy::DeploymentGroup::LoadBalancerInfo?`
- python - 如何在python中解析ISO格式的日期时间字符串?
- python - . + 选项卡自动完成在 Jupyter Notebook 中不起作用
- html - 如何使用我的 CSS 文件仅更改我的 HTML 文件的一部分?
- c# - ICollectionView WPF 上的分页和过滤
- r - 具有嵌套变量的 lme 中的多个随机斜率和多个随机截距
- c# - 保存更改时出现“无效的对象名称”错误
- keras - 将参数传递给 keras 损失函数的语法是什么?
- jekyll - 如何取消设置液体中的变量?
- python - 如何处理硒中的弹出窗口和cookie?