apache-spark - 通过 API 访问 spark 程序
问题描述
我有一个 spark mlib 程序启动并运行,它将 nlp 应用于自由文本。我需要通过rest api访问这个程序。例如:我需要通过调用这些 API 在 Excel 工作表的每一行上应用 ml(转换每一行并从上述 ml 程序中获取结果)。我该怎么做?基本上是试图在 spark 程序周围有一个 API 包装器,而不是去 jupyter notebook 并手动执行它。
解决方案
如果您只想通过其余 API 进行预测,那么您最好的解决方案可能是: - 将您的模型转换为 PMML 并制作一个 Web 应用程序来使用它 - 将您的模型转换为 MLeap 并使用 mleap-serving/mleap-spring-boot 来托管您的机器学习模型。
您也可以在 web 环境中实现 spark,但您应该考虑 spark 需要的资源密集型操作。
您也可以使用任何 scala IDE 来处理您的项目。我更喜欢 Intelij IDEA,但你也可以使用 Eclipse。(你不必,你可以简单地从 Jupiter 导出到 PMML/Mleap)
推荐阅读
- node.js - Express 应用程序不会加载。它不断尝试在浏览器中加载,并且不会在控制台或浏览器中显示任何错误
- python - 在 OpenCV 中绘制一个扭曲的圆
- python - 如何从顶部文件或标准输出中删除 n 行(即撕掉它的标题)
- swiftui - SwiftUi 过渡/动画
- python - 如何删除日志过滤器/格式化程序
- python - 将循环中的多个数组/组转换为单个 DataFrame
- android - Android,即使授予权限,也拒绝创建文件的权限
- listview - 如何访问列表视图中的单个项目以更新进度条指示器
- sql - 如何使用 MDX SQL 选择具有相同产品名称的多行的最大值?
- node.js - 如何从 Cloudfront CDN 提供视图