apache-spark - 是否可以在 PySpark 中使用 SANSA-RDF 和 SANSA-Query?
问题描述
我计划使用SANSA-RDF 将turtle RDF/XML 文件读入Spark 并使用SANSA-Query 库进行查询。是否可以使用这些库开发 PySpark (python) 代码?是否有任何 PySpark (python) 示例?
提前致谢..
解决方案
推荐阅读
- r - InfoBox 不与 Shiny 中的服务器通信
- javascript - 如何通过将事件从一个组件发送到另一个组件来传递布尔值 - vue
- c++ - 链接时未定义的参考错误 - Makefile 并包含已配置
- php - 生成在 3 天内过期的 URL 的最佳方法是什么?
- mongoose - 具有匹配 ObjectId 的 mongoose 聚合查找
- r - R中的条件格式引用其他行中的数据
- php - 使用 AlamoFire 和预签名 URL 将图像上传到 S3 存储桶时出现问题
- javascript - 聊天应用程序如何知道用户何时发送消息以重新呈现?
- applet - 如何构建一个可通过浏览器访问的简单小程序
- node.js - compose up --build 不刷新/重建