python - RDFlib 解析大乌龟文件内存错误
问题描述
我正在尝试借助 Python 中的 rdflib 解析 1,4 Gb 的大型 .ttl 文件并出现内存错误。我已经尝试在 rdflib 中打开三重存储g.open("store", create=True)
,但是解析永远不会结束。
import rdflib
from rdflib import Graph, Literal, Namespace, URIRef, BNode
from rdflib.namespace import OWL, RDF, RDFS, XSD, SKOS
g = rdflib.Graph()
g.open("store", create=True)
g.parse("C:/Users/tim/Desktop/MEDCT.ttl", format='ttl')
这是在 rdflib 中打开本地三重商店的正确方法还是缺少某些东西?
我知道对于如此大的 .ttl 文件,建议将Raptor 与 Redland Python Bindings一起使用,但我什至无法在 Python 中安装和导入这个 RDF 库,因为它根本找不到。
您能分享一下您是如何解析大型海龟文件的经验吗?
解决方案
推荐阅读
- node.js - Node.js Mocha 错误:ReferenceError:未定义测试
- objective-c - [NSString alloc] 可能导致内存泄漏
- google-cloud-platform - 如何在 GCP 静态部署中正确重写单页应用程序的 url
- c# - 如何在 C# 中读取 .xltx(Excel 模板)
- c - 寻找一种从辅助函数调用 Perl XS C API 函数/宏的方法
- python - 广度优先搜索:如何获得货币兑换?
- c# - 在 C# 中打印或预览时如何更改 AdvanceDGV 的方向
- flutter - Flutter StreamBuilder 在加载时删除旧数据
- r - googleVis 不显示命令后的情节
- git - VSCode 编辑器作为 git 编辑器失败:无法连接到 VSCode 服务器