azure - 有没有办法将数据直接加载到 json 或 csv 格式到 cosmos db gremlin api?
问题描述
我已经设置了 cosmos db gremlin api,并通过添加节点和属性并一一添加边来手动创建图形。有没有像我们在 cosmos db sql-api 中那样直接以 json 或 csv 格式将数据加载到 cosmos gremlin 中?请在这件事上给予我帮助
解决方案
有没有像我们在 cosmos db sql-api 中那样直接以 json 或 csv 格式将数据加载到 cosmos gremlin 中?
显然,根据此文档,数据迁移工具目前不支持 Gremlin API 帐户的导入工具。
但是,您可以考虑使用图形 BulkExecutor .NET 库在 Azure Cosmos DB Gremlin API 中执行批量操作。这里有示例应用程序。
您可以在其中使用生成循环或加载您自己的 json 文件。
更新:
尝试找到这样的直接解决方案,但没有运气。据我所知,也许您可以采用以下解决方案:
第一步,使用Azure 数据工厂将数据从 azure 数据湖以 json 文件的形式传输到 azure blob 存储中。
第二步,仍然需要使用 .net bulk SDK 加载 json 文件。
更新2:
@JemimaJeyakumar 我查看了此链接。这就是我在更新答案中提到的方式:Azure 数据工厂。但恐怕 ADF 不支持 cosmos db graph api。
推荐阅读
- mongodb - 转换以字符串格式存储的日期值并减去 mongodb 中的当前日期
- python - 如何根据数据框中的条件填充列?
- bash - 通过 bash 执行 sqlite 命令
- header - 启用滚动后如何以角度对齐未对齐的 p 表标题?
- python - RuntimeError:梯度计算所需的变量之一已被就地操作修改?
- java - QueryException:查询指定连接提取,但提取关联的所有者不在选择列表中
- python - 为 Reddit 提取所有可能的用户评论
- c++ - C++ 概念 - 需要括号中的概念导致 2 个冲突的错误消息
- snowflake-cloud-data-platform - 跟踪雪花中的错误 - 雪花中的验证功能期间出错
- java - 使用最新版本 Lucene 的示例